JP2022034538A - タッチ体験向上のためのリッドコントローラハブアーキテクチャ - Google Patents

タッチ体験向上のためのリッドコントローラハブアーキテクチャ Download PDF

Info

Publication number
JP2022034538A
JP2022034538A JP2021131913A JP2021131913A JP2022034538A JP 2022034538 A JP2022034538 A JP 2022034538A JP 2021131913 A JP2021131913 A JP 2021131913A JP 2021131913 A JP2021131913 A JP 2021131913A JP 2022034538 A JP2022034538 A JP 2022034538A
Authority
JP
Japan
Prior art keywords
display
sensor data
touch
touch sensor
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021131913A
Other languages
English (en)
Inventor
エス. パリク クンジャル
S Parikh Kunjal
エス. チェン アントニオ
S Cheng Antonio
エス. ディーフェンボー ポール
S Diefenbaugh Paul
ツァイ ジャクソン
Tsai Jackson
ジェームス ラレイ エドワード
James Raleigh Edward
ラヴィンドラ シンハ ヴィシャル
Ravindra Sinha Vishal
リアン チュン-ユ
Chung-Yu Liang
マギ アレクサンダー
Magi Aleksander
リ イファン
Yifan Li
キング マット
King Matt
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of JP2022034538A publication Critical patent/JP2022034538A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04184Synchronisation with the driving of the display or the backlighting unit to avoid interferences generated internally
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1616Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1632External expansion units, e.g. docking stations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1641Details related to the display arrangement, including those related to the mounting of the display in the housing the display being formed by a plurality of foldable display components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1647Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1675Miscellaneous details related to the relative movement between the different enclosures or enclosure parts
    • G06F1/1677Miscellaneous details related to the relative movement between the different enclosures or enclosure parts for detecting open or closed state or particular intermediate positions assumed by movable parts of the enclosure, e.g. detection of display lid position with respect to main body in a laptop, detection of opening of the cover of battery compartment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1675Miscellaneous details related to the relative movement between the different enclosures or enclosure parts
    • G06F1/1681Details related solely to hinges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1675Miscellaneous details related to the relative movement between the different enclosures or enclosure parts
    • G06F1/1683Miscellaneous details related to the relative movement between the different enclosures or enclosure parts for the transmission of signal or power between the different housings, e.g. details of wired or wireless communication, passage of cabling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3215Monitoring of peripheral devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3215Monitoring of peripheral devices
    • G06F1/3218Monitoring of peripheral devices of display devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3231Monitoring the presence, absence or movement of users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3262Power saving in digitizer or tablet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3265Power saving in display device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/3287Power saving characterised by the action undertaken by switching off individual functional units in the computer system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/3293Power saving characterised by the action undertaken by switching to a less power-consuming processor, e.g. sub-CPU
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/70Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
    • G06F21/82Protecting input, output or interconnection devices
    • G06F21/83Protecting input, output or interconnection devices input devices, e.g. keyboards, mice or controllers thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/4401Bootstrapping
    • G06F9/4418Suspend and resume; Hibernate and awake
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • G09G2340/0435Change or adaptation of the frame rate of the video stream
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Neurology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

【課題】リッドコントローラハブは、入力センサにより生成されたセンサデータを処理し、既存のデバイスよりも向上および改善した体験を実現する方法、装置システム及びモバイルコンピューティングデバイスを提供する。【解決手段】方法は、タッチディスプレイコントローラからタッチセンサデータを受信する段階と、ディスプレイリフレッシュ通知の受信に応じて、タッチセンサデータに基づいて、調整されたタッチセンサデータを生成する段階と、調整されたタッチセンサデータをオペレーティングシステムに送信する段階と、を含む。タッチセンサデータを受信する段階、調整されたタッチセンサデータを生成する段階及び調整されたタッチセンサデータを送信する段階は、モバイルコンピューティングデバイスのリッド内で実行され、オペレーティングシステムは、モバイルコンピューティングデバイスのベース内に配置された1又は複数の処理ユニットの上で実行される。【選択図】図1A

Description

[関連出願の相互参照]
本出願は、2020年8月18日に出願された米国仮特許出願第63/067,071号(発明の名称「タッチ体験向上のためのリッドコントローラハブアーキテクチャ」)の優先権の利益を主張する、2020年12月24日に出願された米国出願第17/247,836号(発明の名称「リッドコントローラハブ」)の継続出願である(米国特許法第120条の下でその優先権の利益を主張する)。先行出願の開示は、本出願の開示の一部とみなされ、本出願の開示にその全体が参照によって組み込まれる。
既存のラップトップは、マイクロホン、カメラ、およびタッチスクリーンなどの様々な入力センサを、リッド内に含む。これらのリッドセンサにより生成されたセンサデータは、ヒンジ越しにラップトップのベースまで延在するワイヤにより送られる。ベースにおいて、それらはラップトップの計算リソースにより処理され、オペレーティングシステムおよびアプリケーションによりアクセス可能となる。
リッドコントローラハブを含む第1の例示的なコンピューティングデバイスのブロック図を示す。
リッドコントローラハブを含む第2例示的モバイルコンピューティングデバイスの斜視図を示す。
リッドコントローラハブを含む第3の例示的なモバイルコンピューティングデバイスのブロック図を示す。
リッドコントローラハブを含む第4の例示的なモバイルコンピューティングデバイスのブロック図を示す。
図3のリッドコントローラハブのセキュリティモジュールのブロック図を示す。
図3のリッドコントローラハブのホストモジュールのブロック図である。
図3のリッドコントローラハブのビジョン/撮像モジュールのブロック図を示す。
図3のリッドコントローラハブのオーディオモジュールのブロック図を示す。
図3のリッドコントローラハブとともに使用されるタイミングコントローラ、内蔵ディスプレイパネル、および追加的な電子装置のブロック図を示す。
リッドコントローラハブを含むモバイルコンピューティングデバイスにおけるコンポーネントの例示的な物理的配置を示すブロック図を示す。
リッド内のタイミングコントローラおよびリッドコントローラハブの例示的な物理的配置のブロック図を示す。 リッド内のタイミングコントローラおよびリッドコントローラハブの例示的な物理的配置のブロック図を示す。 リッド内のタイミングコントローラおよびリッドコントローラハブの例示的な物理的配置のブロック図を示す。 リッド内のタイミングコントローラおよびリッドコントローラハブの例示的な物理的配置のブロック図を示す。 リッド内のタイミングコントローラおよびリッドコントローラハブの例示的な物理的配置のブロック図を示す。
様々なリッドコントローラハブ実施形態について、ヒンジワイヤ数の内訳の表を示す。 様々なリッドコントローラハブ実施形態について、ヒンジワイヤ数の内訳の表を示す。 様々なリッドコントローラハブ実施形態について、ヒンジワイヤ数の内訳の表を示す。
リッドにおけるディスプレイ内マイクロホンおよびカメラの例示的配置を示す。 リッドにおけるディスプレイ内マイクロホンおよびカメラの例示的配置を示す。 リッドにおけるディスプレイ内マイクロホンおよびカメラの例示的配置を示す。
例示的な発光型ディスプレイにおける画素の簡略化された断面を示す。 例示的な発光型ディスプレイにおける画素の簡略化された断面を示す。
一体型マイクロホンを有する例示的画素の組を示す。
図14Aの例示的画素の、線A-A′に沿った断面を示す。
複数の画素にわたる例示的マイクロホンを示す。 複数の画素にわたる例示的マイクロホンを示す。
ディスプレイ内カメラとともに、例示的画素の組を示す。
図15Aの例示的画素の、線A-A′に沿った断面を示す。
複数の画素にわたる例示的カメラを示す。 複数の画素にわたる例示的カメラを示す。
内蔵ディスプレイ内に組み込み可能な例示的カメラを示す。
リッドコントローラハブを含むモバイルコンピューティングデバイスの例示的ソフトウェア/ファームウェア環境を示すブロック図を示す。
開構成のモバイルコンピューティングデバイスの上面図を示す。ここで第1の例示的な折りたたみ可能ディスプレイは、常時オンディスプレイとして動作し得る部分を含む。 閉構成のモバイルコンピューティングデバイスの上面図を示す。ここで第1の例示的な折りたたみ可能ディスプレイは、常時オンディスプレイとして動作し得る部分を含む。
常時オンディスプレイとして動作し得る部分を含む第2の例示的な折りたたみ可能ディスプレイを有する、開構成のモバイルコンピューティングデバイスの上面図を示す。
閉構成にある図19Aのモバイルコンピューティングデバイスの横断面図を示す。 閉構成にある図19Aのモバイルコンピューティングデバイスの上面図を示す。
常時オンディスプレイとして動作され得るディスプレイ部分を有する折りたたみ可能ディスプレイを含むモバイルコンピューティングデバイスの図を示す。 常時オンディスプレイとして動作され得るディスプレイ部分を有する折りたたみ可能ディスプレイを含むモバイルコンピューティングデバイスの図を示す。 常時オンディスプレイとして動作され得るディスプレイ部分を有する折りたたみ可能ディスプレイを含むモバイルコンピューティングデバイスの図を示す。 常時オンディスプレイとして動作され得るディスプレイ部分を有する折りたたみ可能ディスプレイを含むモバイルコンピューティングデバイスの図を示す。 常時オンディスプレイとして動作され得るディスプレイ部分を有する折りたたみ可能ディスプレイを含むモバイルコンピューティングデバイスの図を示す。 常時オンディスプレイとして動作され得るディスプレイ部分を有する折りたたみ可能ディスプレイを含むモバイルコンピューティングデバイスの図を示す。 常時オンディスプレイとして動作され得るディスプレイ部分を有する折りたたみ可能ディスプレイを含むモバイルコンピューティングデバイスの図を示す。 常時オンディスプレイとして動作され得るディスプレイ部分を有する折りたたみ可能ディスプレイを含むモバイルコンピューティングデバイスの図を示す。 常時オンディスプレイとして動作され得るディスプレイ部分を有する折りたたみ可能ディスプレイを含むモバイルコンピューティングデバイスの図を示す。 常時オンディスプレイとして動作され得るディスプレイ部分を有する折りたたみ可能ディスプレイを含むモバイルコンピューティングデバイスの図を示す。 常時オンディスプレイとして動作され得るディスプレイ部分を有する折りたたみ可能ディスプレイを含むモバイルコンピューティングデバイスの図を示す。 常時オンディスプレイとして動作され得るディスプレイ部分を有する折りたたみ可能ディスプレイを含むモバイルコンピューティングデバイスの図を示す。
常時オンディスプレイ部分を有する折りたたみ可能ディスプレイに関連付けられた、例示的なタイミングコントローラと、追加的なディスプレイパイプラインコンポーネントとのブロック図を示す。
常時オンディスプレイとして動作可能な、モバイルコンピューティングデバイスの折りたたみ可能ディスプレイを動作するための例示的方法を示す。
典型的なデュアルディスプレイコンピューティングシステムの異なるディスプレイデバイスに対するユーザの注意を表す図である。 典型的なデュアルディスプレイコンピューティングシステムの異なるディスプレイデバイスに対するユーザの注意を表す図である。
典型的な複数のディスプレイコンピューティングシステムの異なるディスプレイデバイスに対するユーザの注意を表す図である。 典型的な複数のディスプレイコンピューティングシステムの異なるディスプレイデバイスに対するユーザの注意を表す図である。 典型的な複数のディスプレイコンピューティングシステムの異なるディスプレイデバイスに対するユーザの注意を表す図である。
少なくとも1つの実施形態に係るユーザの存在および注意に基づいてディスプレイデバイスを管理するように構成された複数のディスプレイコンピューティングシステムの簡略化されたブロック図である。
複数のディスプレイコンピューティングシステムにおけるカメラのあり得る視野を示す上平面図である。
ディスプレイデバイスに対する、あり得るユーザの頭部/顔の向きを示す、上平面図である。 ディスプレイデバイスに対する、あり得るユーザの頭部/顔の向きを示す、上平面図である。 ディスプレイデバイスに対する、あり得るユーザの頭部/顔の向きを示す、上平面図である。
少なくとも1つの実施形態に係る複数のディスプレイについてユーザの存在ベースのディスプレイ管理を実行するように構成されたデュアルディスプレイコンピューティングシステムの異なるディスプレイデバイスに対するユーザの注意を表す図である。 少なくとも1つの実施形態に係る複数のディスプレイについてユーザの存在ベースのディスプレイ管理を実行するように構成されたデュアルディスプレイコンピューティングシステムの異なるディスプレイデバイスに対するユーザの注意を表す図である。
少なくとも1つの実施形態に係る複数のディスプレイについてユーザの存在ベースのディスプレイ管理を実行するように構成された複数のディスプレイコンピューティングシステムの異なるディスプレイデバイスに対するユーザの注意を表す図である。 少なくとも1つの実施形態に係る複数のディスプレイについてユーザの存在ベースのディスプレイ管理を実行するように構成された複数のディスプレイコンピューティングシステムの異なるディスプレイデバイスに対するユーザの注意を表す図である。 少なくとも1つの実施形態に係る複数のディスプレイについてユーザの存在ベースのディスプレイ管理を実行するように構成された複数のディスプレイコンピューティングシステムの異なるディスプレイデバイスに対するユーザの注意を表す図である。
少なくとも1つの実施形態に係る図46のコンピューティングシステムの追加的な詳細の概略図である。
少なくとも1つの実施形態に係る図30のコンポーネントの追加的な詳細の簡略化されたブロック図である。
少なくとも1つの実施形態に係るリッドコントローラハブに関連付けられ得る例示的プロセスの高次フローチャートである。
少なくとも1つの実施形態に係るユーザの存在を検出することに関連付けられ得る例示的プロセスの簡略化されたフローチャートである。
少なくとも1つの実施形態に係る認証機構をトリガすることに関連付けられ得る例示的プロセスの簡略化されたフローチャートである。
少なくとも1つの実施形態に係るディスプレイパネルを適応的に減光することに関連付けられ得る例示的プロセスの簡略化されたフローチャートである。
少なくとも1つの実施形態に係るディスプレイパネルを適応的に減光することに関連付けられ得る例示的プロセスの簡略化されたフローチャートである。
少なくとも1つの実施形態に係るディスプレイデバイスの非アクティブタイムアウトに関連付けられ得る例示的プロセスの簡略化されたフローチャートである。
向上したタッチユーザ体験を提供可能なリッドコントローラハブを含む、例示的コンピューティングデバイスの簡略化されたブロック図である。
図38に示すコンピューティングデバイスにおけるコンポーネント間の情報の例示的な流れを示す。
オペレーティングシステムにタッチセンサデータを送信することを、ディスプレイリフレッシュレートに同期する、例示的方法を示す。
組み合わせジェスチャーおよびマルチプレーンジェスチャーをサポート可能な例示的コンピューティングデバイスの簡略化されたブロック図である。
コンピューティングデバイスで行われた、例示的組み合わせジェスチャーを示す。
関連マルチプレーンジェスチャーおよび基準タッチジェスチャーの第1例を示す。 関連マルチプレーンジェスチャーおよび基準タッチジェスチャーの第1例を示す。 関連マルチプレーンジェスチャーおよび基準タッチジェスチャーの第1例を示す。
関連マルチプレーンマルチユーザジェスチャーの第2の例を示す。 関連マルチプレーンマルチユーザジェスチャーの第2の例を示す。 関連マルチプレーンマルチユーザジェスチャーの第2の例を示す。
マルチプレーンジェスチャーの第3の例を示す。 マルチプレーンジェスチャーの第3の例を示す。
関連マルチプレーンジェスチャーの第4の例を示す。 関連マルチプレーンジェスチャーの第4の例を示す。
関連マルチプレーンジェスチャーの第5の例を示す。 関連マルチプレーンジェスチャーの第5の例を示す。
関連マルチプレーンジェスチャーの第6の例を示す。 関連マルチプレーンジェスチャーの第6の例を示す。
モバイルコンピューティングデバイスに適用された組み合わせジェスチャーを判定し、組み合わせジェスチャーに基づき動作を実行する例示的方法である。
一連のマルチプレーンジェスチャーの存在を判定し、マルチプレーンジェスチャーに基づいて動作を実行する例示的方法である。
ユーザの存在に基づいて、タッチ操作を調整する例示的方法を示す。
ユーザの存在、関与、およびインタラクションに基づき、タッチ操作を制御可能な例示的コンピューティングデバイスの簡略化されたブロック図である。
ユーザの存在、関与、およびインタラクションに基づき、タッチ操作を制御する例示的方法である。
リッドコントローラハブを含む例示的モバイルコンピューティングデバイスのベース内のコンピューティングデバイスコンポーネントのブロック図である。
本明細書に記載の技術の実装の一部として命令を実行可能な例示的処理ユニットのブロック図である。
本明細書に開示のリッドコントローラハブは、ラップトップまたは同様のフォームファクターを有するコンピューティングデバイスのリッド内で、様々な計算タスクを実行する。リッドコントローラハブは、リッド内に配置されたマイクロホン、タッチスクリーン、カメラ、および他のセンサにより生成されたセンサデータを処理可能である。リッドコントローラハブは、ユーザ体験が向上および拡張し、プライバシーおよびセキュリティが高まり、より低電力消費で、既存のデバイスよりも向上した工業的デザインのラップトップを可能にする。例えば、リッドコントローラハブは、タッチセンサデータのサンプリングおよび処理を、ディスプレイのリフレッシュレートと同期可能とする。これはスムーズで反応の良いタッチ体験に帰結し得る。リッドにおけるカメラおよびマイクロホンにより捕捉された画像およびオーディオセンサデータの継続的な監視および処理は、認証ユーザの声または顔が検出されるとラップトップが起動することを可能とする。リッドコントローラハブは、信頼できる実行環境で動作することで、向上したセキュリティを提供する。リッドコントローラハブにおいては、適切に認証されたファームウェアのみが動作許可されている。これは、望まないアプリケーションがリッドに基礎を置くマイクロホンおよびカメラにアクセスできないことと、リッドコントローラハブの機能をサポートするためにリッドコントローラハブにより処理される画像およびオーディオセンサデータが、リッドコントローラハブに対してローカルに保たれることとを意味する。
リッドコントローラハブの計算リソースにより体験の向上および改善が可能となる。例えば、リッドコントローラハブ内のニューラルネットワークアクセラレータは、ビデオ通話の背景における表示または顔をぼやかす、あるいは音声通話の背景で吠える犬の音をフィルタアウトすることが可能である。さらに、センサをそれらが使用される可能性が高い場合にのみイネーブルするなど、タッチインタラクションが検出された場合における典型的なサンプリングレートでのサンプリングタッチディスプレイ入力など様々な技術の使用を通じて、省電力が実現される。さらに、センサデータを、ヒンジ越しに送信してオペレーティングシステムに処理させる代わりに、リッドにおいてセンサデータをローカルに処理することで、レイテンシ改善が図られる。リッドコントローラハブはさらに、ヒンジ越しに通されるワイヤの数がより少ないラップトップデザインを可能とする。これはヒンジコストの低減を可能とするだけでなく、よりシンプルで、見た目に良い工業的デザインに帰結し得る。これらおよび他のリッドコントローラハブの特徴および利点をより詳細に後述する。
以下の説明では、特定の詳細が記載されるが、本明細書に記載される技術の実施形態は、これらの特定の詳細がなくとも実施され得る。既知の回路、構造、および技術は、本明細書の理解を不明瞭にすることを避けるため、詳細に示していない。「ある実施形態」、「様々な実施形態」、「いくつかの実施形態」などは、特徴、構造、または特性を含み得るが、必ずしも全ての実施形態が特定の特徴、構造、または特性を含むわけではない。
いくつかの実施形態は、他の実施形態についての特徴の一部または全部を有してよく、これらの特徴を一切有さなくてもよい。「第1」、「第2」、「第3」などは共通のオブジェクトを記載し、同様のオブジェクトの異なる例が言及されていることを示す。そのような形容詞は、このように記載されたオブジェクトが、時間的にも空間的にも、所与の順序、順位、または他の任意の様式にある必要があることを示すものではない。「接続(connected)」は要素が互いに直接物理的または電気的に接触していることを示し得、「結合(coupled)」は要素が互いと協働またはインタラクトしているが、これらが直接物理的または電気的に接触していても、していなくてもよいことを示し得る。「略」という語で修飾された用語には、修飾されていない用語の意味からわずかに変化した配置、向き、間隔、または位置を含む。例えば、モバイルコンピューティングのベースに対して略360度回転可能な当該モバイルコンピューティングデバイスのリッドの記載は、デバイスベースに対して360度から数度内で回転可能なリッドを含む。
本説明では、「ある実施形態では」、「実施形態では」「いくつかの実施形態では」、および/または「様々な実施形態では」という表現が使用される場合があり、これらはそれぞれ、同一の実施形態または異なる実施形態のうちの1または複数を指し得る。さらに本開示の実施形態について使用される「備える(comprising)」、「含む(including)」、および「有する(having)」などの用語は同義である。
以下に図面を参照するが、図面は必ずしも縮尺どおりに描かれておらず、同様または同一の符号が別異なる図における同様または同一の部分を指定するために使用され得る。異なる図における同様または同一の符号の使用は、同様または同一の符号を含む全ての図面が単一の、または同じ実施形態を構成することを意味するものではない。異なる文字の添え字を有する同様の符号は、同様のコンポーネントの異なる例を表し得る。図面は一般的に、例として、非限定的に、本書に記載の様々な実施形態を示している。
以下の記載では、説明の目的のため、数値的な特定の詳細がこれらの理解を提供するために記載されている。しかし、新規の実施形態がこれらの特定の詳細がなくとも実施可能であることは明白であり得る。他の例では、既知の構造およびデバイスが、その記載を容易にするためにブロック図の形態で示される。本発明は請求項の範囲内の全ての変形、均等物、および代替物を網羅するものである。
図1Aは、リッドコントローラハブを含む第1の例示的なモバイルコンピューティングデバイスのブロック図を示す。コンピューティングデバイス100は、ヒンジ130によりリッド120に接続されたベース110を含む。モバイルコンピューティングデバイス(本明細書では「ユーザデバイス」とも称する)100は、ラップトップまたは同様のフォームファクターを有するモバイルコンピューティングデバイスであり得る。ベース110は、メモリコントローラ、グラフィックス処理ユニット(GPU)、キャッシュ、画像処理モジュール、および本明細書に記載の他のコンポーネントなど、1または複数の追加的なコンポーネントに一体化された1または複数の処理ユニットを含む、ホストシステム・オン・チップ(SoC)140を含む。ベース110はさらに、物理的なキーボード、タッチパッド、バッテリ、メモリ、ストレージ、および外部ポートを含み得る。リッド120は、内蔵ディスプレイパネル145、タイミングコントローラ(TCON)150、リッドコントローラハブ(LCH)155、マイクロホン158、1または複数のカメラ160、およびタッチディスプレイコントローラ(タッチコントローラ)165を含む。TCON150は、SoC140から受信したビデオデータ190を、ディスプレイパネル145を駆動する信号に変換する。
ディスプレイパネル145は、光の生成を担う、または光透過を可能にするディスプレイ要素が、各画素に配置された、任意のタイプの内蔵ディスプレイであり得る。当該ディスプレイは、TFT LCD(薄膜トランジスタ液晶ディスプレイ)、マイクロLED(マイクロ発光ダイオード(LED))、OLED(有機LED)、およびQLED(量子ドットLED)ディスプレイを含み得る。タッチコントローラ165は、ディスプレイパネル145において利用されるタッチスクリーン技術を駆動し、適用されたタッチスクリーン技術により提供されるタッチセンサデータを収集する。ディスプレイパネル145はタッチディスプレイであり得、タッチ機能を実装する1または複数の専用の層、あるいは専用タッチスクリーン層を要さない「インセル」または「オンセル」タッチスクリーン技術を含み得る、タッチスクリーンを含む。
マイクロホン158は、リッドのベゼル内に配置されたマイクロホン、または表示領域内即ちコンテンツを表示するパネルの領域に配置されたディスプレイ内マイクロホンを含み得る。1または複数のカメラ160も同様に、ベゼルに配置されたカメラ、または表示領域内に配置されたディスプレイ内カメラを含み得る。
LCH155は、オーディオモジュール170と、ビジョン/撮像モジュール172と、セキュリティモジュール174と、ホストモジュール176とを含む。オーディオモジュール170、ビジョン/撮像モジュール172、およびホストモジュール176は、リッドセンサとインタラクトし、センサにより生成されたセンサデータを処理する。オーディオモジュール170は、マイクロホン158とインタラクトし、マイクロホン158により生成されたオーディオセンサデータを処理する。ビジョン/撮像モジュール172は、1または複数のカメラ160とインタラクトし、1または複数のカメラ160により生成された画像センサデータを処理する。ホストモジュール176はタッチコントローラ165とインタラクトし、タッチコントローラ165により生成されたタッチセンサデータを処理する。同期信号180が、タイミングコントローラ150と、リッドコントローラハブ155との間で共有される。同期信号180は、システムレベルでのスムーズで反応の良いタッチ体験を可能とするように、タッチセンサデータのサンプリングと、SoC140へのタッチセンサデータの送信とを、ディスプレイパネル145のリフレッシュレートに同期するのに使用可能である。
本明細書で使用される、「センサデータ」という表現は、センサにより生成または提供されたセンサデータ、並びに後続の処理が実施されたセンサデータを示し得る。例えば、画像センサデータは、ビジョン/撮像モジュールにおけるフレームルータで受信されたセンサデータ、ならびにビジョン/撮像モジュールにおけるフレームルータ処理スタックにより出力された処理済みセンサデータを示し得る。「センサデータ」という表現はさらに、個別のセンサデータ(例えばカメラが捕捉した1または複数の画像)またはセンサデータのストリーム(例えば、カメラにより生成されたビデオストリーム、マイクロホンにより生成されたオーディオストリーム)を示し得る。「センサデータ」という表現はさらに、タッチセンサデータから判定されたジェスチャー、あるいは画像センサデータから生成された頭部の向きまたは顔のランドマーク情報などの、センサデータから生成されたメタデータを示し得る。
オーディオモジュール170は、マイクロホン158により生成されたオーディオセンサデータを処理し、いくつかの実施形態において、音声起動(オーディオセンサデータで声が検出されると、デバイス100を低電力状態から脱せさせる)、話者ID(オーディオセンサデータで認証されたユーザの声が検出されると、デバイス100を低電力状態から脱せさせる)、アコースティックコンテキストアウェアネス(例えば、望ましくない背景ノイズをフィルタリング)、ニューラルネットワークアクセラレータによるさらなる処理用にオーディオセンサデータを調整するための発話および声前処理、ダイナミックノイズリダクション、およびオーディオベース適応熱的ソリューションなどの機能を有効にする。
ビジョン/撮像モジュール172は、1または複数のカメラ160により生成された画像センサデータを処理し、様々な実施形態において、顔起動(Wake on Face)(画像センサデータで顔が検出されると、デバイス100を低電力状態から脱せさせる)、およびフェースID(画像センサデータで認証されたユーザの顔が検出されると、デバイス100を低電力状態から脱せさせる)などの機能を有効にできる。いくつかの実施形態において、ビジョン/撮像モジュール172は、以下の機能のうちの1または複数を有効にできる。頭部の向き検出、画像内で顔ランドマーク(例えば、眼、口、鼻、眉毛、頬)の位置を判定、マルチ顔検出。
ホストモジュール176は、タッチコントローラ165により提供されたタッチセンサデータを処理する。ホストモジュール176は、タッチ関連動作を内蔵ディスプレイパネル145のリフレッシュレートと同期できる。これにより、システムレベルでのタッチおよび表示動作の同期を可能とする。これによりモバイルコンピューティングデバイス上で動作する任意のアプリケーションについて、タッチ体験向上を実現する。
したがって、LCH155は、LCH155が、既存のモバイルコンピューティングデバイスにおいてSoCが実行するセンサデータ関連処理タスクの一部を扱うという点から、SoC140のコンパニオンダイとして考えられ得る。LCH155がリッドセンサに近いことは、センサデータをSoC140による処理のためにヒンジ130越しに送る場合には不可能であり得る体験および機能を可能とする。LCH155がリッドセンサに近いことは、レイテンシを低減させる。これにより、センサデータ処理用の時間が長くなる。例えば、より詳細に後述するように、LCH155は、音声起動、顔起動、およびコンテクスチュアルアンダースタンディングなどの機能を有効にするため、ニューラルネットワークアクセラレータ、デジタル信号プロセッサ、および画像およびオーディオセンサデータ処理モジュールを含む。LCH計算リソースをリッドセンサの近傍に配置することでさらに、省電力が可能となる。リッドセンサデータが、ヒンジ越しにベースに移動するのではなく、LCHまでより短い距離で移動できるためである。
リッドコントローラハブは、追加的な省電力を可能とする。例えば、LCHは、LCHが送られてくるセンサデータを監視してデバイスがアクティブ状態に移行するかを判定する間に、SoCおよびベース内の他のコンポーネントが低電力状態になることを可能とする。認証されたユーザの存在が検出された場合にのみデバイスを起動可能とすることで(例えば話者IDまたはフェースIDを介する)、デバイスは、デバイスが任意の人物の存在の検出に応じて起動される場合よりも、低電力状態に長くとどまることができる。リッドコントローラハブはさらに、特定のコンテキストにおいて、内蔵ディスプレイパネルでのタッチ入力のサンプリングをより低レートに低減(または無効に)できる。リッドコントローラハブにより可能となる追加的な省電力は、より詳細に後述する。
モバイルコンピューティングデバイスのシステムレベル状態に関して、本明細書で使用される用語「アクティブ状態」は、デバイスが完全に使用可能な状態を示す。即ち、ホスト処理ユニットおよびリッドコントローラハブの全機能が利用可能で、1または複数のアプリケーションが実行可能で、デバイスがインタラクティブで反応の良いユーザ体験を提供可能であり、ユーザは動画を観る、ビデオ通話に参加する、ネットサーフィンを行う、コンピュータ支援設計ツールを操作する、または他の様々な形式の内の1つでデバイスを使用することができる。デバイスがアクティブ状態にある際、節電のため、リッドコントローラハブあるいはリッドコントローラハブの構成モジュールまたは他のコンポーネントを含む、1または複数のモジュール、またはデバイスの他のコンポーネントを低電力状態にできる。デバイスがアクティブ状態にある状態で、ホスト処理ユニットを多大なワークロードに対応するために、一時的にハイパフォーマンスモードにすることができる。したがって、モバイルコンピューティングデバイスは、アクティブ状態において、複数の電力レベルの範囲内で動作可能である。
モバイルコンピューティングデバイスのシステムレベル状態に関して、本明細書で使用される用語「低電力状態」は、デバイスがアクティブ状態で動作している場合よりも低い電力消費レベルでデバイスが動作している状態を示す。典型的には、デバイスがアクティブ状態にある場合よりも低い電力消費レベルでホスト処理ユニットが動作しており、デバイスがアクティブ状態にある場合よりも多くのデバイスモジュールまたは他のコンポーネントがまとめて低電力状態で動作している。デバイスは、1または複数の低電力状態で動作可能である。低電力状態間の1つの違いは、デバイスレベルの電力消費レベルにより特徴付けられる。いくつかの実施形態において、低電力状態間の別の違いは、デバイスがユーザ入力(例えば、キーボード、マウス、タッチ、声、画像センサデータにおいてユーザの存在検出、ユーザがデバイスを開くまたは動かす)、ネットワークイベント、または取り付けられたデバイス(例えばUSBデバイス)からの入力に応じて起動するまでの長さにより特徴づけられる。このような低電力状態は、「スタンバイ」、「アイドル」、「スリープ」または「ハイバーネーション」状態として特徴付けられ得る。
「アイドル」または「スタンバイ」低電力状態として特徴付けられるもののような第1タイプのデバイスレベル低電力状態において、ユーザ入力、ハードウェアまたはネットワークイベントに応じて、デバイスは急速に低電力状態からアクティブ状態に移行できる。「スリープ」状態として特徴付けられるもののような第2タイプのデバイスレベル低電力状態において、デバイスは、第1タイプの低電力状態よりも低い電力を消費し、デバイス状態を維持するように、揮発性メモリのリフレッシュが維持される。「ハイバーネート」低電力状態として特徴付けられるもののような第3タイプのデバイスレベル低電力状態において、デバイスは、デバイスは、第2タイプの低電力状態よりも低い電力を消費する。不揮発性メモリのリフレッシュは維持されず、デバイス状態は不揮発性メモリに格納される。システム状態を不揮発性メモリから復元する必要があるため、第3タイプの低電力状態からのデバイスの起動は、第1または第2タイプの低電力状態よりも時間がかかる。第4タイプの低電力状態において、デバイスはオフで、電力を消費していない。オフ状態からのデバイスの起動の場合、デバイスの完全再起動が必要である。本明細書で使用される、デバイスの起動は、デバイスが低電力状態からアクティブ状態に移行することを示す。
リッドコントローラハブに関して、「アクティブ状態」という用語は、リッドコントローラハブの全リソースが利用可能なリッドコントローラハブ状態を示す。即ち、LCHは、センサデータを、生成されると処理し、センサデータとセンサデータに基づいてLCHにより生成された任意のデータをホストSoCに送り、ホストSoCから受信したビデオデータに基づいて画像を表示し得る。LCHの1または複数のコンポーネントを、LCHがアクティブ状態にあるとき、個別に低電力状態にできる。例えばLCHが、認証ユーザが画像センサデータ内に検出されなかったことを検出すると、LCHはリッドディスプレイを無効にできる。別の例において、プライバシーモードが有効になると、センサデータをホストSoCに送信するLCHコンポーネントを無効にできる。リッドコントローラハブに関する「低電力」状態という用語は、LCHがアクティブ状態の場合よりも低電力消費レベルで動作する電力状態を示し得、典型的には1または複数のLCHモジュールまたは別のコンポーネントが、LCHがアクティブ状態にある場合よりも低電力状態となることで特徴付けられる。例えば、コンピューティングデバイスのリッドが閉じると、リッドディスプレイを無効にでき、LCHビジョン/撮像モジュールを低電力状態にでき、LCHオーディオモジュールは、デバイスが音声質問に応答し続けることができるように、音声起動機能をサポートするように動作し続けることができる。
モバイルコンピューティングデバイスのモジュールまたは他の任意のコンポーネントを、動作電圧を下げる、より低周波数でクロック信号を供給する、またはコンポーネントをより低電力消費で動作させる制御信号の受信により低電力状態にする(画像表示パイプラインにおけるモジュールを、画像の一部のみに画像処理を行う低電力状態にするなど)など、様々な方法で低電力状態にできる。
いくつかの実施形態において、LCHにより可能となった省電力は、モバイルコンピューティングデバイスを、再充電の必要なく典型的な使用状況下で一日動作可能とする。さらに、一日使用のための電力をより少量の電力で賄うことが可能であることは、モバイルコンピューティングデバイスにおいてより小さなバッテリを使用可能にする。より小さなバッテリを可能にすること、さらにデバイスをリッドに接続するヒンジを越すワイヤ数をより少なくすることが可能であることで、LCHを含むラップトップがより薄く、軽く、したがって既存のデバイスよりも向上した工業的デザインを有することができる。
いくつかの実施形態において、本明細書に開示のリッドコントローラハブ技術は、インテリジェントコラボレーションおよびパーソナルアシスタント機能を有するラップトップを可能とする。例えば、LCHはニアフィールドおよびファーフィールドオーディオ機能を提供し得る。これは、遠隔音源の位置を検出し、遠隔音源の位置から到来する音声検出を向上することで、音声受信向上を可能とする。音声起動および話者ID機能と組み合わせると、ニアおよびファーフィールドオーディオ機能は、モバイルコンピューティングデバイスを、今日市場に普及している「スマートスピーカ」と同様に動作することを可能にする。例えば、ユーザが仕事を中断し、そのラップトップから離れ、部屋の反対側からラップトップに「明日の天気はどう?」と尋ねるシナリオを考える。ユーザフェイシングカメラにより提供された画像センサデータにおいて認証ユーザの顔を検出しなかったことで低電力状態に移行しているラップトップは、到来するオーディオセンサデータを継続的に監視して、認証ユーザからの会話を検出する。ラップトップはその低電力状態を脱し、要求された情報を捕捉し、ユーザの質問に答える。
ヒンジ130は、ベース110と、リッド120とを回転可能に接続可能にする任意の物理的なヒンジであり得る。ヒンジ130を越すワイヤは、ビデオデータ190をSoC140からTCON150に送るためのワイヤと、SoC140と、オーディオモジュール170との間でオーディオデータ192を送るためのワイヤと、画像データ194をビジョン/撮像モジュール172からSoC140に提供するワイヤと、タッチデータ196をLCH155からSoC140に提供するためのワイヤと、画像センサデータから判定されたデータと、LCH155により生成された他の情報を、ホストモジュール176からSoC140に提供するためのワイヤとを含む。いくつかの実施形態において、SoCとLCHとの間で異なるワイヤの組を通じて送られるように示されたデータは、同じワイヤの組を通じて通信される。例えば、いくつかの実施形態において、タッチデータ、センシングデータ、およびLCHにより生成された他の情報は、単一のUSBバスを通じて送られ得る。
いくつかの実施形態において、リッド120はベース110に取り外し可能に取り付けられる。いくつかの実施形態において、ヒンジは、ベース110と、リッド120とを互いに対して略360度回転可能にすることができる。いくつかの実施形態において、ヒンジ130は、リッド120をベース110に通信可能に結合するのに、LCHを有さない既存のコンピューティングデバイスよりも少ないワイヤを担持する。このようにヒンジ130を越すワイヤを低減することで、ワイヤ低減のみではなく、さらによりシンプルな電磁および無線周波数インタフェース(EMI/RFI)ソリューションであることで、より低デバイスコストに帰結し得る。
モバイルコンピューティングデバイスのベース内に配置されていると図1Aに示されるコンポーネントは、ベースハウジング内に配置され得、モバイルコンピューティングデバイスのリッド内に配置されていると図1Aに示されているコンポーネントは、リッドハウジング内に配置され得る。
図1Bは、リッドコントローラハブを含む、二次的な例示的モバイルコンピューティングデバイスの斜視図を示す。モバイルコンピューティングデバイス122は、ラップトップまたは、折りたたみ可能なタブレットまたはスマートフォンなどの、同様のフォームファクターを有する他のモバイルコンピューティングデバイスであり得る。リッド123は、モバイルコンピューティングデバイス122が閉構成時に、リッド123のワールドフェイシング表面である「Aカバー」139と、リッド123が開いているときのユーザフェイシングディスプレイを含む「Bカバー」140とを含む。ベース129は、デバイス122が開構成時に上向きのキーボードを含む「Cカバー」126と、ベース129の底である「Dカバー」127とを含む。いくつかの実施形態において、ベース129は、デバイス122の一次計算リソース(例えば、ホスト処理ユニット(1または複数)、GPU)とともに、バッテリ、メモリ、およびストレージを含み、ヒンジ128を通るワイヤを介してリッド123と通信する。したがって、モバイルコンピューティングデバイスがデュアルディスプレイラップトップ、タブレット、またはスマートフォンなどのデュアルディスプレイデバイスである実施形態において、ベースは、ホスト処理ユニットを含むデバイス部分としてみなされ得、リッドはLCHを含むデバイス部分としてみなされ得る。Wi-Fi(登録商標)アンテナが、本明細書に記載の任意のコンピューティングデバイスのベースまたはリッド内に配置され得る。
別の実施形態において、コンピューティングデバイス122は、第2ディスプレイがCカバー126の部分を含むデュアルディスプレイデバイスであり得る。例えば、いくつかの実施形態において、「常時オン」ディスプレイ(AOD)が、リッド123が閉まっていても視認可能なキーボードの下方のCカバーの領域を占め得る。別の実施形態において、第2ディスプレイが、Cカバーの表面の大部分を覆い、第2ディスプレイ上に取り外し可能キーボードが配置され得、または第2ディスプレイがキーボード入力を可能とするように、バーチャルキーボードを提示し得る。
リッドコントローラハブは、ラップトップ、または図1Bに示すものと同様のフォームファクターを有する別のモバイルコンピューティングデバイス内での実装に限定されない。本明細書に開示のリッドコントローラハブ技術は、ベースと単一のリッドを超えた1または複数の部分含むモバイルコンピューティングデバイスにおいて適用可能である。この追加的な1または複数の部分はディスプレイおよび/または1または複数のセンサを含む。例えば、LCHを含むモバイルコンピューティングデバイスは、ベースと、第1タッチディスプレイ、カメラ、およびマイクロホンを含む一次ディスプレイ部分と、第2タッチディスプレイを含む二次ディスプレイ部分を含み得る。第1ヒンジは、ベースを二次ディスプレイ部分に回転可能に結合し、第2ヒンジは一次ディスプレイ部分を、二次ディスプレイ部分に回転可能に結合する。いずれかのディスプレイ部分内に配置されたLCHは、LCHが配置されているのと同じディスプレイ部分内に配置されたリッドセンサにより、または両方のディスプレイ部分内で生成されたリッドセンサにより生成されたセンサデータを処理可能である。この例において、リッドコントローラハブは、一次および二次ディスプレイ部分のいずれかまたは両方内に配置され得る。例えば、第1LCHは、第1ヒンジを通るワイヤを介してベースに通信する二次ディスプレイ内に配置され得、第2LCHは、第1および第2ヒンジを通るワイヤを介してベースに通信する一次ディスプレイ内に配置され得る。
図2は、リッドコントローラハブを含む第3の例示的なモバイルコンピューティングデバイスのブロック図を示す。デバイス200は、ヒンジ230によりリッド220に接続されたベース210を含む。ベース210はSoC390を含む。リッド220は、タイミングコントローラ(TCON)400と、リッドコントローラハブ(LCH)260と、ユーザフェイシングカメラ270と、内蔵ディスプレイパネル280と、1または複数のマイクロホン290とを含む。
SoC390は、ディスプレイモジュール391と、内蔵センサハブ392と、音声捕捉モジュール393と、ユニバーサルシリアルバス(USB)モジュール394と、画像処理モジュール395と、複数のプロセッサコア235とを含む。ディスプレイモジュール391は、TCON400内の内蔵ディスプレイポート(eDP)モジュールと、8ワイヤeDP接続233を介して通信する。いくつかの実施形態において、内蔵ディスプレイパネル280は、リフレッシュレートが最高120Hzの「3K2K」ディスプレイ(3Kx2K解像度を有するディスプレイ)である。接続233は、2つのeDP高ビットレート2(HBR2(17.28Gb/s))接続を含む。内蔵センサハブ392は、2ワイヤモバイルインダストリプロセッサインタフェース(MIPI)I3C(センスワイヤ)接続221を介してLCH260のビジョン/撮像モジュール263と通信する。音声捕捉モジュール393は、4ワイヤMIPI SoundWire(登録商標)接続222を介してLCH260のオーディオモジュール264と通信する。USBモジュール394は、USB接続223を介してLCH260のセキュリティ/ホストモジュール261と通信する。画像処理モジュール395は、10本のワイヤを含む4レーンMIPI D-PHY接続239を介して、LCH260のフレームルータ267のMIPI D-PHY送信ポート265から画像データを受信する。内蔵センサハブ392は、1または複数のセンサからのセンサデータを処理可能な、インテル(登録商標)内蔵センサハブまたは他の任意のセンサハブであり得る。
本明細書で使用される、「ポート」という用語は、1つのモジュール、回路、コンポーネントなどから別のものに情報または信号を送信および/または受信する、任意のインタフェース、モジュール、コネクタなどを示し得る。ポートは、ハードウェア、ソフトウェア、ファームウェア、またはそのコンポーネント内に実装され得る。
TCON400は、eDPポート402と、48ワイヤ接続240を通じて、PCIeのピアツーピア(P2P)通信機能を使用して、内蔵ディスプレイパネル280を駆動するペリフェラルコンポーネントインタフェースエキスプレス(PCIe)ポート404とを含む。
LCH260は、セキュリティ/ホストモジュール261と、ビジョン/撮像モジュール263と、オーディオモジュール264と、フレームルータ267とを含む。セキュリティ/ホストモジュール261は、デジタル信号処理(DSP)プロセッサ271と、セキュリティプロセッサ272と、ヴォルトおよびワンタイムパスワードジェネレータ(OTP)273と、メモリ274とを含む。いくつかの実施形態において、DSP271は、Synopsis(登録商標)DesignWare(登録商標)ARC(登録商標)EM7DまたはEM11D DSPプロセッサであり、セキュリティプロセッサはSynopsis(登録商標)DesignWare(登録商標)ARC(登録商標)SEMセキュリティプロセッサである。SoC390におけるUSBモジュール394と通信することに加え、セキュリティ/ホストモジュール261は、LCHおよびTCON動作間の同期を実現するために、インター集積回路(I2C)接続226を介してTCON400と通信する。メモリ274は、LCH260のコンポーネントにより実行される命令を格納する。
ビジョン/撮像モジュール263は、DSP275と、ニューラルネットワークアクセラレータ(NNA)276と、画像プリプロセッサ278と、メモリ277とを含む。いくつかの実施形態において、DSP275はDesignWare(登録商標)ARC(登録商標)EM11Dプロセッサである。ビジョン/撮像モジュール263は、インテリジェントペリフェラルインタフェース(IPI)接続227を介してフレームルータ267と通信する。ビジョン/撮像モジュール263は、顔検出、頭部の向き検出を実行でき、人の顔(顔起動)、または画像センサデータ内の認証ユーザの顔(フェースID)を検出したことに基づいて、デバイスアクセスを有効にする。いくつかの実施形態において、ビジョン/撮像モジュール263は、これら機能を有効にするために、ニューラルネットワークアクセラレータ276を介して1または複数の人工知能(AI)モデルを実装可能である。例えば、ニューラルネットワークアクセラレータ276は、顔起動機能を有効にするため、画像センサデータ内の認証ユーザの顔を認識するように訓練されたモデルを実装し得る。ビジョン/撮像モジュール263は、一対のI2CまたはI3Cワイヤと、5ワイヤ汎用I/O(GPIO)接続とを含む接続228を介して、カメラ270と通信する。フレームルータ267は、DからPHY送信ポート265と、4ワイヤMIPIカメラシリアルインタフェース2(CSI2)接続を含む接続231を介して、ユーザフェイシングカメラ270により提供された画像センサデータを受信するDからPHYレシーバ266とを含む。LCH260は、8ワイヤシリアルペリフェラルインタフェース(SPI)または4ワイヤI2C接続を含み得る接続232を介してタッチディスプレイコントローラ(タッチコントローラ)285と通信する。
オーディオモジュール264は、1または複数のDSP281と、ニューラルネットワークアクセラレータ282と、オーディオプリプロセッサ284と、メモリ283とを含む。いくつかの実施形態において、リッド220は、4つのマイクロホン290を含み、オーディオモジュール264は、各マイクロホンに1つで、4つのDSP281を含む。いくつかの実施形態において、各DSP281はCadence(登録商標)Tensilica(登録商標)HiFi DSPである。オーディオモジュール264は、MIPI SoundWire(登録商標)接続を含む接続229、またはパルス密度変調(PDM)を介して送信される信号を介して、1または複数のマイクロホン290と通信する。別の実施形態において、接続229は、4ワイヤデジタルマイクロホン(DMIC)インタフェースと、2ワイヤ内蔵IC間サウンドバス(I2S)接続と、1または複数のGPIOワイヤとを含む。オーディオモジュール264は、人間の声(音声起動)、または認証されたユーザ(話者ID)の声の検出に応じた、デバイスの低電力状態からの起動と、ニアおよびファーフィールドオーディオ(入力および出力)を有効にし、追加的な音声認識タスクを実行可能である。いくつかの実施形態において、NNA282は、様々なLCH機能を有効にするため、1または複数の人工知能(AI)モデルを実装する人工ニューラルネットワークアクセラレータである。例えば、NNA282は、音声起動機能を有効にするために、1または複数のマイクロホン290により生成されたオーディオセンサデータにおける、起動のための言葉または表現を検出するように訓練されたAIモデルを実装可能である。
いくつかの実施形態において、セキュリティ/ホストモジュールメモリ274、ビジョン/撮像モジュールメモリ277、およびオーディオモジュールメモリ283は、セキュリティ/ホストモジュール261、ビジョン/撮像モジュール263、およびオーディオモジュール264に対してアクセス可能な共有メモリの一部である。デバイス200の起動時、共有メモリのセクションが、セキュリティ/ホストモジュール261、ビジョン/撮像モジュール263、およびオーディオモジュール264のそれぞれに割り当てられる。起動後、モジュールに割り当てられた共有メモリの各セクションは、別の割り当てられたセクションからファイアウォールされる。いくつかの実施形態において、共有メモリは、次のようにパーティショニングされた12MBメモリであり得る。セキュリティ/ホストメモリ(1MB)、ビジョン/撮像メモリ(3MB)、オーディオメモリ(8MB)。
2つ以上のコンポーネントを接続する、本明細書に記載の任意の接続は、異なるインタフェース、プロトコル、または接続技術を利用、および/または特定の接続について記載されたものとは異なる数のワイヤを利用し得る。ディスプレイモジュール391、内蔵センサハブ392、音声捕捉モジュール393、USBモジュール394、および画像処理モジュール395は、SoC390に内蔵されているように示されているが、別の実施形態において、これらコンポーネントのうちの1または複数は、SoC外に配置され得る。例えば、これらコンポーネントのうちの1または複数はダイ上、パッケージ内、またはダイ、パッケージとは別個の基板、またはホスト処理ユニット(例えば、コア235)を含む基板上に配置され得る。
図3は、リッドコントローラハブを含む第4の例示的なモバイルコンピューティングデバイスのブロック図を示す。モバイルコンピューティングデバイス300は、ヒンジ330によりベース315を介して接続されたリッド301を含む。リッド301は、リッドコントローラハブ(LCH)305と、タイミングコントローラ355と、ユーザフェイシングカメラ346と、マイクロホン390と、内蔵ディスプレイパネル380と、タッチディスプレイコントローラ(ディスプレイコントローラ)385と、メモリ353とを含む。LCH305は、セキュリティモジュール361と、ホストモジュール362と、ビジョン/撮像モジュール363と、オーディオモジュール364とを含む。セキュリティモジュール361は、LCH305用に安全な処理環境を提供し、ヴォルト320と、セキュリティプロセッサ321と、ファブリック310と、I/O332と、常時オン(AON)ブロック316と、メモリ323とを含む。セキュリティモジュール361は、メモリ353に格納され、LCH305の様々なコンポーネント(例えば、DSP、ニューラルネットワークアクセラレータ)により実行されるファームウェアのロードおよび認証を担う。セキュリティモジュール361は、ファームウェア上で暗号学的ハッシュ関数を実行し、セキュリティモジュール361に格納された鍵情報を使用して、結果的なハッシュが正しく、ファームウェアが適切な署名を有することを確認することで、ファームウェアを認証する。暗号学的ハッシュ関数はヴォルト320により実行される。いくつかの実施形態において、ヴォルト320は暗号学的アクセラレータを含む。いくつかの実施形態において、セキュリティモジュール361は、デバイス200の別のコンポーネントがファームウェア認証の結果についてLCH305に対して問い合わせできるようにする、製品信頼の起点(PRoT)インタフェースを提示し得る。いくつかの実施形態において、PRoTインタフェースは、I2C/I3Cインタフェース(例えば、I2C/I3Cインタフェース470)を介して提供され得る。
リッドコントローラハブ、リッドコントローラハブコンポーネント、ホスト処理ユニット、SoC、または他のコンピューティングデバイスコンポーネントに関連して、ソフトウェアまたはファームウェアについて本明細書で使用される、「動作」、「実行」、または「稼働」という用語は、同義で使用され、ソフトウェアまたはファームウェア内に収容された命令がコンポーネントにより積極的に実行されていなくても、コンピューティングデバイスコンポーネントによりアクセス可能な1または複数のコンピュータ可読ストレージ媒体に格納されたソフトウェアまたはファームウェアを示し得る。
セキュリティモジュール361はさらにプライバシー情報を格納し、プライバシータスクを取り扱う。いくつかの実施形態において、マイクロホンが認証されたユーザの声を拾うと、またはカメラが認証されたユーザの顔を捕捉すると、コンピューティングデバイスの起動のためのフェースIDまたは話者IDを実行するためにLCH305が使用する情報が、セキュリティモジュール361内に格納される。セキュリティモジュール361はさらに、LCHまたはコンピューティングデバイスに対してプライバシーモードを有効にする。例えば、ユーザ入力が、ユーザがプライバシーモードの有効化を求めていることを示すと、セキュリティモジュール361は、リッド入力デバイス(例えば、タッチスクリーン、マイクロホン、カメラ)のうちの1または複数により生成されたセンサデータへの、LCHリソースによるアクセスを無効にし得る。いくつかの実施形態において、ユーザは、デバイスをプライバシーモードに移行させるためのプライバシー設定を設定し得る。プライバシー設定は、例えばビデオ会議アプリケーションにおいてビデオおよび/またはオーディオ入力を無効にすること、またはあらゆるアプリケーションまたはオペレーティングシステムによるセンサデータの受信および/または処理を防止するオペレーティングシステムレベルプライバシー設定を有効にすることを含む。アプリケーションまたはオペレーティングシステムプライバシー設定を設定することで、LCHをプライバシーモードに移行させるために、リッドコントローラハブに情報を送信させられ得る。プライバシーモードにおいて、リッドコントローラハブは、入力センサを低電力状態に移行させ得、LCHリソースがセンサデータを処理することを防止し得、または生または処理済みセンサデータがホスト処理ユニットに送信されることを防止し得る。
いくつかの実施形態において、LCH305は、画像センサデータを、システム(例えば、オペレーティングシステム、およびオペレーティングシステム上で稼働する任意のアプリケーション)の残部に対してプライベートに保ちながら、顔起動またはフェースID機能を有効にし得る。いくつかの実施形態において、ビジョン/撮像モジュール363は、デバイスがプライバシーモードにある状態で、顔起動またはフェースID機能がアクティブであり続けることを可能とするように、画像センサデータを処理し続ける。いくつかの実施形態において、プライバシー向上および電力消費削減のため、プライバシーモードが有効であるか否かを問わず、画像センサデータは、顔(または認証ユーザの顔)が検出された場合にのみSoC340内の画像処理モジュール345へと、ビジョン/撮像モジュール363を通じて送られる。いくつかの実施形態において、モバイルコンピューティングデバイス300は、ユーザフェイシングカメラ346に加えて1または複数のワールドフェイシングカメラと、1または複数のワールドフェイシングマイクロホン(例えば、ラップトップの「Aカバー」内に組み込まれたマイクロホン)とを含み得る。
いくつかの実施形態において、ユーザがプライバシーボタンを押したこと、プライバシースイッチをひねるフリップすること、またはリッド内の入力センサ上でスライダを摺動させることに応じて、リッドコントローラハブ305は、プライバシーモードに移行する。いくつかの実施形態において、LCHがプライバシーモードであることを示すため、プライバシーインジケータがユーザに提供され得る。プライバシーインジケータは、例えば、ベースまたはディスプレイベゼルに配置されたLED、またはディスプレイ上に表示されたプライバシーアイコンであり得る。いくつかの実施形態において、ユーザが外部プライバシーボタン、スイッチ、スライダ、ホットキー、などを起動することで、ハードウェアレベルまたはシステムレベルで設定されたプライバシーモードが有効になる。即ち、プライバシーモードは、モバイルコンピューティングデバイス上で動作する全てのアプリケーションおよびオペレーティングシステムに適用される。例えば、ユーザが、リッドのベゼルに配置されたプライバシースイッチを押すと、LCHはそれに応じて、SoCに利用可能とされた全てのオーディオセンサデータおよび全ての画像センサデータを無効にし得る。音声起動および話者IDなどのタスクを実行するために、オーディオおよび画像センサデータはLCHにとって利用可能なままであるが、リッドコントローラハブによりアクセス可能なオーディオおよび画像センサデータは、他の処理コンポーネントにはアクセス不能である。
ホストモジュール362は、セキュリティプロセッサ324と、DSP325と、メモリ326と、ファブリック311と、常時オンブロック317と、I/O333とを含む。いくつかの実施形態において、ホストモジュール362はLCHを起動し、LCHテレメトリを送信してSoCへのデータ割り込みを行い、タッチコントローラ385とのインタラクションを管理し、タッチセンサデータをSoC340に送信できる。ホストモジュール362は、複数のリッドセンサからのリッドセンサデータを、SoC340におけるUSBモジュール344へとUSB接続を通じて送る。単一の接続を通じて複数のリッドセンサについて、センサデータを送ることは、既存のラップトップ設計よりも、ヒンジ330を通るワイヤの数を低減することに寄与する。DSP325は、タッチコントローラ385から受信したタッチセンサデータを処理する。ホストモジュール362は、TCON355と、ホストモジュール362との間で共有される同期信号370を利用することで、タッチセンサデータのSoC340への送信を、ディスプレイパネルリフレッシュレートと同期できる。
ホストモジュール362は、ユーザの存在およびパネル380とのユーザタッチインタラクション量などの要素に基づいて、ディスプレイパネル380のリフレッシュレートを動的に調整できる。例えば、ホストモジュール362は、ユーザが検出されない、またはカメラ346の前に認証ユーザが検出されないと、パネル380のリフレッシュレートを低減できる。別の例において、リフレッシュレートは、タッチセンサデータに基づいて、パネル380でのタッチインタラクションの検出に応じて増加し得る。いくつかの実施形態において、そしてディスプレイパネル380のリフレッシュレート機能によっては、ホストモジュール362は、パネル380のリフレッシュレートを、120Hzまで増加させるか、または20Hz以下に低減させ得る。
ホストモジュール362はさらに、ユーザがインタラクトするアプリケーションに基づいて、リフレッシュレートを調整可能である。例えば、ユーザがイラストレーションアプリケーションとインタラクトしている場合、ユーザに対してよりスムーズなタッチ体験を実現するために、ホストモジュール362はリフレッシュレートを120Hzまで増加させ得る(これによりさらに、ディスプレイパネルリフレッシュレートと、タッチセンサデータの処理とが同期している場合、タッチデータのSoC340への送信レートも増加し得る)。同様に、ユーザが現在インタラクト中のアプリケーションが、コンテンツが比較的静的なものである、あるいは低度のユーザタッチインタラクションまたはシンプルなタッチインタラクション(例えば、アイコンの選択、またはメッセージのタイピングなど)を伴うものであることをホストモジュール362が検出すると、ホストモジュール362はリフレッシュレートをより低周波数に低減し得る。いくつかの実施形態において、ホストモジュール362は、タッチインタラクションの周波数を監視することで、リフレッシュレートとタッチサンプリング周波数とを調整し得る。例えば、高度なユーザインタラクションが存在する、またはユーザが特定のタッチ入力デバイス(例えばスタイラス)またはタッチ入力スタイラスの特定の機能(例えば、スタイラスのティルト機能)を利用していることがホストモジュール362により検出されると、リフレッシュレートを上げる方向に調整可能である。リフレッシュレートが閾値を超えると、ディスプレイパネルがサポートする場合に、ゴースト障害を低減するために、ホストモジュール362はディスプレイパネルのストロボ機能を有効にさせ得る。
ビジョン/撮像モジュール363は、ニューラルネットワークアクセラレータ327と、DSP328と、メモリ329と、ファブリック312と、AONブロック318と、I/O334と、フレームルータ339とを含む。ビジョン/撮像モジュール363は、ユーザフェイシングカメラ346とインタラクトする。ビジョン/撮像モジュール363は、複数のカメラとインタラクトし、複数のカメラからの画像データを、SoC340における内蔵センサハブ342への送信用の単一ストリームに統合可能である。いくつかの実施形態において、リッド301は、ユーザフェイシングカメラ346に加え、1または複数の追加的なユーザフェイシングカメラおよび/またはワールドフェイシングカメラを含み得る。いくつかの実施形態において、ユーザフェイシングカメラの内のいずれかが、ディスプレイ内カメラであり得る。カメラ346により生成された画像センサデータは、フレームルータ339により受信され、そこでニューラルネットワークアクセラレータ327および/またはDSP328に送信される前に前処理される。画像センサデータはさらに、SoC340における画像処理モジュール345に、フレームルータ339を通じて送られ得る。ニューラルネットワークアクセラレータ327および/またはDSP328は、顔検出、頭部の向き検出、顔ランドマーク(例えば、眼、頬、眉毛、鼻、口)の認識、検出された顔に適合する3Dメッシュの生成、および他の画像処理機能を有効にする。いくつかの実施形態において、顔パラメータ(例えば、顔ランドマークの位置、3Dメッシュ、顔の物理的な寸法、頭部の向き)は、毎秒30フレーム(30fps)のレートでSoCに送信され得る。
オーディオモジュール364は、ニューラルネットワークアクセラレータ350と、1または複数のDSP351と、メモリ352と、ファブリック313と、AONブロック319と、I/O335とを含む。オーディオモジュール364は、マイクロホン390からオーディオセンサデータを受信する。いくつかの実施形態において、各マイクロホン390に対して1つのDSP351が存在する。ニューラルネットワークアクセラレータ350およびDSP351は、オーディオ処理アルゴリズムと、オーディオ品質を向上するAIモデルを実装する。例えば、DSP351は、ニューラルネットワークアクセラレータ350により実装されたオーディオAIモデルによる処理用に、オーディオセンサデータを調整するために、受信したオーディオセンサデータにオーディオ前処理を実行し得る。ニューラルネットワークアクセラレータ350により実装可能なオーディオAIモデルの一例は、犬の鳴き声または鳴り響くサイレンなどの、背景ノイズをフィルタアウトするノイズリダクションアルゴリズムである。第2の例は、音声起動または話者ID機能を有効にするモデルである。第3の例は、コンテキストアウェアネスモデルである。例えば、ガラスが割れる、車の衝突、または銃の発砲など、警察または緊急医療提供者が呼び出されるような状況に関連するオーディオイベント発生を分類するオーディオコンテキストモデルが実装され得る。LCHは当該イベントの発生を示す情報をSoCに提供し得、SoCはユーザに、警察または医療専門家を呼ぶべきかを問い合わせ得る。
LCHモジュール361から364におけるAONブロック316から319は、音声起動、話者ID、顔起動、およびフェースIDなどのLCH「常時オン」機能、およびリッド301が閉じると視認可能でコンテンツとを提供する常時オンディスプレイをサポートするため、様々なI/O、タイマ、インタラプト、および制御ユニットを含む。
図4は、図3のリッドコントローラハブのセキュリティモジュールのブロック図を示す。ヴォルト320は、メモリ353に格納されたファームウェア上で実行される暗号学的ハッシュ関数を実装可能な暗号学的アクセラレータ400を含む。いくつかの実施形態において、暗号学的アクセラレータ400は、128ビットブロックサイズのアドバンスト暗号化規格(AES)準拠(AESから128)または384ビットセキュアハッシュアルゴリズム(SHA)準拠(SHAから384)暗号化アルゴリズムを実装する。セキュリティプロセッサ321は、プラットフォーム固有機能モジュール(PUF)405と、OTPジェネレータ410と、ROM415と、ダイレクトメモリアクセス(DMA)モジュール420とをさらに含むセキュリティプロセッサモジュール402内に存在する。PUF405は、特定のLCH実装に固有の1または複数のセキュリティ関連機能を実装可能である。いくつかの実施形態において、セキュリティプロセッサ321はDesignWare(登録商標)ARC(登録商標)SEMセキュリティプロセッサであり得る。ファブリック310は、セキュリティモジュール361の様々なコンポーネント間の通信を可能にし、アドバンストエクステンシブインタフェース(AXI)440と、アドバンストペリフェラルバス(APB)440と、アドバンストハイパフォーマンスバス(AHB)445とを含む。AXI440は、AXIからAPB(AXI X2P)ブリッジ430を介してアドバンストペリフェラルバス440と、AXIからAHB(AXI X2A)ブリッジ435を介してアドバンストハイパフォーマンスバス445と通信する。常時オンブロック316は、複数のGPIO450と、ユニバーサル非同期レシーバ/トランスミッタ(UART)455と、タイマ460と、電力管理およびクロック管理ユニット(PMU/CMU)465とを含む。PMU/CMU465は、LCHコンポーネントへの電力およびクロック信号供給を制御し、個別のLCHコンポーネントへ電力およびクロック信号を選択的に供給できる。これにより、特定のLCH動作モードまたは機能をサポートするために使用されるコンポーネントのみが、電力を受信し、クロックされる。I/Oセット332は、メモリ353との通信のために、I2C/I3Cインタフェース470と、キュードシリアルペリフェラルインタフェース(QSPI)475をと含む。いくつかの実施形態において、メモリ353は、LCHファームウェアを格納する16MBシリアルペリフェラルインタフェース(SPI)からNORフラッシュメモリである。いくつかの実施形態において、LCHセキュリティモジュールは、図4に示すコンポーネント1または複数を排除可能である。いくつかの実施形態において、LCHセキュリティモジュールは、図4に示すもの以上に、1または複数の追加的なコンポーネントを含み得る。
図5は、図3のリッドコントローラハブのホストモジュールのブロック図を示している。DSP325は、さらにレベル1(L1)キャッシュ504と、ROM506と、DMAモジュール508とをさらに含むDSPモジュール500の一部である。いくつかの実施形態において、DSP325はDesignWare(登録商標)ARC(登録商標)EM11D DSPプロセッサであり得る。セキュリティプロセッサ324は、さらにプラットフォーム固有機能と、OTPジェネレータ512と、ROM514と、DMAモジュール516との実装を可能にするPUFモジュール510をさらに含むセキュリティプロセッサモジュール502の一部である。いくつかの実施形態において、セキュリティプロセッサ324はSynopsis(登録商標)DesignWare(登録商標)ARC(登録商標)SEMセキュリティプロセッサである。ファブリック311は、ホストモジュール362の様々なコンポーネント間の通信を可能にし、セキュリティコンポーネントファブリック310と同様のコンポーネントを含む。常時オンブロック317は、複数のUART550と、LCHデバッグをサポートするためのJoint Test Action Group(JTAG)/I3Cポート552、複数のGPIO554、タイマ556、インタラプトリクエスト(IRQ)/起動ブロック558、カメラ346に19.2MHz基準クロックを提供するPMU/CCUポート560を含む。同期信号370は、GPIOポートの1つに接続される。I/O333は、カメラ346とのI2Cおよび/またはI3C通信をサポートするインタフェース570と、SoC340におけるUSBモジュール344と通信するUSBモジュール580と、タッチコントローラ385と通信するQSPIブロック584とを含む。いくつかの実施形態において、I/Oセット333は、QSPIインタフェース582を介して、SoCによりタッチセンサデータを提供する。別の実施形態において、タッチセンサデータは、USB接続583を介して、SoCと通信する。いくつかの実施形態において、接続583はUSB2.0接続である。タッチセンサデータをSoCに送信するのに、USB接続583を利用することで、ヒンジ330はQSPIインタフェース582がサポートするQSPI接続をサポートするのに、ワイヤを搭載する必要がなくなる。この追加的なQSPI接続をサポートする必要がないことで、ヒンジを通るワイヤの数を4から8本のワイヤ分削減できる。
いくつかの実施形態において、ホストモジュール362はデュアルディスプレイをサポートできる。そのような実施形態において、ホストモジュール362は、第2タッチコントローラと、第2タイミングコントローラと通信する。第2タイミングコントローラと、ホストモジュールとの間の第2同期信号は、第2タッチコントローラにより提供されるタッチセンサデータの処理と、SoCに送られる、第2タッチセンサにより提供されるタッチセンサデータの送信の、第2ディスプレイのリフレッシュレートとの同期とを可能にする。いくつかの実施形態において、ホストモジュール362は3つ以上のディスプレイをサポート可能である。いくつかの実施形態において、LCHホストモジュールは図5に示すコンポーネントの1または複数を省き得る。いくつかの実施形態において、LCHホストモジュールは、図5に示すもの以上に、1または複数の追加的なコンポーネントを含み得る。
図6は、図3のリッドコントローラハブのビジョン/撮像モジュールのブロック図を示す。DSP328は、L1キャッシュ602と、ROM604と、DMAモジュール606とをさらに含むDSPモジュール600の一部である。いくつかの実施形態において、DSP328は、DesignWare(登録商標)ARC(登録商標)EM11D DSPプロセッサであり得る。ファブリック312は、ビジョン/撮像モジュール363の様々なコンポーネント間での通信を可能にし、AXIからAPB(X2P)ブリッジ630により、アドバンストペリフェラルバス(APB)640に接続されたアドバンストエクステンシブルインタフェース(AXI)640を含む。常時オンブロック318は、複数のGPIO650、複数のタイマ652、IRQ/起動ブロック654、およびPMU/CCU656を含む。いくつかの実施形態において、IRQ/起動ブロック654はカメラ346からウェイクオンモーション(WoM)インタラプトを受信する。WoMインタラプトは、カメラ内に配置された、または通信可能に結合されたアクセラレータにより生成された加速度計センサデータに基づき生成され得、またはカメラが、カメラが捕捉した画像内で動き検出処理を実行したことに応じて生成され得る。I/O334は、SoC340内の内蔵センサハブ342にメタデータを送信するI2C/I3Cインタフェース674と、カメラ346および他のリッドセンサ671(例えば、ライダセンサ、レーダセンサ、超音波センサ、タイムオブフライトカメラ、赤外線センサ)接続するI2C3/I3Cインタフェース670とを含む。ビジョン/撮像モジュール363は、I2C/I3Cインタフェース670を介して追加的なリッドセンサ671からセンサデータを受信し得る。いくつかの実施形態において、メタデータは、リッドコントローラハブにより提供される情報が有効かを示す情報、リッドコントローラハブの動作モードを示す情報(例えば、オフ、LCHコンポーネントの一部が無効だが、LCHはユーザの顔を検出するために継続的に画像センサデータを監視する「顔起動」低電力モード)、自動露光情報(例えば、ビジョン/撮像モジュール363がカメラ346に対して自動で設定した露光レベル)、およびカメラ346により捕捉された画像またはビデオ内に検出された顔に関連する情報(例えば、顔が存在するという信頼レベルを示す情報、顔が認証ユーザの顔と一致する信頼レベルを示す情報、捕捉された画像またはビデオ内の顔の位置を示すバウンディングボックス情報、検出された顔の向きを示す向き情報、および顔ランドマーク情報)などの情報を含む。
フレームルータ339は、カメラ346からの画像センサデータを受信し、画像センサデータをさらなる処理用にニューラルネットワークアクセラレータ327および/またはDSP328に送る前に、画像センサデータを処理可能である。フレームルータ339はさらに、受信した画像センサデータを、フレームルータ処理をバイパスし、SoC340内の画像処理モジュール345に送信可能とする。画像センサデータは、フレームルータ処理スタック699に処理されるのと同時に画像処理モジュール345に送信され得る。カメラ346により生成された画像センサデータは、MIPI D-PHYレシーバ680によりフレームルータ339において受信され、ここでMIPI CSI2レシーバ682に送られる。マルチプレクサ/セレクタブロック684は、画像センサデータをフレームルータ処理スタック699により処理される、画像処理モジュール345への送信用に直接CSI2トランスミッタ697およびDからPHYトランスミッタ698に送られる、またはその両方を可能とする。
フレームルータ処理スタック699は、画像センサデータをニューラルネットワークアクセラレータ327および/またはDSP328による処理用に調整するために、画像センサデータの前処理を実行し、画像センサデータに追加的な画像処理を実行できる1または複数のモジュールを含む。フレームルータ処理スタック699は、サンプラー/クロッパーモジュール686と、レンズシェーディングモジュール688と、動き検出器モジュール690と、自動露光モジュール692と、画像前処理モジュール694と、DMAモジュール696とを含む。サンプラー/クロッパーモジュール686は、画像センサデータにより表されるビデオのフレームレートを低減可能で、および/または画像センサデータにより表される画像のサイズをクロッピングする。レンズシェーディングモジュール688は、1または複数のレンズシェーディング効果を、画像センサデータにより表される画像に適用可能である。いくつかの実施形態において、画像センサデータにより表される画像に適用されるレンズシェーディング効果はユーザにより選択可能である。動き検出器690は、画像センサデータにより表される複数の画像の間の動きを検出可能である。動き検出器は、複数の画像にわたる、任意の動き、または特定のオブジェクト(例えば、顔)の動きを示し得る。
自動露光モジュール692は、画像センサデータにより表される画像が露光過多または露光不足かを判定し、カメラ346により捕捉される将来の画像の露光を向上するように、カメラ346の露光を調整させることができる。いくつかの実施形態において、自動露光モジュール362は、露光過多または露光不足に対応するように、画像センサデータにより表される画像の品質を向上するように、画像センサデータを修正可能である。画像前処理モジュール694は、ニューラルネットワークアクセラレータ327および/またはDSP328による処理用に、画像センサデータをさらに調整するように、画像センサデータの画像処理を実行する。画像センサデータは、フレームルータ処理スタック699の1または複数のモジュールにより処理された後、ファブリック312を介して、ビジョン/撮像モジュール363内の別のコンポーネントに送られ得る。いくつかの実施形態において、フレームルータ処理スタック699は、図6に示すよりもより多くのまたはより少ないモジュールを含む。いくつかの実施形態において、フレームルータ処理スタック699は、画像センサデータが、フレーム処理スタックの選択されたモジュールで処理されるという点で構成可能である。いくつかの実施形態において、フレーム処理スタックにおけるモジュールの画像センサデータ上での動作順序も構成可能である。
フレームルータ処理スタック699により画像センサデータが処理されたら、処理された画像センサデータは、さらなる処理のためにDSP328および/またはニューラルネットワークアクセラレータ327に提供される。ニューラルネットワークアクセラレータ327は、処理された画像センサデータ内に顔の存在を検出することで顔起動機能を、処理された画像センサデータにおいて認証されたユーザの顔の存在を検出することでフェースID機能を、有効にする。いくつかの実施形態において、NNA327は、画像センサデータ内に複数の顔を、画像センサデータ内に複数の認証されたユーザの存在を検出可能である。ニューラルネットワークアクセラレータ327は、構成可能であり、NNA327に1または複数の認証されたユーザを識別または新たな認証されたユーザを識別可能とする情報により更新できる。いくつかの実施形態において、NNA327および/またはDSP328は1または複数の適応減光機能を有効にする。適応減光機能の一例は、ビデオ会議またはビデオ通話アプリケーションに対して有用な機能である、人間の顔が占めていない画像またはビデオ領域の減光である。別の例は、コンピューティングデバイスがアクティブ状態にあり、顔がカメラの前にもはや検出されていない間はスクリーンを全体的に減光し、その後、顔が再度検出されたらディスプレイの減光解除を行うことである。適応減光機能を、フェースIDを組み込むように拡張すると、スクリーンは再度認証されたユーザが検出された場合にのみ減光解除される。
いくつかの実施形態において、フレームルータ処理スタック699は、画像センサデータにより表される画像の解像度をアップスケールまたはダウンスケール可能な超解像モジュール(不図示)を含む。例えば、画像センサデータが1メガピクセル画像を表す実施形態において、超解像モジュールは、1メガピクセル画像を画像処理モジュール345に送られる前により高解像度の画像にアップスケール可能である。いくつかの実施形態において、LCHビジョン/撮像モジュールは図6に示すコンポーネントの1または複数を有さなくてよい。いくつかの実施形態において、LCHビジョン/撮像モジュールは図6に示すものに加え、1または複数の追加的なコンポーネントを含み得る。
図7は、図3のリッドコントローラハブのオーディオモジュール364のブロック図を示す。いくつかの実施形態において、NNA350は人工ニューラルネットワークアクセラレータであり得る。いくつかの実施形態において、NNA350は、インテル(登録商標)ガウシアン&ニューラルアクセラレータ(GNA)または他の低電力ニューラルコプロセッサであり得る。DSP351は、命令キャッシュ702およびデータキャッシュ704をさらに含む、DSPモジュール700の一部である。いくつかの実施形態において、各DSP351はCadence(登録商標)Tensilica(登録商標)HiFi DSPである。オーディオモジュール364は、リッド内の各マイクロホンに対して1つDSPモジュール700を含む。いくつかの実施形態において、DSP351はオーディオセンサデータにダイナミックノイズリダクションを実行可能である。別の実施形態において、4つよりも多くまたは少ないマイクロホンが使用され得、複数のマイクロホンにより提供されるオーディオセンサデータは単一のDSP351により処理され得る。いくつかの実施形態において、NNA350は、オーディオ品質を向上する1または複数のモデルを実装する。例えば、NNA350は、オーディオまたはビデオ通話中に妨げとなり得る背景ノイズを除去または低減する、1または複数の「スマートミュート」モデルを実装可能である。
いくつかの実施形態において、DSP351は、ファーフィールド機能を有効にできる。例えば、ベゼルにわたって(またはディスプレイ内マイクロホンが使用される場合には表示領域にわたって)分散された複数の前方向きマイクロホンを含むリッドは、ファーフィールド機能(例えば、遠隔音源により生成された音の検出向上)を可能にするように、マイクロホンにより生成されたオーディオ信号に、ビームフォーミングまたは空間的フィルタリングを実行可能である。DSP351を利用するオーディオモジュール364は、遠隔音源位置から受信した音の検出を向上するように、遠隔音源の位置を判定できる。いくつかの実施形態において、DSP351は、オーディオ信号が時間的に重複するようにマイクロホンにより生成されたオーディオ信号に加えられる遅延を決定し、各オーディオ信号に加えられた遅延に基づいて、各マイクロホンから音源の距離を推測することで音源の位置を判定できる。決定された遅延を、マイクロホンにより提供されたオーディオ信号に加えることで、遠隔音源の方向におけるオーディオ検出が向上可能である。音声起動または話者ID機能を可能とするための音声検出用に、NNA350に向上したオーディオが提供可能である。向上したオーディオに、DSP351によるさらなる処理も実行可能である。音源の識別された位置は、オペレーティングシステムまたはオペレーティングシステム上で稼働するアプリケーションによる使用のために、SoCに提供され得る。
いくつかの実施形態において、DSP351は、近超音波(例えば、15kHzから20kHz)または超音波(例えば、>20kHz)周波数で、オーディオセンサデータにエンコードされた情報を検出でき、それにより低周波数低電力通信チャネルを実現する。近超音波/超音波周波数で検出された情報は、SoC340における音声捕捉モジュール343に送られ得る。例えば、モバイルコンピューティングデバイスに対する、会議室内の別のコンピューティングデバイス(例えば、WiからFiルータ、リピータ、プレゼン機器)に対する会議接続またはWiからFi接続情報の通信に、超音波通信チャネルは使用できる。オーディオモジュール364はさらに、超音波周波数で情報を送信するために、1または複数のマイクロホン390を駆動できる。したがって、オーディオチャネルは、コンピューティングデバイス間の双方向低周波数低電力通信チャネルとして使用され得る。
いくつかの実施形態において、オーディオモジュール364は適応冷却を有効にできる。例えば、オーディオモジュール364は、アンビエントノイズレベルを判定し、アンビエントノイズレベルを示す情報をSoCに送信可能である。SoCは、この情報を、コンピューティングデバイスの冷却ファンの動作レベルを判定するための要素として使用できる。例えば、冷却ファンのスピードは、アンビエントノイズレベルを上げ下げしてスケールアップまたはダウンできる。これにより、より騒音の多い環境で、冷却性能向上が可能となり得る。
ファブリック313は、オーディオモジュール364の様々なコンポーネント間の通信を可能にする。ファブリック313は、NNA550、DSPモジュール700、メモリ352、およびDMA748を、OCPからAPBブリッジ728を介してAPB740に接続するオープンコアプロトコル(OCP)インタフェース726を含む。常時オンブロック319は、複数のGPIO750と、マイクロホン390により生成されたオーディオセンサデータを受信するパルス密度変調(PDM)モジュール752と、1または複数のタイマ754と、PMU/CCU756と、音声捕捉モジュール343へ、およびからオーディオデータを送信および受信するためのMIPI SoundWire(登録商標)モジュール758とを含む。いくつかの実施形態において、マイクロホン390により提供されるオーディオセンサデータは、DesignWare(登録商標)SoundWire(登録商標)モジュール760で受信される。いくつかの実施形態において、LCHオーディオモジュールは図7に示すコンポーネントの1または複数を有さなくてよい。いくつかの実施形態において、LCHオーディオモジュールは図7に示すものに加え、1または複数の追加的なコンポーネントを含み得る。
図8は、図3のリッドコントローラハブとともに使用されるタイミングコントローラ、内蔵ディスプレイパネル、および追加的な電子装置のブロック図を示す。タイミングコントローラ355は、複数のメインリンクレーン800および補助(AUX)チャネル805を含むeDP接続を介して、SoC340のディスプレイモジュール341からビデオデータを受信する。ディスプレイモジュール341により提供されたビデオデータおよび補助チャネル情報は、eDPメインリンクレシーバ812および補助チャネルレシーバ810により、TCON355で受信される。タイミングコントローラ処理スタック820は、画素処理と、ディスプレイモジュール341から送信されたビデオデータのディスプレイパネル380(例えば、行ドライバ882、列ドライバ884)の制御回路機構を駆動する信号への変換とを担う1または複数のモジュールを含む。ビデオデータは、フレームバッファ830に格納されることなく、タイミングコントローラ処理スタック820により処理され得、またはビデオデータはタイミングコントローラ処理スタック820による処理前に、フレームバッファ830内に格納され得る。フレームバッファ830は、1または複数のビデオフレーム(または、フレーム。本明細書で使用される用語「画像」および「フレーム」は同義で使用される)に対する画素情報を格納する。例えば、いくつかの実施形態において、フレームバッファは、パネル上に表示される、ビデオフレームにおける画素の色情報を格納できる。
タイミングコントローラ処理スタック820は、自律的低リフレッシュレートモジュール(ALRR)822と、デコーダパネル自己リフレッシュ(デコーダPSR)モジュール824と、電力最適化モジュール826とを含む。ALRRモジュール822は、ディスプレイ380のリフレッシュレートを動的に調整可能である。いくつかの実施形態において、ALRRモジュール822は、20Hzおよび120Hzの間で、ディスプレイリフレッシュレートを調整可能である。ALRRモジュール822は、ゲーミングアプリケーションにおいて、レンダリングされる画像の複雑さに応じて変化し得る、受信したビデオデータのフレームレートに基づき、ディスプレイリフレッシュレートを調整するなどの、様々なダイナミックリフレッシュレート手法を実装できる。ALRRモジュール822により判定されたリフレッシュレートは、同期信号370としてホストモジュールに提供可能である。いくつかの実施形態において、同期信号は、ディスプレイリフレッシュがまさに発生しようとしていることのインジケーションを含む。いくつかの実施形態において、ALRRモジュール822は、ブランク期間の長さを調整することで、パネルリフレッシュレートを動的に調整可能である。いくつかの実施形態において、ALRRモジュール822は、ホストモジュール362から受信した情報に基づいて、パネルリフレッシュレートを調整できる。例えば、いくつかの実施形態において、ホストモジュール362は、ビジョン/撮像モジュール363がカメラの前にユーザがいないことを判定すると、リフレッシュレートが低減することを示す情報をALRRモジュール822に送信できる。いくつかの実施形態において、ホストモジュール362は、ホストモジュール362がタッチコントローラ385から受信したタッチセンサデータに基づいてパネル380にタッチインタラクションがあったと判定すると、リフレッシュレートが増加することを示す情報をALRRモジュール822に送信できる。
いくつかの実施形態において、VDSC圧縮規格を使用してエンコードされたビデオデータをデコードする、デコーダPSRモジュール824は、ビデオ電子装置規格関連付け(VESA)、ディスプレイストリーミング圧縮(VDSC)デコーダを含み得る。別の実施形態において、デコーダからパネル自己リフレッシュモジュール824は、有効にされると、前のリフレッシュサイクルで利用されたフレームバッファに格納されたビデオデータに基づいて、ディスプレイパネル380の全部または一部をリフレッシュする、パネル自己リフレッシュ(PSR)実装を含み得る。これは、ディスプレイパイプラインのフレームバッファに通じる部分を、低電力状態に移行可能にできる。いくつかの実施形態において、デコーダからパネル自己リフレッシュモジュール824は、eDP v1.3において実装されるPSR機能または、eDP v1.4において実装されるPSR2機能であり得る。いくつかの実施形態において、TCONは、モバイルコンピューティングデバイスオペレーティングシステムのアップグレードの際に、ゼロまたは低リフレッシュ状態に移行することで、追加的な省電力を実現できる。ゼロリフレッシュ状態において、タイミングコントローラはディスプレイをリフレッシュしない。低リフレッシュ状態において、タイミングコントローラは低レート(例えば、20Hz以下)でディスプレイをリフレッシュする。
いくつかの実施形態において、タイミングコントローラ処理スタック820は、ディスプレイモジュール341により提供されたビデオフレームの解像度を、ディスプレイパネル380のものに一致するようにダウンスケールまたはアップスケール可能な超解像モジュール825を含み得る。例えば、内蔵パネル380が3Kx2Kパネルで、ディスプレイモジュール341が4Kでレンダリングされた4Kビデオフレームを提供する場合、超解像モジュール825は、4Kビデオフレームを3Kx2Kビデオフレームにダウンスケールできる。いくつかの実施形態において、超解像モジュール825はビデオの解像度をアップスケールできる。例えば、ゲーミングアプリケーションが1360x768解像度で画像をレンダリングする場合、超解像モジュール825は、ディスプレイパネル380の解像度機能を最大限発揮するように、ビデオフレームを3Kx2Kにアップスケールできる。いくつかの実施形態において、ビデオフレームをアップスケールする超解像モジュール825は、アップスケーリングを実行するため、1または複数のニューラルネットワークモデルを利用できる。
電力最適化モジュール826は、TCON355が消費する電力を低減する追加的なアルゴリズムを含む。いくつかの実施形態において、電力最適化モジュール826は、ローカルコントラストを改善し、個別のフレームに全体減光を適用することで、ディスプレイパネル380の電力消費を低減するローカルコントラスト改善および全体減光モジュールを含む。
いくつかの実施形態において、タイミングコントローラ処理スタック820は、図8に示すよりもより多くのまたはより少ないモジュールを含むことができる。例えば、いくつかの実施形態において、タイミングコントローラ処理スタック820は、ALRRモジュールおよびeDP PSR2モジュールを含むが、電力最適化モジュールを有さない。別の実施形態において、図8に示すものに対する追加的なモジュールが、タイミングコントローラスタック820に含まれ得る。タイミングコントローラ処理スタック820に含まれたモジュールは、リッド301に含まれる内蔵ディスプレイパネル380のタイプに応じ得る。例えば、ディスプレイパネル380がバックライト付液晶ディスプレイ(LCD)であれば、タイミングコントローラ処理スタック820は、上述の全体減光およびローカルコントラスト電力低減手法を含むモジュールを含まない。その手法は、バックライト付LCDディスプレイよりも発光型ディスプレイ(QLED、OLED、およびマイクロLEDディスプレイなど、発光要素が個別の画素内に配置されたディスプレイ)での使用により適するためである。いくつかの実施形態において、タイミングコントローラ処理スタック820は色およびガンマ補正モジュールを含む。
タイミングコントローラ処理スタック820によりビデオデータが処理された後、P2Pトランスミッタ880が、ビデオデータを、ディスプレイパネル380用の制御回路機構を駆動する信号に変換する。ディスプレイパネル380用の制御回路機構は、個別の画素の色と明るさを制御する、内蔵ディスプレイパネル380内のディスプレイ380における画素の行および列を駆動する行ドライバ882および列ドライバ884を含む。
内蔵パネル380がバックライト付LCDディスプレイである実施形態において、TCON355は、ディスプレイパネル380のバックライトを制御するため、バックライトドライバ840を駆動する信号を生成する、バックライトコントローラ835を含み得る。バックライトコントローラ835は、パネル380上に表示される画像を表すビデオフレームデータに基づいて、信号をバックライトドライバ840に送信する。バックライトコントローラ835は、表示される画像の領域(または画像全体)の大部分が暗く表示される場合、パネルのそれら部分(またはパネル全体)のバックライトを消す、またはその明るさを低減することなどで、低電力機能を実装できる。いくつかの実施形態において、バックライトコントローラ835は、見るものがほとんど、または全く視覚的劣化を感じないように、バックライトの明るさを低減しながら、画素の彩度値を調整することで、電力消費を低減する。いくつかの実施形態においてバックライトは、eDP補助チャネルを介してリッドに送信される信号に基づいて制御される。これにより、ヒンジ330越しに送られるワイヤの数が低減可能である。
タッチコントローラ385は、内蔵パネル380のタッチスクリーン技術の駆動、ディスプレイパネル380からのタッチセンサデータの収集を担う。タッチコントローラ385は定期的または非定期的にタッチセンサデータをサンプリング可能で、タイミングコントローラ355および/またはリッドコントローラハブ305から制御情報を受信可能である。タッチコントローラ385は、ディスプレイパネルリフレッシュレートと同様、または近いサンプリングレートで、タッチセンサデータをサンプリング可能である。タッチサンプリングは、ディスプレイパネルリフレッシュレートにおける調整に応じて、調整可能である。したがって、ディスプレイパネルが低レートでリフレッシュされている、または一切リフレッシュされていない場合、タッチコントローラは、そのタッチセンサデータが低レートでサンプリングタッチセンサデータされるまたは全くされない、低電力状態にされ得る。例えば、ビジョン/撮像モジュール363が、ビジョン/撮像モジュール363により継続的に分析されている画像データ内にユーザを検出したことに応じて、コンピューティングデバイスが低電力状態から脱すると、タッチコントローラ385はタッチセンササンプリングレートを増加、またはタッチセンサデータのサンプリングを再開し得る。いくつかの実施形態において、より詳細に後述するように、タッチセンサデータのサンプリングは、ディスプレイパネルリフレッシュレートと同期され得る。これは、スムーズで反応の良いタッチ体験を可能にし得る。いくつかの実施形態において、タッチコントローラは、ディスプレイリフレッシュレートから独立したレートで、タッチセンサデータをサンプリング可能である。
図2および図3のタイミングコントローラ400および351はそれぞれリッドコントローラハブ260および305とは別個であるように示されているが、本明細書に記載のタイミングコントローラの内の任意のものは、リッドコントローラハブと同じダイ、パッケージ、またはプリント回路基板上に一体化され得る。したがって、リッドコントローラハブへの言及は、タイミングコントローラを含むコンポーネントを示し得、タイミングコントローラへの言及はリッドコントローラハブ内のコンポーネントを示し得る。図10Aから図10Dは、タイミングコントローラおよびリッドコントローラハブの間の、様々なあり得る物理的な関係を示す。
いくつかの実施形態において、リッドコントローラハブは、より多く、またはより少ないコンポーネントを有し、および/または本明細書に記載のLCH実施形態よりも少ない特徴または機能を実装し得る。例えば、いくつかの実施形態において、モバイルコンピューティングデバイスは、オーディオモジュールを有さないLCHを含み、ベース内のオーディオセンサデータの処理を実行し得る。別の例において、モバイルコンピューティングデバイスは、ビジョン/撮像モジュールを有さないLCHを含み、ベース内の画像センサデータの処理を実行し得る。
図9は、リッドコントローラハブを含むモバイルコンピューティングデバイスにおけるコンポーネントの例示的な物理的配置を示すブロック図を示す。モバイルコンピューティングデバイス900は、ヒンジ930を介してリッド920に接続されたベース910を含む。ベース910は、その上にSoC914および他のコンピューティングデバイスコンポーネントが配置されたマザーボード912を含む。リッド920は、例えば、内蔵ディスプレイパネルのコンテンツ表示部分である、リッド内に配置された内蔵ディスプレイパネル926のアクティブ領域である、表示領域924の周辺の周りに延在するベゼル922を含む。リッド920はさらに、リッド920の左右上角の一対のマイクロホン926と、ベゼル922の中心上部分に沿って配置されたセンサモジュール928とを含む。センサモジュール928は、前方向きカメラ932を含む。いくつかの実施形態において、センサモジュール928は、カメラ932が搭載されたプリント回路基板である。リッド920はさらに、リッド920の底部分に配置されたパネル電子装置940およびリッド電子装置950を含む。リッド電子装置950は、リッドコントローラハブ954を含み、パネル電子装置940はタイミングコントローラ944を含む。いくつかの実施形態において、リッド電子装置950は、LCH954が搭載されたプリント回路基板を含む。いくつかの実施形態において、パネル電子装置940は、TCON944と、行および列ドライバ、バックライトドライバ(内蔵ディスプレイがLCDバックライト付ディスプレイの場合)、およびタッチコントローラなどの追加的なパネル回路機構が搭載されたプリント回路基板を含む。タイミングコントローラ944およびリッドコントローラハブ954は、2つの回路基板を接続するケーブルコネクタであり得る、コネクタ958を介して通信する。コネクタ958は、タッチサンプリング動作を、ディスプレイリフレッシュレートと同期可能とする、同期信号を伝送できる。いくつかの実施形態において、LCH954は、コネクタ958を介して、TCON944および、パネル電子装置940の一部である他の電子コンポーネントに電力を送ることができる。センサデータケーブル970は、カメラ932により生成された画像センサデータ、マイクロホン926により生成されたオーディオセンサデータ、タッチスクリーン技術により生成されたタッチセンサデータを、リッドコントローラハブ954に伝送する。マイクロホン926により生成されたオーディオ信号データを伝送するワイヤは、リッドの左右上角におけるマイクロホン926からセンサモジュール928へ延在し得る。そこで、それらのワイヤは、カメラ932により生成されてセンサデータケーブル970を介してリッドコントローラハブ954に送られる画像センサデータを伝送するワイヤとまとめられる。
ヒンジ930は、左ヒンジ部分980および右ヒンジ部分982を含む。ヒンジ930は、リッド920をベース910に物理的に結合し、リッド920をベースに対して回転可能とする。リッドコントローラハブ954をベース910に接続するワイヤは、ヒンジ部分980および982の一方または両方を通過する。ヒンジ930は、2つのヒンジ部分を含むものとして示されているが、別の実施形態において様々な異なる構成であり得る。例えば、ヒンジ930は、単一のヒンジ部分または3つ以上のヒンジ部分を含み得、リッドコントローラハブ954をSoC914に接続するワイヤは、任意のヒンジ部分でヒンジと交差し得る。ヒンジ930と交差するワイヤの数を、既存ラップトップデバイスよりも少なくすることで、ヒンジ930は、既存ラップトップのヒンジよりも、より安価で、よりシンプルなコンポーネントとなり得る。
別の実施形態において、リッド920は、図9に示すものとは異なるセンサ配置を有し得る。例えば、リッド920は、追加的な前方向きカメラ、前方向きデプスセンシングカメラ、赤外線センサ、および1または複数のワールドフェイシングカメラなどの追加的なセンサを含み得る。いくつかの実施形態において、リッド920は、ベゼルに配置された追加的なマイクロホン、またはセンサモジュール上に配置された1つだけのマイクロホンを含み得る。センサモジュール928は、リッド内に配置された追加的なセンサにより生成されたセンサデータを伝送するワイヤをまとめ、それらをセンサデータケーブル970に送ることができ、センサデータケーブル970は、これらの追加的なセンサデータをリッドコントローラハブ954に送る。
いくつかの実施形態において、リッドは、ディスプレイ内マイクロホンまたはディスプレイ内カメラなどディスプレイ内センサを含む。これらセンサは、各画素に対して光を生成し、より詳細に後述する発光要素により利用さない画素領域における表示領域924に配置される。ディスプレイ内カメラセンサおよびディスプレイ内マイクロホンにより生成されたデータは、センサモジュール928と、リッド内に配置され、ディスプレイ内センサにより生成されたセンサデータを処理用にリッドコントローラハブ954に送る他のセンサモジュールとによりまとめられ得る。
いくつかの実施形態において、1または複数のマイクロホンおよびカメラは、リッドが閉じている場合など、「常時オン」利用シナリオでの使用に便利な、リッド内の位置に配置され得る。例えば、1または複数のマイクロホンおよびカメラは、デバイスが閉じたときに、ラップトップの「Aカバー」、またはモバイルコンピューティングデバイスの他のワールドフェイシング表面(リッドの上エッジまたは横エッジなど)上に配置され得る。これにより、起動用の言葉または表現を発したこと、またはカメラの視野内の人の存在を検出するように、オーディオまたは画像データが捕捉および監視可能となる。
図10Aから図10Eは、リッド内のタイミングコントローラおよびリッドコントローラハブの例示的な物理的配置のブロック図を示す。図10Aは、第2モジュール1030から物理的に離れた第1モジュール1020上に配置されたリッドコントローラハブ1000およびタイミングコントローラ1010を示す。いくつかの実施形態において、第1および第2モジュール1020および1030はプリント回路基板である。リッドコントローラハブ1000およびタイミングコントローラ1010は、接続1034を介して通信する。図10Bは、第3モジュール1040上に配置されたリッドコントローラハブ1042およびタイミングコントローラ1046を示す。LCH1042およびTCON1046は、接続1044を介して通信する。いくつかの実施形態において、第3モジュール1040はプリント回路基板で、接続1044は1または複数のプリント回路基板トレースを含む。リッドコントローラハブおよびタイミングコントローラ設計にモジュール式手法を適用する利点の1つは、それによりタイミングコントローラベンダーが、異なる特徴組を有する複数のLCH設計と協働する単一のタイミングコントローラを提供可能となることである。
図10Cは、フロントエンドおよびバックエンドコンポーネントに分けられたタイミングコントローラを示す。タイミングコントローラフロントエンド(TCON FE)1052およびリッドコントローラハブ1054は、第1共通コンポーネント1056上に一体化される、または共に配置される。いくつかの実施形態において、第1共通コンポーネント1056は集積回路パッケージで、TCON FE1052およびLCH1054は、マルチチップパッケージに一体化された個別の集積回路ダイ、または単一の集積回路ダイ上に一体化された個別回路である。第1共通コンポーネント1056は第4モジュール1058上に配置され、タイミングコントローラバックエンド(TCON BE)1060は第5モジュール1062上に配置される。タイミングコントローラフロントエンドおよびバックエンドコンポーネントは、接続1064を介して通信する。タイミングコントローラをフロントエンドおよびバックエンドコンポーネントに分けることで、様々なタイミングコントローラ処理スタックを有するタイミングコントローラの開発の柔軟性を実現できる。例えば、タイミングコントローラバックエンドは、内蔵ディスプレイを駆動するモジュールを含み得る。図8のタイミングコントローラ処理スタック820のP2Pトランスミッタ880と、デコーダまたはパネル自己リフレッシュモジュールなど、様々なタイミングコントローラフレームプロセッサスタックに共通し得る他のモジュールなどである。タイミングコントローラフロントエンドは、特定のモバイルデバイス設計に固有のモジュールを含み得る。例えば、いくつかの実施形態において、TCON FEは、全体減光と、特定のラップトップモデルで実装が所望のローカルコントラスト改善を実行する電力最適化モジュール826、またはレイテンシを低減するため、同期動作して(例えば、同期信号370を介する)近くに配置されるタイミングコントローラおよびリッドコントローラハブコンポーネントを有することが便利なALRRモジュールを含む。
図10Dは、第2共通コンポーネント1072およびタイミングコントローラバックエンド1078は同じモジュール、即ち第6モジュール1070上に配置され、第2共通コンポーネント1072と、TCON BE1078とが接続1066を介して通信する実施形態を示す。図10Eは、リッドコントローラハブ1080およびタイミングコントローラ1082が、第7モジュール1086上に配置された第3共通コンポーネント1084上に一体化された実施形態を示す。いくつかの実施形態において、第3共通コンポーネント1084は集積回路パッケージで、LCH1080およびTCON1082は、マルチチップパッケージに統合された個別の集積回路ダイパッケージ、または単一の集積回路ダイ上に配置された回路である。リッドコントローラハブと、タイミングコントローラとが物理的に別のモジュールに配置された実施形態(例えば図10A、図10C)において、モジュール間の接続は、複数のワイヤ、フレキシブルプリント回路、プリント回路、またはモジュール間の通信を実現する1または複数の他のコンポーネントを含み得る。
リッドコントローラハブおよびタイミングコントローラ(例えば、第4モジュール1058、第2共通コンポーネント1072、および第3共通コンポーネント1084)を含む図10Cから図10Eにおけるモジュールおよびコンポーネントは、リッドコントローラハブと称され得る。
図11A~図11Cは、様々なリッドコントローラハブ実施形態について、ヒンジワイヤ数の内訳の表を示す。ディスプレイワイヤは、SoCディスプレイモジュールからLCHタイミングコントローラにビデオデータを送る。画像ワイヤは、1または複数のリッドカメラにより生成された画像センサデータをSoC画像処理モジュールに送る。タッチワイヤは、タッチセンサデータをSoC内蔵センサハブに提供する。オーディオおよびセンシングワイヤは、オーディオセンサデータをSoC音声捕捉モジュールに提供し、他のタイプのセンサデータを内蔵センサハブに提供する。追加的な「LCH」ワイヤ組は、LCHおよびSoCの間の追加的な通信を実現する。オーディオおよびセンシングワイヤにより提供されるセンサデータのタイプは、指紋センサ、血管センサなどのようなビジョンベースの入力センサにより生成された視覚的センシングデータを含み得る。いくつかの実施形態において、ビジョンセンシングデータは、指紋センサなどの専用生体センサではなく、1または複数の汎用カメラにより生成された情報に基づいて生成され得る。
表1100は、72本ワイヤ実施形態の、ワイヤの内訳を示す。ディスプレイワイヤは、4つのeDP HBR2レーンと、相手先ブランド名製造(OEM)使用のための6つの信号をサポートするための総数35本のワイヤについて、19本のデータワイヤと、16本の電力ワイヤとを含む。画像ワイヤは、単一の1メガピクセルカメラにより生成された画像センサデータを搬送するための、総数14本のワイヤについて、6本のデータワイヤと、8本の電力ワイヤを含む。タッチワイヤは、タッチコントローラにより生成されたタッチセンサデータを搬送するためのI2C接続をサポートするための、総数6本のワイヤについて、4本のデータワイヤと、2本の電力ワイヤを含む。オーディオおよびセンシングワイヤは、4つのマイクロホンにより生成されたオーディオセンサデータをサポートするためのDMICおよびI2C接続をサポートするための総数10本のワイヤについて、8本のデータワイヤと、2本の電力ワイヤと、さらに単一のインタラプト(INT)ワイヤを含む。7本の追加的なデータワイヤが、USBおよびQSPI接続を介したLCHと、SoCとの間の通信用の追加的な情報を伝送する。
表1110は、39本ワイヤ実施形態についての、ワイヤの内訳を示す。ここで、リッドコンポーネントを給電するための専用ワイヤを提供し、様々なデータ信号を省略することが、ワイヤ数削減に寄与する。ディスプレイワイヤは、2本のeDP HBR2レーン、6つのOEM信号、およびリッドへの電力搬送をサポートする総数18本のワイヤについて、14本のデータワイヤと、4本の電力ワイヤを含む。4本の電力ワイヤを介して提供される電力は、リッドコントローラハブおよび他のリッドコンポーネントに電力供給する。リッド内の電力リソースは、ベースから専用電力ワイヤを介して提供される電力を受信し、リッドコンポーネントへの電力搬送を制御する。画像ワイヤ、タッチワイヤ、およびオーディオおよびセンシングワイヤは、表1100に示す実施形態と同数のデータワイヤを含むが、リッドへ個別に電力が提供されているため、電力ワイヤを含まない。3本の追加的なデータワイヤが、LCHおよびSoCの間の追加的な情報を搬送し、これは表1100に示す実施形態の7本から削減されている。
表1120は、29本ワイヤ実施形態のワイヤの内訳を示す。ここで、タッチセンサデータも搬送するように既存のUSBバスを利用し、OEM信号を搬送する6本のディスプレイデータワイヤを省略することで、さらなるワイヤ数削減が図られている。ディスプレイワイヤは、総数12本のワイヤについて、8本のデータワイヤと、4本の電力ワイヤを含む。画像ワイヤは、2メガピクセルRGB(赤から緑から青)カメラおよび赤外線(IR)カメラの2つのカメラそれぞれについて、4本のデータワイヤを含む。オーディオおよびセンシングワイヤは、4個のマイクロホンに対してオーディオデータを搬送するための、SoundWire(登録商標)接続をサポートするため、4本のワイヤを含む(表1110に示す実施形態の半分未満)。タッチセンサデータ送信専用のワイヤは存在せず、タッチセンサデータの通信に5本のワイヤが使用される。USB接続を介して、LCHおよびSoCの間で追加的な情報が通信される。したがって、表1100および1120は、リッドへ専用電力ワイヤ組を介して給電し、eDPチャネル数を削減し、タッチセンサデータを送るのに既存の接続(USB)を利用し、OEM固有信号を省略することで、ワイヤ数削減が可能となることを示す。ビデオデータをベースからリッドに、そしてオーディオセンサデータ、タッチセンサデータ、画像センサデータ、およびセンシングデータをリッドからベースに単一のインタフェースを介してストリーミングすることで、ヒンジワイヤ数のさらなる削減が実現され得る。いくつかの実施形態において、この単一の接続は、PCIe接続を含み得る。
表1100、1110、および1120にまとめたものと異なる実施形態において、ヒンジは、より多いもまたはより少ない総ワイヤ、列挙されたタイプの各タイプの信号(ディスプレイ、画像、タッチ、オーディオおよびセンシング、など)を搬送するのにより多くまたはより少ないワイヤを保持し得、表1100、1110、および1120に示したものと異なる接続およびインタフェース技術を利用可能である。
上述のように、リッドは、リッドベゼル内に配置されたカメラとマイクロホンに加え、ディスプレイ内カメラおよびディスプレイ内マイクロホンを含み得る。図12Aから図12Cは、リッドにおけるディスプレイ内マイクロホンおよびカメラの例示的配置を示す。図12Aは、ベゼル1204、ディスプレイ内マイクロホン1210、および表示領域1208を含むリッド1200を示す。ベゼル1204は、ディスプレイ基板(不図示)上に配置された複数の画素により画定される表示領域1208の境界を成す。画素はベゼル1204の内エッジ1206に延在し、したがって表示領域1028が、水平および垂直方向の両方において、一方の内ベゼルエッジ1206から反対のベゼルエッジ1206まで延在する。ディスプレイ内マイクロホン1210は、より詳細に後述するように、画素ディスプレイ要素と面積を共有する。マイクロホン1210は、表示領域1208の周辺領域に配置されたマイクロホン組と、表示領域1208の略中心に配置されたマイクロホンとを含む。図12Bは、ディスプレイ内マイクロホン1400が、表示領域1270の周辺領域に配置されたマイクロホン組と、表示領域1270の略中心に配置されたマイクロホンと、表示領域1270にわたって分散された4つの追加的なマイクロホンを含む、リッド1390を示す。図12Cは、ディスプレイ内マイクロホン1290のアレイが、リッド1280の表示領域1295内に配置されたリッド1280を示す。別の実施形態において、ディスプレイは、図12Aから図12Cに示す例示的構成とは異なる数および配置の複数のディスプレイ内マイクロホンを有し得る。
図12Aから図12Cはさらに、内蔵ディスプレイパネルにおける前方向きカメラの例示的配置を示す。ここで、1210、1400、および1290は、マイクロホンではなくディスプレイ内カメラを示す。いくつかの実施形態において、内蔵ディスプレイパネルは、ディスプレイ内マイクロホンおよびカメラの組み合わせを含み得る。内蔵ディスプレイは、図12Aから図12Cに示す例示的構成とは異なる数および配置の、ディスプレイ内カメラの配置、またはディスプレイ内カメラおよびディスプレイ内マイクロホンの組み合わせを含み得る。
図13Aから図13Bは、例示的な発光型ディスプレイにおける画素の簡略化された断面を示す。図13Aは、例示的マイクロLEDディスプレイにおける画素の断面の簡略化された図を示す。マイクロLED画素1300は、ディスプレイ基板1310と、赤LED1320と、緑LED1321と、青LED1322と、電極1330から1332と、透明表示媒体1340とを含む。LED1320から1322は、画素1300に対する個別の光生成要素である。ここで、LED1320から1322それぞれが生成する光の量は、関連付けられた電極1330から1332により制御される。
LEDスタック(赤LEDスタック(層1320および1330)、緑LEDスタック(層1321および1331)、および青LEDスタック(層1322および1332))は、マイクロ電子製造技術を使用して、基板上に製造可能である。いくつかの実施形態において、ディスプレイ基板1310は、LEDスタックがその上に製造される基板と異なる基板であり、LEDスタックは製造用基板からディスプレイ基板1310へと移される。別の実施形態において、LEDスタックは、ディスプレイ基板1310上に直接構築される。両方の実施形態において、所望のサイズのディスプレイを実現するように、複数の画素が、単一のディスプレイ基板上に配置され得、複数のディスプレイ基板が組み立てられ得る。
画素1300は、例えばディスプレイ解像度およびディスプレイサイズに依存し得る、画素幅1344を有する。例えば、所与のディスプレイ解像度について、ディスプレイサイズは画素幅1344とともに増加し得る。所与のディスプレイサイズについて、画素幅1344は解像度増加ともに減少し得る。画素1300は、ディスプレイのブラックマトリクス領域の一部である、未使用画素領域1348を有する。いくつかのディスプレイにおいて、LEDサイズ、ディスプレイサイズ、およびディスプレイ解像度の組み合わせは、マイクロホンなどのコンポーネントの画素内での統合を収容できる程、未使用画素領域1348を十分に大きくできるものとなる。
図13Bは、例示的OLEDディスプレイにおける画素の断面の簡略化された図を示す。OLED画素1350は、ディスプレイ基板1355と、それぞれ赤色(層1360)、緑色(層1361)、および青色(層1362)光を生成可能な、有機発光層1360から1362を含む。OLED画素1350はさらに、陰極層1365から1367、電子注入層1370から1372、電子輸送層1375から1377、陽極層1380から1382、正孔注入層1385から1387、正孔輸送層1390から1392、および透明表示媒体1394を含む。OLED画素1350は、陰極層1365から1367および陽極層1380から1382にわたって電圧をかけることで、光を生成する。この結果、電子および正孔が、それぞれ電子注入層1370から1372および正孔注入層1385から1387に注入される。注入された電子および正孔は、それぞれ電子輸送層1375から1377および正孔輸送層1390から1392を横切り、電子-正孔組が、それぞれ有機発光層1360から1362において再結合して、光が生成される。
マイクロLEDディスプレイにおけるLEDスタックと同様に、OLEDスタック(赤OLEDスタック(層1365、1370、1375、1360、1390、1385、1380)、緑OLEDスタック(層1366、1371、1376、1361、1391、1386、1381)、および青OLEDスタック(層1367、1372、1377、1362、1392、1387、1382)が、ディスプレイ基板1355とは別の基板上に製造可能である。いくつかの実施形態において、ディスプレイ基板1355は、OLEDスタックが製造用基板からディスプレイ基板1355へと移される基板と異なる基板である。別の実施形態において、OLEDスタックは、ディスプレイ基板1355上に直接構築される。両方のタイプの実施形態で、所望のディスプレイサイズを実現するように、複数のディスプレイ基板コンポーネントを組み立て可能である。透明表示媒体1340および1394は、ガラス、プラスチック、またはフィルムなど、任意の透明媒体であり得る。いくつかの実施形態において、透明表示媒体はタッチスクリーンを含み得る。
ここでも、マイクロLED画素1300と同様に、OLED画素1350はディスプレイ解像度およびディスプレイサイズなどの要素に応じ得る、画素幅1396を有する。OLED画素1350は未使用画素領域1398を有し、いくつかのディスプレイにおいて、OLEDスタック幅、ディスプレイサイズ、およびディスプレイ解像度の組み合わせは、マイクロホンなどのコンポーネントの画素内での統合を収容できる程、未使用画素領域1398を十分に大きくできるものとなる。
本明細書で使用される、「ディスプレイ基板」という用語は、ディスプレイにおいて使用され、その上に画素ディスプレイ要素が製造されるまたは載置される任意の基板を示し得る。例えば、ディスプレイ基板は、画素ディスプレイ要素(例えば、画素1300および1350におけるマイクロLED/OLED)とは別個に製造され、その上に画素ディスプレイ要素が取り付けられるバックプレーン、またはその上に画素ディスプレイ要素が製造される基板であり得る。
図14Aは、内蔵マイクロホンを有する例示的画素の組を示す。画素1401から1406はそれぞれ、赤色ディスプレイ要素1411、緑色ディスプレイ要素1412、および青色ディスプレイ要素1413を有し、これは例えば、マイクロLEDまたはOLEDであり得る。画素1401から1406はそれぞれ、画素領域を占める。例えば、画素1404は、画素領域1415を占める。各画素において、ディスプレイ要素1411から1413を占める画素領域の量は、小型マイクロホンが含まれるのに十分のブラックマトリクス空間が残るものとなる。画素1401および1403は、それぞれディスプレイ要素1411から1413に沿って配置された前方向きマイクロホン1420および1421を収容する。後方向きマイクロホンはディスプレイ基板の裏側に配置されているため、未使用画素領域またはディスプレイ要素サイズの制約を受けず、ディスプレイ基板の裏側のどの箇所にも配置され得る。例えば、後方向きマイクロホン1422は、画素1402および1403に跨る。
図14Bは、図14Aの例示的画素の、線A-A′に沿った断面を示す。断面1450は、画素1401から1403の断面を示す。緑色ディスプレイ要素1412と、画素1401から1403に対する対応する電極1430とが、ディスプレイ基板1460上に配置される。画素1401から1403は、マイクロホン1420および1421上に孔1474を有することで、音響振動がディスプレイ表面1475に達し、マイクロホン1420および1421に達することを可能にする透明表示媒体1470により覆われる。後方向きマイクロホン1422は、ディスプレイ基板1460の裏側に配置される。いくつかの実施形態において、画素1401から1403が配置されたディスプレイハウジング(不図示)は、音響振動がハウジングの裏側に達し、後方向きマイクロホン1422に達することができるように、通気口または他の開口を有する。
いくつかの実施形態において、本明細書に記載の技術で使用されるマイクロホンは、画素ディスプレイ要素とは独立して製造または作成され、製造用基板から移される、または他の方法でディスプレイ基板に取り付けられる個別マイクロホンであり得る。別の実施形態において、マイクロホンは、ディスプレイ基板上に直接作成できる。前方向きマイクロホンは、図14Bではディスプレイ基板1460の表面に配置されているように示されているが、マイクロホンがディスプレイ基板上に作成された実施形態においてそれらは少なくとも部分的にディスプレイ基板内に存在し得る。
本明細書で使用される、ディスプレイ基板に対する任意のセンサ(マイクロホン、圧電素子、温感センサ)に関する「上に配置」という用語は、任意の方法でディスプレイ基板に物理的に結合されたセンサを示す(例えば、基板に直接取り付けられた個別センサ、1または複数の介在層を介して基板に取り付けられた個別センサ、ディスプレイ基板上に作成されたセンサ)。本明細書で使用される、ディスプレイ基板に対するLEDに関する「上に配置」という用語は、任意の方法でディスプレイ基板に物理的に結合されたLEDを同様に示す(例えば、基板に直接取り付けられた個別LED、1または複数の介在層を介して基板に取り付けられた個別LED、ディスプレイ基板上に作成されたLED)。いくつかの実施形態において、前方向きマイクロホンは、前方向きマイクロホンの上方のディスプレイにおける孔(孔1474など)がユーザに呈し得る、あらゆる視覚的妨害を低減するように、ディスプレイの周辺領域に配置される。別の実施形態において、マイクロホン上の孔は、視覚的体験に妨害を呈さない、またはほとんど呈さないように、十分に小さく、または十分に数が少なくなり得る。
前方向きマイクロホン1420および1421はそれぞれ、単一の画素内に存在するように示されているが、別の実施形態において、前方向きマイクロホンは、複数の画素に跨り得る。これは、例えば、より大きなマイクロホンを、表示領域に内蔵、またはマイクロホンをより小さい画素を有するディスプレイに内蔵可能とし得る。図14Cから図14Dは、複数の画素にわたる例示的マイクロホンを示す。図14Cは、画素1401から1406と同じサイズを有する隣接する画素1407および1408と、2つの画素におけるディスプレイ要素で使用されない画素領域を占める、前方向きマイクロホン1420から1421よりも大きな前方向きマイクロホン1440とを示す。図14Dは、画素1401から1406よりも幅の狭い隣接する画素1409および1410と、両画素にわたる前方向きマイクロホン1426とを示す。より大きなマイクロホンを使用することで、音響検出向上が可能となるなど、ディスプレイの音響性能向上が可能となり得る。表示領域にわたって分散された、多くの内蔵小型マイクロホンを有するディスプレイは、ディスプレイベゼル内に配置された個別マイクロホンを1つのみ、または少数有するディスプレイを超える音響検出機能を有し得る。
いくつかの実施形態において、本明細書に記載のマイクロホンは、MEMS(マイクロエレクトロメカニカルシステム)マイクロホンである。いくつかの実施形態において、マイクロホンは、オーディオ処理コンポーネントに提供されるアナログオーディオ信号を生成し、別の実施形態において、マイクロホンはデジタルオーディオ信号をオーディオ処理コンポーネントに提供する。デジタルオーディオ信号を生成するマイクロホンは、ローカルADコンバータを含み、パルス密度変調(PDM)、I2S(Inter-IC Sound)、または他のデジタルオーディオ信号形式で、デジタルオーディオ出力を提供し得る。マイクロホンがデジタルオーディオ信号を生成する実施形態において、オーディオ処理コンポーネントはADコンバータを含まなくてよい。いくつかの実施形態において、内蔵マイクロホンは、約3.5mm(幅)x2.65mm(長さ)x0.98mm(高さ)の寸法を有する、MEMS PDMマイクロホンである。
マイクロホンは、本明細書に記載の技術を使用して、個別の画素に、またはいくつかの画素にわたって内蔵され得る。したがって、多様なマイクロホン構成が、ディスプレイ内に組み込まれ得る。図12Aから図12Cおよび図14Aから図14Dは、いくつかのマイクロホン構成を示す。さらに多くのものが可能である。本明細書に記載のディスプレイ内蔵マイクロホンは、リッドコントローラハブのオーディオモジュール(例えば、図3および7のオーディオモジュール364)に送られるオーディオ信号を生成する。
本明細書に記載の、表示領域内に内蔵されたマイクロホンを有するディスプレイは、様々なオーディオ処理タスクを実行可能である。例えば、表示領域にわたって複数の前方向きマイクロホンが分散されるディスプレイは、ファーフィールド機能(例えば、遠隔音源により生成された音の検出向上)を可能にするように、マイクロホンにより生成されたオーディオ信号に、ビームフォーミングまたは空間的フィルタリングを実行可能である。オーディオ処理コンポーネントは、遠隔音源の位置を判定し、音源位置に基づいてマイクロホンサブセットを選択肢、選択されたマイクロホンサブセットからのオーディオ信号を利用して、音源からディスプレイで受信された音の検出を向上できる。いくつかの実施形態において、オーディオ処理コンポーネントが、オーディオ信号が時間的に重複するようにマイクロホンの様々な組み合わせにより生成されたオーディオ信号に加えられる遅延を決定し、各オーディオ信号に加えられた遅延に基づいて、その組み合わせにおける各マイクロホンから音源の距離を推測することで音源の位置を判定できる。決定された遅延を、マイクロホンにより提供されたオーディオ信号に加えることで、遠隔音源の方向におけるオーディオ検出が向上可能である。ディスプレイにおける、マイクロホンサブセットの総数を、ビームフォーミングまたは空間的フィルタリングに使用でき、電力削減のため、サブセットに含まれないマイクロホンをオフにできる。ディスプレイ基板の裏側にわたって分散した後方向きマイクロホンを使用しても同様にビームフォーミングを実行できる。いくつかのマイクロホンがディスプレイベゼルに内蔵されたディスプレイと比較して、マイクロホンが表示領域内に内蔵されたディスプレイは、より多くの数のマイクロホンがディスプレイ内に組み込まれ、より広い範囲に分散できることで、向上したビームフォーミングが可能である。
いくつかの実施形態において、ディスプレイは、表示領域にわたって分散した後方向きマイクロホンの組により構成される。これは、ディスプレイを組み込む、閉じることができるデバイスに、ディスプレイが閉じた状態でオーディオ検出機能を有することを可能にする。例えば、閉じたデバイスは、起動表現または用語検出、または特定のユーザ識別(話者ID)を実行可能とする後方向きマイクロホンおよびオーディオ処理コンポーネントが有効な、低電力モードになり得る。
いくつかの実施形態において、前方および後方向きマイクロホンの両方を有するディスプレイは、両タイプのマイクロホンをノイズリダクション、オーディオ検出向上(ファーフィールドオーディオ)、およびオーディオ録音向上に利用できる。例えば、ユーザがラップトップをコーヒーショップまたはカフェテリアなど、騒音の多い環境で操作している場合、ラップトップユーザの声を含む、前方向きマイクロホンにより提供されたオーディオ信号から、ノイズを低減するのに、アンビエントノイズを拾う1または複数の後方向きマイクロホンからのオーディオ信号が使用され得る。別の例において、当該ディスプレイを組み込むデバイスによるオーディオ録音は、前方および後方向きマイクロホンの両方により受信されたオーディオを含み得る。前方および後方向きマイクロホンの両方が捕捉したオーディオを含むことで、当該録音は、録音環境のより精確なオーディオ表現を提供可能となる。さらなる例において、前方および後方向きマイクロホンの両方を含むディスプレイは、360度ファーフィールドオーディオ受信を実現可能である。例えば、本明細書に記載のビームフォーミングまたは空間的フィルタリング手法は、向上したオーディオ検出を提供するために、前方および後方向きマイクロホンの両方により提供されたオーディオ信号に適用可能である。
表示領域内に配置された内蔵マイクロホンを有するディスプレイは、ディスプレイベゼル内に配置されたマイクロホンを有するディスプレイよりも有利である。表示領域内に配置されたマイクロホンを有するディスプレイは、より狭いベゼルを有することができる。内蔵マイクロホンを収容するのにベゼル空間が不要であるためである。ベゼル幅の低減したディスプレイは、見るものに対する見た目により優れ、所与のディスプレイハウジングサイズ内でより大きな表示領域を可能とし得る。表示領域内にマイクロホンを組み込むことで、デバイス内により多くの数のマイクロホンが含まれることが可能となる。これは、オーディオ検出およびノイズリダクション向上を可能にし得る。さらに、マイクロホンが表示領域にわたって配置されたディスプレイは、上述のように、受信したオーディオ信号のビームフォーミングまたは空間的フィルタリングの使用により、向上したオーディオ検出機能を有するディスプレイを可能とする。さらに、オーディオ信号を、表示領域に配置されたマイクロホンから、同じく表示領域に配置されたオーディオ処理コンポーネントにルーティングするコストと複雑さは、ディスプレイベゼルに配置された個別のマイクロホンを、ディスプレイの外部に配置されたオーディオ処理コンポーネントに配線するよりも軽微であり得る。
図15Aは、ディスプレイ内カメラとともに、例示的画素の組を示す。画素1501から1506はそれぞれ、赤色ディスプレイ要素1511、緑色ディスプレイ要素1512、および青色ディスプレイ要素1513を有する。いくつかの実施形態において、これらディスプレイ要素はマイクロLEDまたはOLEDである。画素1501から1506はそれぞれ、画素領域を占める。例えば、画素1504は、画素領域1515を占める。各画素において、ディスプレイ要素1511から1513を占める画素領域の量は、小型カメラまたは他のセンサが含まれるのに十分のブラックマトリクス領域が残るものとなる。画素1501および1503は、それぞれディスプレイ要素1511から1513に沿って配置されたカメラ1520および1521を収容する。本明細書で使用される、「ディスプレイ内カメラ」という用語は、ディスプレイ内の1または複数の画素の画素領域内に配置されたカメラを示す。カメラ1520および1521はディスプレイ内カメラである。
図15Bは、図15Aの例示的画素の、線A-A′に沿った断面を示す。断面1550は、画素1501から1503の断面を示す。緑色ディスプレイ要素1512と、画素1501から1503に対する対応する電極1530とが、ディスプレイ基板1560上に配置され、透明表示媒体1570の後ろに配置される。表示領域に配置されたカメラは、透明表示媒体を通過したまたは通過しない光を受信できる。例えば、カメラ1520上の透明表示媒体1570の領域は、孔が開いており、これにより、光が透明表示媒体を通過する必要なく、カメラ1520の画像センサに入射可能となる。カメラ1521上の透明表示媒体1570の領域は、孔が開いておらず、カメラ1521における画像センサに到達する光は、透明表示媒体を通過する。
いくつかの実施形態において、ディスプレイ内カメラは、画素ディスプレイ要素とは独立して製造された個別のカメラであり得、個別のカメラは製造後にディスプレイ基板に取り付けられる。別の実施形態において、画像センサなどの1または複数のカメラコンポーネントは、ディスプレイ基板上に直接作成され得る。カメラ1520から1521は、図15Bではディスプレイ基板1560の前面1580に配置されているように示されているが、カメラコンポーネントがディスプレイ基板上に作成された実施形態において、カメラは少なくとも部分的にディスプレイ基板内に存在し得る。
本明細書で使用される、ディスプレイ基板に対する任意のセンサまたはコンポーネント(例えば、カメラ、温感センサ)に関する「上に配置」という用語は、任意の方法でディスプレイ基板に物理的に結合されたセンサまたはコンポーネントを示す。基板に直接取り付けられた個別のセンサまたは他のコンポーネント、1または複数の介在層を介して基板に取り付けられた個別のセンサまたはコンポーネントディスプレイ基板上に作成されたセンサまたはコンポーネントなどである。本明細書で使用される、ディスプレイ基板に対するLEDに関する「上に配置」という用語は同様に、任意の方法でディスプレイ基板に物理的に結合されたLEDを示す。基板に直接取り付けられた個別LED、1または複数の介在層を介して基板に取り付けられた個別LED、ディスプレイ基板上に作成されたLEDなどである。
図15Aおよび図15Bにおいて、カメラ1520および1521は、それぞれ、単一の画素内に存在するように示されているが、別の実施形態において、ディスプレイ内カメラは、複数の画素に跨り得る。これは、例えば、より大きなカメラを、表示領域に統合、またはカメラをより小さいブラックマトリクス領域を有する画素を持つディスプレイへ内蔵可能とし得る。図15Cから図15Dは、複数の画素にわたる例示的カメラを示す。図15Cは、画素1501から1506と同じサイズを有する隣接する画素1507および1508と、カメラ1520から1521より大きく、画素1507から1508内の画素領域の部分を占めるカメラ1540とを示す。図15Dは、画素1501から1506よりも幅の狭い隣接する画素1509および1510と、両画素にわたるカメラ1526とを示す。より大きなカメラを使用することで、個別のカメラで、より高解像度の画像およびビデオが捕捉可能となるなど、画像またはビデオ捕捉の向上が可能となり得る。
カメラは、個別の画素内に、またはいくつかの画素にわたって内蔵可能であるため、多様なカメラ構成がディスプレイ内に組み込み可能である。図12Aから図12C、および図15Aから図15Dは、ほんの数例のカメラ構成を示すものであり、さらに多くのものが可能である。いくつかの実施形態において、何千ものカメラが表示領域に配置され得る。表示領域にわたって分散された複数のディスプレイ内カメラを有するディスプレイは、ベゼル内に配置されたカメラを1つのみまたはいくつか有するディスプレイよりも優れた画像およびビデオ捕捉機能を有し得る。
本明細書に記載のディスプレイ内カメラは、図3および6のビジョン/撮像モジュール363などの、リッドコントローラハブにおけるビジョン/撮像モジュールに送信される画像センサデータを生成する。画像センサデータは、カメラから他のコンポーネントに出力されるデータである。画像センサデータは、画像表すデータである画像データ、またはビデオを表すデータであるビデオデータであり得る。画像データまたはビデオデータは、圧縮または非圧縮形式であり得る。画像センサデータは、他のコンポーネント(例えば、ビジョン/撮像モジュール363またはその任意のコンポーネント)により、画像データまたはビデオデータが生成されるデータでもあり得る。
カメラからリッドコントローラハブに画像センサデータを提供する相互接続が、ディスプレイ基板内に配置され得る。相互接続は、ディスプレイ基板上に作成される、ディスプレイ基板に取り付けられるか、または他の任意の方法でディスプレイ基板に物理的に結合され得る。いくつかの実施形態において、ディスプレイの製造は、画素が取り付けられる個別のディスプレイ基板部分を製造することと、所望のディスプレイサイズを実現するようにディスプレイ基板部分を組み付けることとを含む。
図16は、内蔵ディスプレイ内に組み込み可能な例示的カメラを示す。カメラ1600は、ディスプレイ基板1610上に配置され、画像センサ1620と、絞り1630と、マイクロレンズアセンブリ1640とを含む。画像センサ1620は、CMOS光検出器または他の任意のタイプの光検出器であり得る。画像センサ1620は、複数のカメラ画素と、カメラ内で光を捕捉するために使用される個別の要素とを含み、カメラ内の画素数は、カメラの解像度の尺度として使用され得る(例えば、1メガピクセル、12メガピクセル、20メガピクセル)。絞り1630は開口幅1635を有する。マイクロレンズアセンブリ1640は、焦点に光を合焦する、1または複数のマイクロレンズ1650を含む。これは、ガラス、プラスチック、または他の透明材料製であり得る。マイクロレンズアセンブリ1640は典型的に、様々なタイプ収差(色収差など)および歪曲に対応するため、複数のマイクロレンズを含む。
カメラ1655はさらにディスプレイ基板1610上に配置され、画像センサ1660と、絞り1670と、メタレンズ1680とを含む。カメラ1655は、合焦要素として、マイクロレンズアセンブリの代わりにメタレンズを使用する以外、カメラ1600と同様である。一般的に、メタレンズは、異なる波長の光を、同じ焦点に達するように操作するように作用する、物理的な構造をその表面に含む、平面レンズである。メタレンズは、単一の既存マイクロレンズで発生し得るような色収差を生成しない。メタレンズは、ガラス、プラスチックまたは他のタイプマイクロレンズよりもかなり薄くなり得、MEMS(マイクロエレクトロメカニカルシステム)またはNEMS(ナノエレクトロメカニカルシステム)手法を使用して作成可能である。このように、カメラ1655などの、単一の薄いメタレンズを含むカメラは、カメラ1600などの、複数のマイクロレンズを含むマイクロレンズアセンブリを含むカメラより薄くなり得る。絞り1670は、開口幅1675を有する。
マイクロレンズアセンブリ1640から画像センサ1620へ、およびメタレンズ1680から画像センサ1660への距離はそれぞれカメラ1600および1655の焦点距離を定義する。絞り開口幅(1635、1675)に対する焦点距離の比は、画像センサの表面に達する光の量の尺度である、カメラのFストップを定義する。Fストップは、さらにカメラの被写界深度の尺度となる。Fストップの小さいカメラは被写界深度がより浅くなり、Fストップの大きいカメラは被写界深度がより深くなる。被写界深度は、捕捉された画像に大きな影響をもたらし得る。被写界深度の浅い画像では、写真の被写体のみに焦点が合っていることが多い。一方、被写界深度の深い画像では、典型的にはほとんどのオブジェクトに焦点が合っている。
いくつかの実施形態において、カメラ1600および1655は、固定焦点カメラである。即ち、それらの焦点距離は調整不能である。別の実施形態において、カメラ1600および1655の焦点距離は、マイクロレンズアセンブリ1640またはメタレンズ1680を、関連付けられた画像センサに対して近づくまたは遠ざかるかいずれかのように移動することで調整され得る。いくつかの実施形態において、マイクロレンズアセンブリ1640またはメタレンズ1680の、それらのそれぞれの画像センサに対する距離は、MEMSベースのアクチュエータ、または他の手法により調整され得る。
ディスプレイ内カメラは、様々な密度で、表示領域にわたって分散し得る。例えば、カメラは、100画素間隔、10画素間隔、隣接する画素、または他の密度で配置され得る。所定レベルのカメラ密度(ディスプレイの領域の単位面積あたりにいくつのカメラがあるか)が、特定の使用状況では望ましくなり得る。例えば、カメラは画像およびビデオ捕捉に使用される場合、タッチ検出またはタッチ位置判定にカメラが使用される場合よりも、低カメラ密度で十分であり得る。
いくつかの実施形態において、複数の個別のカメラにより捕捉された画像に対応する画像データが、合成画像生成用に利用され得る。合成画像は、個別のカメラが捕捉可能であるどの画像よりも高解像度を有し得る。例えば、システムは、いくつかの3メガピクセルカメラにより捕捉された画像に対応する画像データを利用して、6メガピクセル画像を生成できる。いくつかの実施形態において、個別のディスプレイ内カメラにより捕捉された画像またはビデオから生成された合成画像またはビデオは、ギガピクセル範囲内など、超高解像度を有し得る。合成画像およびビデオは、超高解像度の自撮り画像またはビデオ、超高解像度セキュリティモニタ、または他の用途に使用され得る。
複数の個別のカメラにより捕捉された画像に対応する画像データからより高解像度画像を生成することで、個別の画素により少ないメガピクセル数の個別カメラが配置可能となり得る。これにより、カメラが、所定のスクリーンサイズのより高解像度ディスプレイに、または所定の解像度のより小さいディスプレイに(ディスプレイサイズの単位面積当たりの画素がより多く、したがって画素レベルで内蔵できるカメラに対して利用可能な自由画素領域がより少ない)内蔵可能になり得る。合成画像は、画像捕捉と共にリアルタイムで生成され得る。この場合、合成画像用の画像データのみが格納される。または、個別のカメラにより捕捉された画像に対する画像データが格納され得、合成画像は後処理時に生成され得る。同様に、複数の個別のカメラにより生成されたビデオに対応するビデオデータを使用して、合成ビデオが生成され得る。ここで、合成ビデオはリアルタイムまたは後処理時に生成される。
いくつかの実施形態において、ディスプレイ表面にタッチするオブジェクト(例えば、指、スタイラス)を検出し、ディスプレイのどこでタッチが生じたかを判定するために、タッチスクリーンに代えて、ディスプレイ内カメラが使用され得る。一部の既存タッチスクリーン技術(例えば、抵抗ベース、容量ベース)は、透明表示媒体の上に複数の層が追加されることでディスプレイの厚みが増し得るが、他のものセル内またはセル上タッチ技術を使用して、ディスプレイの厚さを低減する。本明細書で使用される、「透明表示媒体」という用語は、タッチスクリーン層を含む。タッチスクリーン層が、透明表示媒体上に配置される、または透明表示媒体がタッチスクリーン層内で使用されるかは問わない。一部の既存タッチスクリーン技術は、絶縁層により分離されながら、互いに積層された透明導電性表面を採用する。これら追加的な層は、ディスプレイに厚みを増し得、ディスプレイの透光性を低減し得る。別個のタッチスクリーン層の使用を省略することで、ディスプレイ費用が低減され得る。タッチスクリーン内に使用される透明導電体は、一般的に、高価であり得る酸化インジウムスズ製であるためである。
例えば、ディスプレイにオブジェクトがタッチするまたは近接することにより生じる、可視または赤外線光の遮蔽を検出することで、ディスプレイ内カメラを使用したタッチ検出およびタッチ位置判定が実行可能である。ディスプレイ内に配置、または他の方法でディスプレイに通信可能に結合され得るタッチ検出モジュールは、ディスプレイ内カメラにより捕捉された画像を受信し、画像データを処理することで、ディスプレイ表面への1または複数のタッチを検出し、およびタッチ位置を判定し得る。タッチ検出は、例えば、画像センサデータが、画像センサが受信した光が、閾値未満まで減少したことを示すかを判定することで実行され得る。別の例において、タッチ検出は、画像センサデータが、カメラが受信した光が、決定されたパーセンテージまたは量減少したことを示すかを判定することで実行され得る。さらに別の例において、タッチ検出は、画像センサデータが、カメラが受信した光が、所定の時間内に、所定のパーセンテージまたは量減少したことを示すかを判定することで実行され得る。
タッチ位置判定は、例えばその関連付けられた画像センサデータがディスプレイでタッチが検出されたことを示すカメラの位置をタッチ位置として使用することで実行可能である(例えば、関連付けられた画像センサデータが、カメラの画像センサで受信した光が、閾値未満まで減少した、所定のパーセンテージまたは量減少した、または所定の時間内に所定のパーセンテージまたは量減少したことを示す)。いくつかの実施形態において、タッチ位置は、最低レベルの光が受信された、画像センサ内の位置に基づく。複数の近接したカメラに関連付けられた画像センサデータがタッチを示すと、複数の近接したカメラの重心位置を判定することで、タッチ位置が判定され得る。
いくつかの実施形態において、タッチ検出およびタッチ位置判定用にディスプレイ内カメラを利用するタッチ式ディスプレイは、タッチ式ではない、ディスプレイ内カメラを含むディスプレイよりも、高いカメラ密度を有し得る。ただし、ディスプレイ内カメラを使用することで、タッチ式となっているディスプレイは、全画素にカメラが配置される必要はない。タッチ検出モジュールは、タッチ位置を判定するために、1または複数のカメラからの画像センサデータを利用し得る。ディスプレイ内カメラの密度は、使用されるタッチ検出アルゴリズムにも一部依存し得る。
タッチの存在を示す情報およびタッチ位置情報が、オペレーティングシステム、アプリケーション、もしくはディスプレイを含む、またはディスプレイに通信可能に結合されたシステムの他の任意のソフトウェアもしくはハードウェアコンポーネントに提供され得る。複数のタッチも検出され得る。いくつかの実施形態において、ユーザがディスプレイ内カメラは、現代のタッチ式デバイスに期待するようなタッチディスプレイ体験を実現するのに十分な頻度で、更新された画像センサデータをタッチ検出モジュールに提供し得る。ディスプレイのタッチ検出機能は、本明細書に記載の他の目的にディスプレイ内カメラが利用されている際に、一時的に無効とされ得る。
いくつかの実施形態において、システムがユーザ認証のために、ユーザにディスプレイをその指、親指、または掌でタッチすることを促した状況において、システムがタッチを検出すると、システムは、タッチが検出された箇所においてまたはその近傍に配置された1または複数の画素ディスプレイ要素に発光させ得る。これにより、ユーザの指、親指、または掌がタッチした領域が照明可能となる。この照明により、システムまたはデバイスにとって紋の特徴がより識別可能、またはより容易に抽出可能である、指紋、拇印、または掌紋の捕捉が可能となり得る。
ディスプレイ内カメラを使用することで、既存の容量性タッチスクリーン技術で検出可能なものよりも、より多様なオブジェクトにより、ディスプレイ表面に対するタッチが検出可能となる。容量性タッチスクリーンは、容量性タッチスクリーンにより生成された静電場の局地的変化を検出することで、ディスプレイに対するタッチを検出する。したがって、容量性タッチスクリーンは指または金属製スタイラスなどの導電性オブジェクトが、ディスプレイ表面にタッチまたは近接していることを検出できる。ディスプレイ内カメラは、タッチの検出にディスプレイ表面での容量の変化を感知するのではなく、光の遮蔽に依存するため、タッチ検出用のディスプレイ内カメラベースの手法は、パッシブスタイラスを含む多様なオブジェクトのタッチを検出可能である。タッチするオブジェクトが導電性である、または他のディスプレイの静電場の変化を生成可能でなければならないという限定はない。
いくつかの実施形態において、ユーザがシステムまたはデバイスとインタフェースするために使用可能なジェスチャーを検出するため、ディスプレイ内カメラを使用可能である。ディスプレイ内カメラを組み込むディスプレイは、ディスプレイ表面上の1または複数の指または他のオブジェクトによる2次元(2D)ジェスチャー(例えば、スワイプ、タップ、ピンチ、アンピンチ)、またはディスプレイの前の空間容積内で行われる、スタイラス、指、手、または他のオブジェクトによる3次元(3D)ジェスチャーの認識を可能にできる。本明細書で使用される場合、「3Dジェスチャー」または「空中ジェスチャー」という表現は、少なくとも部分的に、ディスプレイ表面を触ることなく、ディスプレイの前の空間容積内で行われるジェスチャーを示す。
オペレーティングシステムまたはシステム上で実行されるアプリケーションが実行する動作に、ツイストジェスチャーがマッピングされ得る。例えば、ツイストジェスチャーは、CAD(コンピュータ支援設計)アプリケーションにおけるオブジェクト操作を生じ得る。例えば、ツイストジェスチャーは、CADアプリケーションにおける選択されたオブジェクトの変形を生じ得る。即ち、アプリケーションが、オブジェクトの一端を固定したまま、オブジェクトの反対端を、判定された、ユーザが物理的なオブジェクトをツイストした量に対応する量だけ回転させる。例えば、ユーザがスタイラスをディスプレイの前でひねったシステムが検出したことに応じて、CADプログラムにおける3Dシリンダが選択され、その長手軸を中心にひねられ得る。その結果としての変形したシリンダは、ひねられた1つのリコリス菓子のように見え得る。ディスプレイの前の物理的なオブジェクトの回転の検出に応じて、選択されたオブジェクトに行われる回転、歪み、または他の操作の量は、物理的なオブジェクトの検出された回転の量と1対1の対応である必要はない。例えば、スタイラスが360度回転されたことが検出されたことに応じて、選択されたオブジェクトは180度(検出された回転量の半分)、720度(検出された回転量の2倍)、または物理的なオブジェクトの検出された回転量に比例する他の任意の量、回転され得る。
ディスプレイ内カメラを有するディスプレイを組み込む、またはディスプレイに通信可能に結合されたシステムは、ディスプレイベゼル内に配置されたほんの少数のカメラによって捕捉できるものよりも、ディスプレイ前のより大きな空間容積にわたる3Dジェスチャーを捕捉可能である。これはディスプレイにわたって配置されることが可能なディスプレイ内カメラは、少数のベゼルカメラの総視野領域よりも、広い総視野領域を有するためである。ディスプレイが、ディスプレイベゼル内に配置された1または複数のカメラのみを有する場合、これらカメラが、ベゼルから離れたところ(例えば、ディスプレイの中心領域)で行われた3Dジェスチャー、またはディスプレイ表面近傍で行われた3Dジェスチャーを捕捉できる可能性は低い。表示領域内に配置された複数のカメラはさらに、3Dジェスチャーの奥行き情報を捕捉するのに使用可能である。
表示領域の前の3Dジェスチャーを認識する能力は、抵抗性または容量性タッチスクリーン、あるいはベゼルカメラを含むディスプレイでは不可能な、ジェスチャーの検出および認識を可能とする。例えば、ディスプレイ内カメラを組み込むシステムは、ディスプレイへのタッチとともに開始または終了する3Dジェスチャーを検出可能である。例えば、「持ち上げて動かして置く」ジェスチャーは、ユーザがディスプレイ表面上でピンチジェスチャーを実行することで、ピンチする指が合わさる位置(ピンチ位置)にまたはその近傍に示されたオブジェクトを選択することと、そのピンチした指をディスプレイ表面から離れるように動かすことでオブジェクトを持ち上げることと、そのピンチした指をピンチ位置から目的位置への経路に沿って動かすことでオブジェクト動かすことと、ピンチした指がディスプレイ表面にタッチするまで、ピンチした指をディスプレイ表面に向けて戻すように動かして、目的位置でその指をアンピンチすることでオブジェクトを置くこととを含み得る。
「持ち上げて動かして置く」ジェスチャー中、選択されたオブジェクトは、ジェスチャーのピンチ部分の検出に応じて、非選択外見から、選択外見に変化し得、選択されたオブジェクトは、ジェスチャーの移動部分の検出に応じて、ピンチ位置から目的位置までディスプレイを横切って動き得、選択されたオブジェクトは、ジェスチャーの置く部分の検出に応じて、非選択外見に戻るように変化し得る。当該ジェスチャーは、ディスプレイ上にレンダリングされた3次元環境におけるオブジェクトの操作に使用され得る。当該3次元環境は、CADアプリケーションまたはゲームの一部であり得る。このジェスチャーの3次元的性質は、例えば選択されたオブジェクトが、ピンチ位置と目的位置との間で移動中に、選択されたオブジェクトの移動経路に沿って配置された、環境内の他のオブジェクトとインタラクトしないことで表され得る。即ち、選択されたオブジェクトは、3D「持ち上げて動かして置く」ジェスチャーを介して、持ち上げられて、アプリケーション内の他のオブジェクト上に浮かせられる。
このジェスチャーのバリエーションも認識され得る。例えば、「持ち上げて落とす」ジェスチャーは、ユーザが、ピンチジェスチャーによりオブジェクトを掴んだ後に、そのピンチした指をディスプレイ表面から離すように動かすことでオブジェクトを持ち上げることと、その後その指を、ディスプレイの上方に位置した状態でアンピンチすることで、オブジェクトを「落とす」こととを含み得る。アプリケーションは、持ち上げたオブジェクトが落とされたことを検出したことに対する反応を生成し得る。反応の大きさは、オブジェクトが落とされた「高さ」に対応し得る。高さは、ピンチした指がアンピンチされた時にそのピンチした指が位置していると判定された、ディスプレイ表面からの距離に対応する。いくつかの実施形態において、アプリケーションの、オブジェクトが落とされたことに対する反応は、落とされたオブジェクトの重さなどの、1または複数の属性に対応し得る。
例えば、ゲーミングアプリケーションにおいて、システムは、ディスプレイ上で巨石が示された位置でピンチジェスチャーを検出することで、ユーザが巨石を持ち上げたことを検出し、ユーザが、ディスプレイ表面から或る距離、そのピンチした指を移動させたことを検出し、ユーザが、ディスプレイ表面から或る距離離れて、ピンチした指をアンピンチしたことを検出し得る。アプリケーションは、ピンチした指がディスプレイ画面から或る距離離れてアンピンチされたことを、巨石が或る高さから落ちることと解釈し得る。ゲーミングアプリケーションは、ゲーミング環境を、巨石が落とされた「高さ」であって、ピンチした指がアンピンチされたとシステムが判定した、ディスプレイ表面からの距離に対応する高さと、巨石の重量とに対応する程度に変更し得る。例えば、巨石が低い高さから落とされた場合、環境には小さなクレーターが形成され得、アプリケーションは巨石が地面に着地する際に、小さくドサッというノイズを生成し得る。巨石がより高い高さから落とされた場合、より大きなクレーターが形成され得、近くの木々が倒され得、アプリケーションは巨石が地面に着地する際に、大きな衝突音を生成し得る。別の実施形態において、反応の大きさを決定する際、アプリケーションは、巨石の重量など、その属性を考慮し得る。より重い巨石は、落下時により大きな変更をゲーム環境にもたらす。
いくつかの実施形態において、ディスプレイ表面からの、アンピンチされたまたはピンチされた指の距離の測定値は、ディスプレイ内カメラにより生成された画像センサデータから抽出された指先のサイズにより判定され得る。抽出された指先のサイズが大きいほど、指先がディスプレイ表面に近いことを示す。アンピンチされたまたはピンチされた指の判定された距離は、規格化された測定システム(例えば、メートル法、帝国単位)に応じて判定されなくてよい。ディスプレイ表面からより離れて配置された指が、ディスプレイ表面のより近くに配置された指よりも、ディスプレイ表面からより長い距離となるような任意の測定基準であり得る。
図17は、リッドコントローラハブを含むモバイルコンピューティングデバイスの例示的ソフトウェア/ファームウェア環境を示すブロック図を示す。環境1700は、デバイスのベース1702内に配置されたコンポーネントと通信するリッド1701内に配置されたリッドコントローラハブ1705およびタイミングコントローラ1706を含む。LCH1705は、セキュリティモジュール1710と、ホストモジュール1720と、オーディオモジュール1730と、ビジョン/撮像モジュール1740とを含む。セキュリティモジュール1710は、ブートモジュール1711と、ファームウェア更新モジュール1712と、フラッシュファイルシステムモジュール1713と、GPIOプライバシーモジュール1714と、CSIプライバシーモジュール1715とを含む。いくつかの実施形態において、モジュール1711から1715の内の任意のものは、図2から4に示された、または他の本明細書に開示のセキュリティモジュール1710コンポーネントのうちの1または複数上で動作する、またはそれに実装され得る。ブートモジュール1711は、コンピューティングデバイスが起動されたことに応じて、セキュリティモジュールを動作状態にする。いくつかの実施形態において、ブートモジュール1711は、コンピューティングデバイスが起動されたことに応じて、LCH1705の追加的なコンポーネントを動作状態にする。ファームウェア更新モジュール1712は、セキュリティモジュール1710により使用されるファームウェアを更新する。これにより、モジュール1711および1713から1715の更新が可能となる。フラッシュファイルシステムモジュール1713は、ファームウェア、およびセキュリティモジュール1710によりアクセス可能なフラッシュメモリに格納された他のファイルに対するファイルシステムを実装する。GPIOおよびCSIプライバシーモジュール1714および1715は、リッド内に配置されたカメラにより生成された画像センサデータに対する、LCHコンポーネントによるアクセシビリティを制御する。
ホストモジュール1720は、デバッグモジュール1721と、テレメトリモジュール1722と、ファームウェア更新モジュール1723と、ブートモジュール1724と、仮想I2Cモジュール1725と、仮想GPIO1726と、タッチモジュール1727とを含む。いくつかの実施形態において、モジュール1721から1727の内のいずれかは、図2、3、および5に示された、または他の本明細書に開示のホストモジュールコンポーネントのうちの1または複数上で動作するか、またはそれに実装され得る。ブートモジュール1724は、コンピューティングデバイスが起動されたことに応じて、ホストモジュール1720を動作状態にする。いくつかの実施形態において、ブートモジュール1724は、コンピューティングデバイスが起動されたことに応じて、LCH1705の追加的なコンポーネントを動作状態にする。ファームウェア更新モジュール1723は、ホストモジュール1720により使用されるファームウェアを更新する。これにより、モジュール1721から1722および1739から1727の更新が可能となる。デバッグモジュール1721は、ホストモジュール1720に対するデバッグ機能を提供する。いくつかの実施形態においてデバッグモジュール1721は、JTAGポートを利用して、デバッグ情報をベース1702に提供する。いくつかの実施形態において。テレメトリモジュール1722は、LCH性能の監視に使用可能なテレメトリ情報を生成する。いくつかの実施形態において、テレメトリモジュール1722は、LCH内に配置された電力管理ユニット(PMU)および/またはクロックコントローラユニット(CCU)により生成された情報を提供し得る。仮想I2Cモジュール1725および仮想 GPIO1726は、ホストプロセッサ1760に、LCH上のGPIOおよびI2Cポートを、SoCの一部かのように遠隔制御可能にする。LCH GPIOおよびI2Cポートの制御を、低ピンUSB接続を介してホストプロセッサに提供することで、デバイスヒンジ内のワイヤ数が低減可能になる。タッチモジュール1727は、タッチセンサコントローラによりホストモジュール1720に提供されるタッチセンサデータを処理し、ディスプレイのタッチコントローラを駆動する。タッチモジュール1727は、例えば、ディスプレイに対する1または複数のタッチの、ディスプレイ上での位置と、ジェスチャー情報(例えば、ジェスチャーのタイプ、ディスプレイ上のジェスチャーの位置を示す情報)を判定し得る。タッチモジュール1727により判定された情報と、ホストモジュール1720により生成された他の情報は、USB接続1728を介してベース1702に通信できる。
オーディオモジュール1730は、音声起動モジュール1731と、超音波モジュール1732と、ノイズリダクションモジュール1733と、ファーフィールド前処理モジュール1734と、アコースティックコンテキストアウェアネスモジュール1735と、トピック検出モジュール1736と、オーディオコア1737とを含む。いくつかの実施形態において、モジュール1731から1737の内のいずれかは、図2、図3、および図6に示された、または他の本明細書に開示のオーディオモジュールコンポーネントのうちの1または複数上で動作する、またはそれに実装され得る。音声起動モジュール1731は、上述の音声起動機能を実装し、いくつかの実施形態において、上述の話者ID機能もさらに実装可能である。超音波モジュール1732は、オーディオセンサデータ内の近超音波/超音波周波数における情報を検出することで、低電力低周波数超音波チャネルをサポート可能である。いくつかの実施形態において、超音波モジュール1732は、情報を他のコンピューティングデバイスに超音波通信を介して送信するように、コンピューティングデバイス内に配置された1または複数のスピーカを駆動可能である。ノイズリダクションモジュール1733は、オーディオセンサデータ上で1または複数のノイズリダクションアルゴリズムを実装可能である。ファーフィールド前処理モジュール1734は、遠隔音源から受信したオーディオ信号のエンハンスメントのため、オーディオセンサデータに前処理を実行する。アコースティックコンテキストアウェアネスモジュール1735は、判定されたオーディオ信号のオーディオコンテキストに基づいて、オーディオセンサデータを処理するアルゴリズムまたはモデルを実装できる(例えば、不要な背景ノイズを検出し、オーディオ信号から不要な背景ノイズをフィルタリングする)。
トピック検出モジュール1736は、オーディオセンサデータ内に検出された音声内の、1または複数のトピックを判定する。いくつかの実施形態において、トピック検出モジュール1736は自然言語処理アルゴリズムを含む。いくつかの実施形態において、トピック検出モジュール1736は、ユーザによる音声質問の前に話題となっていたトピックを判定し、追跡されたトピックに基づいてユーザに応答を提供し得る。例えば、トピック検出モジュール1736は、質問の前の期間(例えば、過去30秒、過去1分、過去5分)に話題となっていた人、場所、または他のトピックを判定し、トピックに基づいて質問に回答し得る。例えば、ユーザが別の人とハワイについて話していた場合、トピック検出モジュール1736は、会話のトピックが「ハワイ」であると判定できる。その後、ユーザがコンピューティングデバイスに「そこの天気は?」と聞くと、コンピューティングデバイスは、ハワイの天気を提供する応答を提供できる。オーディオコア1737は、リアルタイムオペレーティングシステムであり、インフラである。その上に、オーディオモジュール1730に実装されたオーディオ処理アルゴリズムが構築される。オーディオモジュール1730は、SoundWire(登録商標)接続1738を介してベース1702内の音声捕捉モジュール1780と通信する。
ビジョン/撮像モジュール1740は、ビジョンモジュール1741と、撮像モジュール1742と、ビジョンコア1743と、カメラドライバ1744とを含む。いくつかの実施形態において、コンポーネント1741から1744の内のいずれかは、図2、3、および7に示された、または他の本明細書に開示のビジョン/撮像モジュールコンポーネントのうちの1または複数上で動作する、またはそれに実装され得る。ビジョン/撮像モジュール1740は、I3C接続1745を介してベース1702内の内蔵センサハブ1790と通信する。ビジョンモジュール1741および撮像モジュール1742は、本明細書に開示のアルゴリズムの1または複数を、コンピューティングデバイスの1または複数のカメラにより提供された画像センサデータ上で動作するように実装できる。例えば、ビジョン/撮像モジュールは本明細書に記載の顔起動、フェースID、頭部の向き検出、顔ランドマーク追跡、3Dメッシュ生成機能の内の1または複数を、別個に、または協働するように実装可能である。ビジョンコア1743はリアルタイムオペレーティングシステムであり、インフラである。その上に、ビジョン/撮像モジュール1740に実装されたビデオおよび画像処理アルゴリズムが構築される。ビジョン/撮像モジュール1740は、カメラドライバ1744を介して1または複数のリッドカメラとインタラクトする。状況によっては、カメラドライバ1744はマイクロドライバであり得る。
ベース内のコンポーネントは、ホストプロセッサ1760と、音声捕捉モジュール1780と、内蔵センサハブ1790とを含む。いくつかの実施形態において、これら3つのコンポーネントはSoC上に一体化される。音声捕捉モジュール1780は、LCHオーディオコーデックドライバ1784を含む。内蔵センサハブ1790は、インテル(登録商標)内蔵センサハブ、または1または複数のセンサからのセンサデータを処理可能な他の任意のセンサハブであり得る。内蔵センサハブ1790は、いくつかの実施形態において、マイクロドライバであり得る、LCHドライバ1798を介して、LCH1705と通信する。内蔵センサハブ1790はさらに、生体存在センサ1794を含む。生体存在センサ1794は、ユーザの存在を判定するために、コンピューティングデバイスにより使用されるセンサデータを生成可能な、ベース1702内に配置されたセンサを含み得る。生体存在センサ1794は、例えば圧力センサ、指紋センサ、赤外線センサ、または皮膚電気反射センサを含み得る。いくつかの実施形態において、内蔵センサハブ1790は、LCHから受信した画像センサデータ、および/またはリッド内に配置された生体存在センサ(例えばリッドベースの指紋センサ、リッドベースの赤外線センサ)により生成されたセンサデータに基づいて、ユーザの存在を判定し得る。
ホストプロセッサ1760は、タッチドライバ1762と、LCHドライバ1763とをホストモジュール1720に接続するUSBルートコンプレックス1761を含む。ホストモジュール1720は、画像またはビデオ内の1または複数のユーザの存在、顔ランドマークデータ、3Dメッシュデータなどのような、画像センサデータから判定されたデータを、USBルートコンプレックス1761へのUSB接続1728を介してホストプロセッサ1760上の1または複数のアプリケーション1766に通信する。データは、1または複数のアプリケーション1766に到達するように、LCHドライバ1763、カメラセンサドライバ1764、およびインテリジェントコラボレーションモジュール1765を通じて、USBルートコンプレックス1761から送られる。
ホストプロセッサ1760は、プラットフォームレベルでの電力管理を可能とする、プラットフォームフレームワークモジュール1768をさらに含む。例えば、プラットフォームフレームワークモジュール1768は、ホストプロセッサ1760、SoCコンポーネント(GPU、I/Oコントローラ、など)、LCH、ディスプレイなどのような、個別のプラットフォームレベルリソースへの電力の管理を実現する。プラットフォームフレームワークモジュール1768はさらに、様々なコンポーネントの動作周波数を制御するためのクロックレート、冷却性能を上げるためのファン設定など、他のシステムレベル設定の管理を実現する。プラットフォームフレームワークモジュール1768は、オーディオ設定の制御を可能とするようにLCHオーディオスタック1767と通信し、グラフィック設定の制御を可能とするようにグラフィックドライバ1770と通信する。グラフィックドライバ1770は、eDP接続1729を介して、ビデオデータをタイミングコントローラ1706に提供する。グラフィックコントローラ1772は、コンピューティングデバイスのグラフィック設定に対するユーザ制御を実現する。例えば、ユーザは、性能、画像品質、またはバッテリ寿命最適化のために、グラフィック設定を構成可能である。いくつかの実施形態において、グラフィックコントローラはインテル(登録商標)グラフィック制御パネルアプリケーションインスタンスである。
低電力常時オンディスプレイ
いくつかの実施形態において、モバイルコンピューティングデバイスは、ユーザに視認可能で、デバイスが閉じて低電力モードにある際に、コンテンツを表示する「常時オン」部分を含む折りたたみ可能ディスプレイを含む。デバイスが低電力モードにある際の電力消費を低減するため、ディスプレイの、デバイスが閉じているときにユーザに視認不能な部分は無効となっている。これは、ディスプレイパイプラインの1または複数のコンポーネント(フレームバッファ、画像処理モジュール、行ドライバ、および列ドライバなど)を、低電力状態にすることで実現され得る。デバイスが閉じているときに、ディスプレイの常時オン部分に表示されるコンテンツは、SoCディスプレイモジュールにより提供される新たな画像で定期的に更新できるが、いくつかの実施形態においては、低電力サブシステムの一部である第2ディスプレイモジュールが、リッドに画像を提供できる。これにより、SoCディスプレイモジュールを低電力状態に維持できる。選択的にディスプレイ上の部分を無効にすることで、既存のディスプレイを、常時オンディスプレイ機能を提供するように拡張することは、第2ディスプレイおよび第2タイミングコントローラを追加するよりも安価で、したがってデバイスコスト低減に帰結し得る。
実施形態は、ベースと、折りたたみ可能ディスプレイと、ベースに回転可能に取り付けられたリッドとを有する、モバイルコンピューティングデバイスを提供する。リッドは、フレームバッファを含むタイミングコントローラを含み得る。コンピューティングデバイスのタイミングコントローラは、コンピューティングデバイスが全表示モードにある際に折りたたみ可能ディスプレイの第1ディスプレイ部分を有効にし、コンピューティングデバイスが部分表示モードにある際に第1ディスプレイ部分を無効にし、折りたたみ可能ディスプレイの第2ディスプレイ部分を有効にし得る。第1ディスプレイ部分は、例えば、コンピューティングデバイスが開構成にある際に視認可能であり得、コンピューティングデバイスが閉構成にある際に視認不能であり得る。対照的に、第2ディスプレイ部分は、コンピューティングデバイスが閉構成である際に視認可能であり得、コンピューティングデバイスは、部分表示モードにある際に、閉構成であり得る。コンピューティングデバイスのタイミングコントローラはさらに、コンピューティングデバイスが部分表示モードにある際に、フレームバッファの少なくとも一部を、フレームバッファ低電力状態にすることができ得る。フレームバッファは、折りたたみ可能ディスプレイに表示された画像に対応する画像データを格納し得る。任意で、タイミングコントローラは、モバイルコンピューティングデバイスが全表示モードにある際に、第2ディスプレイ部分を有効にし得る。一例において、コンピューティングデバイスは、部分表示モードにあり得る。このモードにおいて、タイミングコントローラは、それぞれ第1ディスプレイ部分の行および列を駆動する、1または複数の行ドライバおよび/または1または複数の列ドライバを、低電力状態にし得る。
図18Aおよび図18Bは、それぞれ開および閉構成のモバイルコンピューティングデバイスの上面図を示す。ここで第1の例示的な折りたたみ可能ディスプレイは、常時オンディスプレイとして動作し得る部分を含む。モバイルコンピューティングデバイス1800は、ヒンジ1812を介してリッド1820に回転可能に取り付けられたベース1810を含む。ベース1810は、物理的なキーボード1814と、トラックパッド1818とを含む。リッド1820は、リッド上エッジ1835に巻き付けられた折りたたみ可能ディスプレイ1830を含む。折りたたみ可能ディスプレイ1830は、デバイス1800が開構成にある際にユーザフェイシングであるリッド1820の表面1850上に配置された第1ディスプレイ部分1840と、リッドの表面1870上の第2ディスプレイ部分1860とを含む。第2ディスプレイ部分1860は、図18Bに示すように、デバイス1800が閉構成にある際に視認可能であるため、ディスプレイ1830の常時オン部分として動作し得る。デバイス1800が閉じた状態で、第2ディスプレイ部分1860上に通知1880が表示される。図1Bを参照すると、リッド表面1850および1870は、それぞれモバイルコンピューティングデバイス1800のBカバーおよびAカバーに対応する。
図19Aは、常時オンディスプレイとして動作し得る部分を含む第2の例示的な折りたたみ可能ディスプレイを有する、開構成のモバイルコンピューティングデバイスの上面図を示す。モバイルコンピューティングデバイス1900は、リッド1920に回転可能に取り付けられたベース1910を含む。デバイス1900は、リッド表面1950の一部と、ベース表面1960の一部とを覆う折りたたみ可能ディスプレイ1930を含む。リッド表面1950は、ユーザフェイシング表面であり、ベース表面は、デバイス1900が開構成にある際の上向き表面である。仮想キーボード1934が折りたたみ可能ディスプレイ1930のベースディスプレイ部分1964上に表示される。図19Bおよび図19Cはそれぞれ、閉構成にある図19Aのモバイルコンピューティングデバイスの横断面図と上面図を示す。リッド上エッジ1976からヒンジ端部分1978へのリッド1920の長さ1974は、ベース前エッジ1984からヒンジ端部分1978に延在するベース1910の長さ1970よりも短い。これにより、折りたたみ可能ディスプレイ1930ディスプレイ部分1980が、デバイス1900が閉じても視認可能のままとなる。ディスプレイ部分1980は、常時オンディスプレイとして動作し得る。上から見ると、リッド1920の上表面1990は、常時オンディスプレイ部分1980に隣接するように見える。通知コンテンツ1994は、デバイス1900が閉じている際に、常時オンディスプレイ部分1980上に表示され得る。図1Bを参照すると、リッド表面1950、ベース表面1960、およびリッド上表面1990は、それぞれモバイルコンピューティングデバイス1900のBカバー、Cカバー、およびAカバーに対応する。
図20Aから図20Lは、常時オンディスプレイとして動作され得るディスプレイ部分を有する折りたたみ可能ディスプレイを含むモバイルコンピューティングデバイスの様々な図を示す。図20Aから図20Cは、ベース2012と、リッド2014と、リッド2014の上エッジ2018に巻き付けられた折りたたみ可能ディスプレイとを含むモバイルコンピューティングデバイス2000のAカバー、Bカバー、およびCカバーの図をそれぞれ示す。リッド上エッジ2018は、モバイルコンピューティングデバイス2000が回転可能にベース2012に取り付けられた、ヒンジ端部分2019から離れて配置される。折りたたみ可能ディスプレイは、第1ディスプレイ部分2020と、第2ディスプレイ部分2022とを含む。第1ディスプレイ部分2020は、デバイス2000が開構成にある際にユーザフェイシングであり、第2ディスプレイ部分2022は、デバイス2000が開構成または閉構成のいずれかである場合にワールドフェイシングである。第2ディスプレイ部分2022は、デバイス2000が閉構成にある際に視認可能であるため、常時オンディスプレイ部分として動作し得る。カメラ2039は、第2ディスプレイ部分2022の下で、デバイス2000のAカバー上に配置され得る。
図20Dから図20Fは、ベース2032と、リッド2034と、リッド2034の上エッジ2038に巻き付けられた折りたたみ可能ディスプレイとを含むモバイルコンピューティングデバイス2030のAカバー、Bカバー、およびCカバーの図をそれぞれ示す。リッド上エッジ2038は、モバイルコンピューティングデバイス2030が回転可能にベース2032に取り付けられるヒンジ端部分2039から離れて配置される。折りたたみ可能ディスプレイは、第1ディスプレイ部分2040と、第2ディスプレイ部分2042とを含む。第1ディスプレイ部分2040は、デバイス2030が開構成にある際にユーザフェイシングであり、第2ディスプレイ部分2042は、デバイス2030が開構成または閉構成のいずれかである場合にワールドフェイシングである。第2ディスプレイ部分2042は、デバイス2030が閉構成にある際に視認可能であるため、常時オンディスプレイ部分として動作し得る。カメラ2044は、第2ディスプレイ部分2042の側で、デバイス2030のAカバー上に配置され得る。
図20Gから図20Iは、ベース2052と、リッド2054と、リッド2054の横エッジ2058に巻き付けられた折りたたみ可能ディスプレイとを含むモバイルコンピューティングデバイス2050のAカバー、Bカバー、およびCカバーの図をそれぞれ示す。折りたたみ可能ディスプレイは、第1ディスプレイ部分2060と、第2ディスプレイ部分2062とを含む。第1ディスプレイ部分2060は、デバイス2050が開構成にある際にユーザフェイシングであり、第2ディスプレイ部分2062は、デバイス2050が開構成または閉構成のいずれかである場合にワールドフェイシングである。第2ディスプレイ部分2062は、デバイス2050が閉構成にある際に視認可能であるため、常時オンディスプレイ部分として動作し得る。カメラ2064は、第2ディスプレイ部分2062の側で、デバイス2050のAカバー上に配置され得る。別の実施形態において、折りたたみ可能ディスプレイは、リッドの両方の横エッジに巻き付けられ、一方または両方が常時オンディスプレイとして動作し得る2つのワールドフェイシング第2ディスプレイ部分を含み得る。
図20Jから図20Lは、ベース2072と、リッド2074と、ベース2072およびリッド2074にわたって延在する折りたたみ可能ディスプレイとを含むモバイルコンピューティングデバイス2070の、上面図、Bカバーの図、およびCカバーの図をそれぞれ示す。折りたたみ可能ディスプレイは、リッド内に配置された第1ディスプレイ部分2076と、ベース内に配置された第2ディスプレイ部分2078とを含む。第1ディスプレイ部分2076はユーザフェイシングであり、第2ディスプレイ部分2078は、デバイス2070が開構成にある際に、上向きになる。第2ディスプレイ部分2078の部分2082は、デバイス2070が閉構成にある際に視認可能であるため、常時オンディスプレイ部分として動作し得る。カメラ2084は、デバイス2070のAカバー上に配置され得る。図20Jは、閉構成にあるモバイルコンピューティングデバイス2070の上面図を示し、リッド長さ2086がベース長さ2088よりも短いことにより、モバイルコンピューティングデバイス2070が閉じても視認可能である、第2ディスプレイ部分2078の常時オンディスプレイ部分2082を示す。常時オンディスプレイ部分2082は上から見ると、コンピューティングデバイス2070のAカバー2090に隣接するように見える。
図21は、常時オンディスプレイとして動作し得る部分を有する折りたたみ可能ディスプレイに関連付けられた、例示的タイミングコントローラと、追加的なディスプレイパイプラインコンポーネントとのブロック図を示す。タイミングコントローラ2100は、ビデオデータレシーバ2110と、フレームバッファ2120と、処理スタック2122と、ディスプレイドライバ2130とを含む。タイミングコントローラ2100は、内蔵折りたたみ可能ディスプレイパネル2140およびディスプレイパネル制御回路機構(例えば、行ドライバ2150および列ドライバ2160)と共に、モバイルコンピューティングデバイスのリッド内に配置される。ビデオデータレシーバ2110は、SoC2186の一部であり、モバイルコンピューティングデバイスのベース内に配置されたディスプレイモジュール2164から、接続2182を介してビデオデータを受信する。フレーム処理スタック2122は、デコーダ2139と、RGBモジュール2140と、VDSCエンコーダ2126とを含む。デコーダ2139は、エンコードされたフレームを、RGBモジュール2140により処理される前にデコードし、エンコーダ2126は、フレームを、色およびガンマ補正モジュール2128により処理される前に、再エンコードする。色およびガンマ補正モジュール2128はフレームに、色およびガンマ補正を実行する。いくつかの実施形態において、デコーダ2139およびエンコーダ2126は、VESA(登録商標)ディスプレイ圧縮規格(VDSC)に応じて、フレームのデコードとエンコードを実行する。
1または複数の実施形態において、タイミングコントローラ2100は、TCON150、400、355の例示的実装を示す。内蔵パネル2190は、内蔵ディスプレイパネル145、280、380の例示的実装を示す。これはいずれも、モバイルコンピューティングデバイス(ユーザデバイス)100、200、300の例示的実装の一部であり得る、例示的実装ofリッド120、220、301、1820内で使用可能である。1または複数の実施形態において、ディスプレイモジュール2164は、モバイルコンピューティングデバイス(ユーザデバイス)100、200、300の一部であり得るベース210、315、1810内に配置され得る、SoC140、390の例示的実装において使用可能である、ディスプレイモジュール391、341の例示的実装を示す。
いくつかの実施形態において、フレーム処理スタック2122は、図21に示すものに加えて1または複数のモジュールを含む。追加的な画像処理モジュールは、図8に示すモジュール、または本明細書において記載または参照される他の任意の画像処理モジュールの内の任意のものを含み得る。いくつかの実施形態において、フレーム処理スタック2122は、図21に示すよりもより多くのまたはより少ないモジュールを含み得る。いくつかの実施形態において、ディスプレイモジュール2164は、eDP接続を介してTCON2100と通信し、ビデオデータレシーバ2110はeDPメインリンクレシーバを含む。いくつかの実施形態において、ディスプレイドライバ2130はP2P送信モジュールである。
折りたたみ可能ディスプレイパネル2140は、第1ディスプレイ部分2190と、第2ディスプレイ部分2194とを含む。第1ディスプレイ部分2190は、モバイルコンピューティングデバイスが開構成の際に視認可能で、モバイルコンピューティングデバイスが閉構成の際に視認不能である(図18Aにおける第1ディスプレイ部分1840、および図20B、図20E、図20H、および図20Kそれぞれにおけるディスプレイ部分2020、2040、2060、および2076など)。第2ディスプレイ部分2194は、モバイルコンピューティングデバイスが閉構成の際に視認可能である(図18Bにおける第2ディスプレイ部分1860、および図20A、図20D、図20G、および図20Jそれぞれにおけるディスプレイ部分2022、2042、2062、および2082など)。第2ディスプレイ部分2194は、モバイルデバイスが閉構成の際に、常時オンディスプレイ部分として動作され得る。第1ディスプレイ部分2190および第2ディスプレイ部分2194は、モバイルコンピューティングデバイスのディスプレイモードに基づいて有効にされる。モバイルコンピューティングデバイスが開構成にある際、デバイスは、第1および第2ディスプレイ部分2190および2194の両方が有効である全表示モードとなり得る。いくつかの実施形態において複数の全表示モードがあり得る。例えば、第1全表示モードにおいて、第1ディスプレイ部分2190が有効となり、第2ディスプレイ部分2194が無効となる。第2全表示モードにおいて、第1および第2ディスプレイ部分2190および2194が有効で、コンテンツを表示する。モバイルコンピューティングデバイスが閉構成にある際、デバイスは、第1ディスプレイ部分2190が無効で、コンテンツを表示せず、第2ディスプレイ部分2194が有効で、常時オンディスプレイとしで動作する部分表示モードにあり得る。
いくつかの実施形態において、ディスプレイモードは、モバイルコンピューティングデバイスの物理的な構成に基づくことに加え、ユーザが構成可能な設定にさらに基づく。例えば、ユーザが構成可能なディスプレイ設定がユーザに提供され得る。これは、ユーザに、デバイスが開構成にある際に、第2ディスプレイ部分が有効となる、または無効となるか、そしてデバイスが閉構成にある際に、第2ディスプレイ部分が有効となるかを選択可能にする。タイミングコントローラ2100は、リッドコントローラハブ、またはディスプレイモジュール2164などのモバイルコンピューティングデバイスのベース内のコンポーネントから、ディスプレイモード情報2196を受信する。
デバイス電力消費を低減するため、デバイスのディスプレイパイプラインの1または複数のコンポーネントを、デバイスが部分表示モードにある際に、低電力状態にすることができる。ディスプレイパイプラインは、ディスプレイパネル2140に表示される画像の生成、処理、および表示に関連するコンポーネントを含む。図21に示す実施形態において、ディスプレイパイプラインコンポーネントは、ディスプレイモジュール2164と、ビデオデータレシーバ2110と、フレームバッファ2120と、フレーム処理スタック2122と、ディスプレイドライバ2130と、行ドライバ2150と、列ドライバ2160とを含む。モバイルコンピューティングデバイスをより低電力状態にすることは、その構成コンポーネントのいずれかを低電力状態にすることを含み得る。例えば、行ドライバを行ドライバ低電力状態にでき、列ドライバを列ドライバ低電力状態にでき、フレームバッファをフレームバッファ低電力状態にでき、ディスプレイモジュールをディスプレイモジュール低電力状態にできる、などである。コンポーネントまたはコンポーネントの一部を低電力状態にすることは、例えば、その動作電圧を低減する、コンポーネントをより低周波数で動作する、コンポーネントを無効にする、またはコンポーネントの機能を無効にする(メモリアレイの一部を無効にする、または出力ドライバを無効にするなど)ことを含み得る。ディスプレイパイプラインコンポーネントは、タイミングコントローラ制御ロジックにより、またはディスプレイモード情報(例えば、ディスプレイモード情報2196)が直接個別のディスプレイパイプラインコンポーネントに提供され、モジュールを低電力状態にさせることで、低電力状態にされ得る。
いくつかの実施形態において、デバイスが部分表示モードにある際に、第1ディスプレイ部分2190を駆動する行ドライバ2154を低電力状態にでき、一方、第2ディスプレイ部分2194を駆動する行ドライバ2158は有効のままとなる。別の実施形態において、列ドライバ2160は、第1ディスプレイ部分を駆動する、第1組の列ドライバと、常時オンディスプレイ部分を駆動する第2組の列ドライバとを含み得、デバイスが部分表示モードにある際に、第1組の列ドライバは無効となり、第2組の列ドライバは有効となる。いくつかの実施形態において、第1ディスプレイ部分を駆動する、行または列ドライバを駆動するタイミングコントローラディスプレイドライバ(例えば、ディスプレイドライバ2130)の部分は、デバイスが部分表示モードにある際に、低電力状態にできる。
いくつかの実施形態において、デバイスが部分表示モードにある際に、フレームバッファ2120の一部は低電力状態となる。フレームバッファ2120の一部を低電力状態にすることは、フレームバッファ2120内のメモリアレイの、第1ディスプレイ部分2190に表示される画像を格納する部分を無効にすること、メモリアレイの、第1ディスプレイ部分2190に表示される画像を格納する部分を制御する制御回路機構を無効にすること、または単純にディスプレイの第2ディスプレイ部分2194上に表示される画像に対応する画像データのみを格納することを含み得る。
いくつかの実施形態において、TCON2100は、第1ディスプレイ部分2190に表示される画像に対応する画像データを格納する第1フレームバッファと、第2ディスプレイ部分2194に表示される画像に対応する画像データを格納する第2フレームバッファとを含む。第1および第2フレームバッファはそれぞれ、第1および第2ディスプレイ部分のサイズに基づくサイズとされ、したがってそれぞれディスプレイ部分2190および2194にわたって表示される画像に対する画像データを格納するのに必要な単一のフレームバッファ(例えば、フレームバッファ2120)のサイズよりも小さい。第1フレームバッファは、デバイスが部分表示モードにある際に、低電力状態にされ得る。
いくつかの実施形態において、TCON2100は、第1ディスプレイ部分2190および第2ディスプレイ部分2194にわたって表示される画像に対応する画像データを格納する第1フレームバッファと、第2ディスプレイ部分2194に表示される画像に対応する画像データを格納する第2フレームバッファとを有する。第2フレームバッファは、第1フレームバッファよりも小さい。モバイルコンピューティングデバイスが全表示モードにある際に、TCON2100は、第1フレームバッファを利用し、第2フレームバッファは低電力状態にされる。部分表示モードでは、TCON2100は第1フレームバッファを低電力状態にし、第2フレームバッファを利用する。
いくつかの実施形態において、ディスプレイパイプライン電力消費を低減するため、フレーム処理スタック2122の1または複数の画像処理コンポーネントは、モバイルコンピューティングデバイスが部分表示モードにある際に、バイパスされ得る。例えば、デバイスが部分表示モードにある際に第2ディスプレイ部分2194に表示されるコンテンツが白黒表示される、またはフレーム処理スタック内のモジュールによる処理による他の利点を享受しない場合、デバイスが部分表示モードにある際に、それらモジュールはバイパスされ得る。コンポーネントをバイパスすることは、バイパスされるコンポーネントの少なくとも一部を低電力状態にすることを含み得る。一例として、バイパスされるモジュールの一部は有効のままとされ得る。これにより、残りのバイパスされるコンポーネントが無効であり得る間に、モジュールを画像データが通過可能となる。
いくつかの実施形態において、パイプライン内のコンポーネントが、第2ディスプレイ部分2194に表示されるコンテンツに対応する画像データの部分にのみ動作することで、ディスプレイパイプライン電力消費が低減し得る。画素に対する画素データに並列に動作するコンポーネントにおいて、第1ディスプレイ部分に対応する画素データに操作を実行するコンポーネントの部分を無効にできる。複数画素に対する画素データに直列に動作するモジュールにおいて、モジュールは、第2ディスプレイ部分2194に対応する画素に対する画素データのみに対して動作するように構成され得る(例えば、タイミングコントローラロジックによる)。
いくつかの実施形態において、デバイスが部分表示モードにある際に、第2ディスプレイ2194に表示されるコンテンツは、全表示モードでの動作時の、内蔵パネルの典型的なリフレッシュレート(例えば、30から120Hz)よりも低レートで更新された通知コンテンツを含み得る。例えば、通知コンテンツが時間と分とを示すクロックを含む場合、ディスプレイモジュール2164は、現在時刻を示す第2ディスプレイ部分に表示される新たな画像を生成するため、1分に1度、低電力状態から脱し得る。更新された画像を生成した後、ディスプレイモジュール2164は低電力状態に戻り得る。通知コンテンツに含まれ、デバイスが部分表示モードにある際に、第2ディスプレイ部分2194に表示され得る他のタイプの情報の例は、今後の会議、バッテリ残量、未読メッセージの数(例えば、eメール、テキスト、ソーシャルメディア)、およびコンテキストベースの挨拶(例えば「おはようございます!」)についての情報を含む。他の多くのタイプの情報が、通知コンテンツに含まれ得る。表示される情報に応じて、通知コンテンツは様々な間隔で更新され得る(例えば、クロックの表示の場合は1分に1度、未読メッセージ情報を更新するのは5または10分に1度、会議情報を更新するのは60分に1度)。いくつかの実施形態において、タイミングコントローラは、いつ起動し、更新された通知コンテンツを生成すべきかを、ディスプレイモジュールにシグナリングし得る。別の実施形態において、更新された情報を生成するためのディスプレイモジュールの起動は、ベース内のコンポーネントにより制御され得る。
いくつかの実施形態において、デバイスベース(例えば、210、315、1810)内に配置された低電力サブシステム2199の一部であるディスプレイモジュール2198により、アウトオブバンド接続2184を介して、通知コンテンツがTCON2100に提供され得る。低電力サブシステム2199は、SoC2186よりも低電力レベルで通知コンテンツを生成し得る。通知コンテンツは、ディスプレイモジュール2164がビデオデータをビデオデータレシーバ2110に提供するために使用する接続2182とは別の、接続2184を介して、TCON2100に提供されるビデオデータとして提供され得る。低電力サブシステム2199を使用して通知コンテンツを生成することで、SoC2186およびディスプレイモジュール2164を低電力状態に維持でき、モバイルコンピューティングデバイスの電力消費を低減できる。いくつかの実施形態において、アウトオブバンド接続2184は、USB接続またはMIPIディスプレイシリアルインタフェース(MIPI DSI)接続である。
図22は、常時オンディスプレイとして動作可能な、モバイルコンピューティングデバイスの折りたたみ可能ディスプレイを動作するための例示的方法を示す。方法2200は、例えばラップトップのリッドの上部に巻き付けられた折りたたみ可能ディスプレイを含むラップトップにより実行され得る。折りたたみ可能ディスプレイは、リッドが開いている際にユーザフェイシング部分と、ラップトップリッドが閉じている際に常時オンディスプレイとして動作するワールドフェイシング部分とを有する。2210において、モバイルコンピューティングデバイスの折りたたみ可能ディスプレイの第1ディスプレイ部分は、モバイルコンピューティングデバイスが全表示モードにある際に有効となる。例において、リッドが開いたことに応じて、ラップトップが全表示モードに移行すると、ラップトップのユーザフェイシング部分は有効となり、コンテンツを表示する。2220において、モバイルコンピューティングデバイスが部分表示モードにある際に、第1ディスプレイ部分は無効となり、折りたたみ可能ディスプレイの第2ディスプレイ部分は有効となる。第1ディスプレイ部分は、モバイルコンピューティングデバイスが開構成にある際に視認可能となり、モバイルコンピューティングデバイスが閉構成にある際に視認不能となる。第2ディスプレイ部分は、モバイルコンピューティングデバイスが閉構成にある際に視認可能となり、モバイルコンピューティングデバイスは部分表示モード時に閉構成となる。例において、リッドが閉じると、ディスプレイのユーザフェイシング部分は無効となり、ディスプレイのワールドフェイシング部が有効となる。第2ディスプレイ部分は常時オンディスプレイとして動作する。2230において、モバイルコンピューティングデバイスが部分表示モードにある際に、フレームバッファの少なくとも一部は、フレームバッファ低電力状態にされる。フレームバッファは、折りたたみ可能ディスプレイに表示された画像に対応する画像データを格納する。例において、折りたたみ可能ディスプレイに表示する画像を格納するのに使用されるフレームバッファにおけるメモリアレイの部分は、より低電力状態にされる。即ち、常時オンディスプレイに表示される画像を格納するフレームバッファにおけるメモリアレイの部分のみが有効にされる。
ここに記載の低電力常時オン実施形態の追加的例は、以下の非限定的実装を含む。以下の非限定的な例のそれぞれは、単独で成立し得、または任意の順列で組み合わされ、または以下のまたは本開示全体において提供される他の例の内の任意の1または複数のものと組み合わされ得る。
例AA1は、モバイルコンピューティングデバイスが全表示モードにある際に上記モバイルコンピューティングデバイスの折りたたみ可能ディスプレイの第1ディスプレイ部分を有効にする段階と、上記モバイルコンピューティングデバイスが部分表示モードにある際に上記第1ディスプレイ部分を無効にし、上記折りたたみ可能ディスプレイの第2ディスプレイ部分を有効にする段階であって、上記第1ディスプレイ部分は、上記モバイルコンピューティングデバイスが開構成にある際に視認可能であり、上記モバイルコンピューティングデバイスが閉構成にある際に視認不能であり、上記第2ディスプレイ部分は、上記モバイルコンピューティングデバイスが閉構成である際に視認可能であり、上記モバイルコンピューティングデバイスは、上記部分表示モードにある際に上記閉構成である、無効および有効にする段階と、上記モバイルコンピューティングデバイスが上記部分表示モードにある際に、フレームバッファの少なくとも一部をフレームバッファ低電力状態にする段階であって、上記フレームバッファは、上記折りたたみ可能ディスプレイに表示される画像に対応する画像データを格納する、フレームバッファ低電力状態にする段階と、を含む方法である。
例AA2は、例AA1の方法を含み、上記モバイルコンピューティングデバイスが上記全表示モードにある際に上記第2ディスプレイ部分を有効にする段階をさらに含む。
例AA3は、例AA1またはAA2の方法を含み、上記モバイルコンピューティングデバイスが上記部分表示モードにある際に、上記第1ディスプレイ部分の行を駆動する1または複数の行ドライバを、行ドライバ低電力状態にする段階をさらに含む。
例AA4は、例AA1からAA3のいずれか1つの方法を含み、上記モバイルコンピューティングデバイスが上記部分表示モードにある際に、上記第1ディスプレイ部分の列を駆動する1または複数の列ドライバを、列ドライバ低電力状態にする段階をさらに含む。
例AA5は、例AA1からAA4のいずれか1つの方法を含み、上記フレームバッファは第1フレームバッファであり、上記モバイルコンピューティングデバイスは、上記第1フレームバッファよりも小さい第2フレームバッファをさらに含み、上記方法は、上記モバイルコンピューティングデバイスが上記部分表示モードにある際に、上記第2フレームバッファを利用して、上記第2ディスプレイ部分に表示される画像に対応する画像データを格納する段階をさらに含む。
例AA6は、例AA1からAA5のいずれか1つの方法を含み、上記モバイルコンピューティングデバイスが上記部分表示モードにある際にディスプレイパイプライン内の1または複数の画像処理コンポーネントをバイパスする段階をさらに含む。
例AA7は、例AA1からAA6のいずれか1つの方法を含み、上記モバイルコンピューティングデバイスが上記部分表示モードにある際に、ディスプレイパイプライン内の1または複数の画像処理コンポーネントを、上記第1ディスプレイ部分に表示される画像の一部に対応する画像データを処理しないように構成する段階をさらに含む。
例AA8は、例AA1からAA7のいずれか1つの方法を含み、上記モバイルコンピューティングデバイスが上記全表示モードにある際に第1画像を上記第1ディスプレイ部分に表示する段階であって、上記第1画像は第1ディスプレイモジュールにより提供されるビデオデータに対応する、表示する段階と、上記モバイルコンピューティングデバイスが上記部分表示モードにある際に第2画像を上記第2ディスプレイ部分に表示する段階であって、上記第2画像は、第2ディスプレイモジュールにより提供されるビデオデータに対応する、表示する段階と、をさらに含む。
例AA9は、例AA8の方法を含み、上記モバイルコンピューティングデバイスが上記部分表示モードにある際に上記第1ディスプレイモジュールを第1ディスプレイモジュール低電力状態にする段階と、上記第2ディスプレイ部分に表示される新たな画像を生成するために、上記第2ディスプレイモジュールを第2ディスプレイモジュール低電力状態から定期的に起動する段階と、をさらに含む。
例AA10は、例AA1からAA9のいずれか1つの方法を含み、上記モバイルコンピューティングデバイスは、ベースに回転可能に取り付けられたリッドを含み、上記折りたたみ可能ディスプレイは、上記リッドの第1表面の少なくとも一部と、上記リッドの第2表面の少なくとも一部とを覆い、上記モバイルコンピューティングデバイスが開構成にある際に上記リッドの上記第1表面はユーザフェイシング表面であり、上記リッドの上記第2表面はワールドフェイシング表面である。
例AA11は、例10の方法を含み、上記リッドは、上記リッドが回転可能に上記ベースに取り付けられたヒンジ端部分から離れて配置された上エッジを含み、上記折りたたみ可能ディスプレイは、上記リッドの上記上エッジに巻き付けられている。
例AA12は、例10の方法を含み、上記リッドは、横エッジを含み、上記折りたたみ可能ディスプレイは、横エッジの少なくとも一方に巻き付けられている。
例AA13は、例AA1からAA9のいずれか1つの方法を含み、上記モバイルコンピューティングデバイスは、ベースに回転可能に取り付けられたリッドを含み、上記折りたたみ可能ディスプレイは、上記リッドの第1表面の少なくとも一部と、上記ベースの第1表面の少なくとも一部とを覆い、上記モバイルコンピューティングデバイスが閉構成である際に上記リッドの上記第1表面と上記ベースの上記第1表面とは互いに対向し、上記リッドは、上記リッドが回転可能に上記ベースに取り付けられたヒンジ端部分から、上記ヒンジ端部分から離れて配置されたリッド上エッジまで延びるリッド長さを有し、上記ベースは、上記ベースが回転可能に上記リッドに取り付けられたヒンジ端部分から、上記ヒンジ端部分から離れて配置されたベース前エッジまで延びるベース長さを有し、上記リッド長さは上記ベース長さよりも短く、上記第2ディスプレイ部分は上記ベースの上記第1表面に配置されている。
例AA14は、例AA1からAA13のいずれか1つの方法を含み、フレームバッファの少なくとも一部をフレームバッファ低電力状態にする段階は、上記フレームバッファを無効にする段階を含む。
例AA15は、例AA1からAA13のいずれか1つの方法を含み、フレームバッファの少なくとも一部をフレームバッファ低電力状態にする段階は、上記フレームバッファのメモリアレイの一部を無効にする段階を含む。
例AA16は、例AA1からAA13のいずれか1つの方法を含み、フレームバッファの少なくとも一部をフレームバッファ低電力状態にする段階は、上記フレームバッファの動作電圧を下げる段階を含む。
例AB1は、ベースと、折りたたみ可能ディスプレイと、上記ベースに回転可能に取り付けられたリッドとを備える、モバイルコンピューティングデバイスを含み、上記リッドは、フレームバッファを含むタイミングコントローラを含み、上記タイミングコントローラは、上記モバイルコンピューティングデバイスが全表示モードにある際に上記折りたたみ可能ディスプレイの第1ディスプレイ部分を有効にし、上記モバイルコンピューティングデバイスが部分表示モードにある際に上記第1ディスプレイ部分を無効にし、上記折りたたみ可能ディスプレイの第2ディスプレイ部分を有効にし、上記第1ディスプレイ部分は、上記モバイルコンピューティングデバイスが開構成にある際に視認可能であり、上記モバイルコンピューティングデバイスが閉構成にある際に視認不能であり、上記第2ディスプレイ部分は、上記モバイルコンピューティングデバイスが閉構成である際に視認可能であり、上記モバイルコンピューティングデバイスは、上記部分表示モードにある際に上記閉構成であり、上記モバイルコンピューティングデバイスが上記部分表示モードにある際に、フレームバッファの少なくとも一部をフレームバッファ低電力状態にし、上記フレームバッファは、上記折りたたみ可能ディスプレイに表示される画像に対応する画像データを格納する。
例AB2は、例AB1のモバイルコンピューティングデバイスを含み、上記タイミングコントローラはさらに、上記モバイルコンピューティングデバイスが上記全表示モードにある際に上記第2ディスプレイ部分を有効にする。
例AB3は、例AB1またはAB2のモバイルコンピューティングデバイスを含み、上記タイミングコントローラはさらに、上記モバイルコンピューティングデバイスが上記部分表示モードにある際に、上記第1ディスプレイ部分の行を駆動する1または複数の行ドライバを、行ドライバ低電力状態にする。
例AB4は、例AB1からAB3のいずれか1つのモバイルコンピューティングデバイスを含み、上記タイミングコントローラはさらに、上記モバイルコンピューティングデバイスが上記部分表示モードにある際に、上記第1ディスプレイ部分の列を駆動する1または複数の列ドライバを、列ドライバ低電力状態にする。
例AB5は、例AB1からAB4のいずれか1つのモバイルコンピューティングデバイスを含み、上記フレームバッファは第1フレームバッファであり、上記タイミングコントローラは、上記第1フレームバッファよりも小さい第2フレームバッファをさらに含み、上記タイミングコントローラはさらに、上記モバイルコンピューティングデバイスが上記部分表示モードにある際に、上記第2フレームバッファを利用して、上記第2ディスプレイ部分に表示される画像に対応する画像データを格納する。
例AB6は、例AB1からAB5のいずれか1つのモバイルコンピューティングデバイスを含み、上記タイミングコントローラは、1または複数の画像処理コンポーネントをさらに含み、上記タイミングコントローラはさらに、上記モバイルコンピューティングデバイスが上記部分表示モードにある際にディスプレイパイプライン内の1または複数の画像処理コンポーネントをバイパスする。
例AB7は、例AB1からAB6のいずれか1つのモバイルコンピューティングデバイスを含み、上記タイミングコントローラは、1または複数の画像処理コンポーネントをさらに含み、上記タイミングコントローラはさらに、上記モバイルコンピューティングデバイスが上記部分表示モードにある際に、ディスプレイパイプライン内の1または複数の画像処理コンポーネントを、上記第1ディスプレイ部分に表示される画像の一部に対応する画像データを処理しないように構成する。
例AB8は、例AB1からAB7のいずれか1つのモバイルコンピューティングデバイスを含み、上記タイミングコントローラはさらに、上記モバイルコンピューティングデバイスが上記全表示モードにある際に第1画像を上記第1ディスプレイ部分に表示し、上記モバイルコンピューティングデバイスが上記部分表示モードにある際に第2画像を上記第2ディスプレイ部分に表示し、上記モバイルコンピューティングデバイスはさらに、上記第1画像を上記タイミングコントローラに提供する第1ディスプレイモジュールと、上記第2画像を上記タイミングコントローラに提供する第2ディスプレイモジュールと、を含む。
例AB9は、例AB1からAB8のいずれか1つのモバイルコンピューティングデバイスを含み、上記リッドは、上記リッドが回転可能に上記ベースに取り付けられたヒンジ端部分から離れて配置された上エッジを含み、上記折りたたみ可能ディスプレイは、上記リッドの上記上エッジに巻き付けられている。
例AB10は、例AB1からAB8のいずれか1つのモバイルコンピューティングデバイスを含み、上記リッドは、1または複数の横エッジを含み、上記折りたたみ可能ディスプレイは、横エッジの少なくとも一方に巻き付けられている。
例AB11は、例AB1からAB8のいずれか1つのモバイルコンピューティングデバイスを含み、上記折りたたみ可能ディスプレイは、上記リッドの第1表面の少なくとも一部と、上記ベースの第1表面の少なくとも一部とを覆い、上記モバイルコンピューティングデバイスが閉構成である際に上記リッドの上記第1表面と上記ベースの上記第1表面とは互いに対向し、上記リッドは、上記リッドが回転可能に上記ベースに取り付けられたヒンジ端部分から、上記ヒンジ端部分から離れて配置されたリッド上エッジまで延びるリッド長さを有し、上記ベースは、上記ベースが回転可能に上記リッドに取り付けられたヒンジ端部分から、上記ヒンジ端部分から離れて配置されたベース前エッジまで延びるベース長さを有し、上記リッド長さは上記ベース長さよりも短く、上記第2ディスプレイ部分は上記ベースの上記第1表面に配置されている。
例AB12は、例AB1からAB11のいずれか1つのモバイルコンピューティングデバイスを含み、フレームバッファの少なくとも一部をフレームバッファ低電力状態にすることは、上記フレームバッファを無効にすることを含む。
例AB13は、例AB1からAB11のいずれか1つのモバイルコンピューティングデバイスを含み、フレームバッファの少なくとも一部をフレームバッファ低電力状態にすることは、上記フレームバッファのメモリアレイの一部を無効にすることを含む。
例AB14は、例AB1からAB11のいずれか1つのモバイルコンピューティングデバイスを含み、フレームバッファの少なくとも一部をフレームバッファ低電力状態にすることは、上記フレームバッファの動作電圧を下げることを含む。
例AC1は、モバイルコンピューティングデバイスに本明細書に上述の例AAのいずれか1つの方法を実行させるためのコンピュータ実行可能命令を格納する1または複数の非一時的コンピュータ可読ストレージ媒体を含む。
例AD1は、本明細書に上述の例AAの1または複数の方法を実装するための1または複数の手段を含むシステムを含む。
複数のディスプレイコンピューティングシステムに対するディスプレイ管理
バックライトおよびパネル電子装置を含み得るディスプレイ電力は今日、システム上のかなりの電力量を消費する。コンピューティングシステムにおけるディスプレイは、総システム電力の、40から60パーセント(40~60%)を使用し得る。SoCおよびシステム電力は、複数の外部ディスプレイが存在すると大幅に増加する。例えば、2つの4Kモニタを接続するのには、追加的な高解像度表示をレンダリングするために、大幅に大きな電力コストが使用され得る。
現行のコンピューティングデバイスの多くは、省電力、バッテリ寿命延長、および/または特定のディスプレイスクリーンのバーンインを防止するため、電力モード間の切り替えを行う。しかし、コンピューティングシステムに実装されたエネルギー効率技術は、当該技術がシステムの反応性または性能を損なう場合、ユーザ体験に悪影響を及ぼし得る。
ディスプレイの省電力およびエネルギー用のディスプレイ管理ソリューションは、ユーザが検出されないと、ディスプレイパネルが減光される、またはオフにされる、単一のディスプレイシステムからのユーザの存在検出を伴うものであった。例えば、バックライトが、明るさを減じるように減光され得る。あるいはバックライトが完全にオフにされ得る。例えば、ソフトウェアベースのソリューションは、ユーザの顔が単一のディスプレイに向いているかを判定し、それに応じてそのディスプレイを減光する、またはオフにし得る。しかし、ソフトウェアベースのソリューションは、例えばワット範囲の量の、大量の電力を使用する。さらに、ソフトウェアベースのソリューションは、内蔵ディスプレイしか扱うことができないため、いつディスプレイオフするかについての判定は、より慎重にならざるを得ない。さらに、これら単一ディスプレイソリューションは、単一のディスプレイの視野分の精度しか有さない。
単一ディスプレイユーザ存在ソリューションは、適切にバッテリ寿命、反応性ゲイン、プライバシーおよびセキュリティ機能をまとめてまたは効率的に管理することができない。単一ディスプレイシステムにおいて、1つのディスプレイから得られる入力は1つのみである。これは、複数のディスプレイシナリオを効果的に管理するのに使用可能なデータの量を限定する。ユーザの存在が有効となったシステムがどこに配置されたかによっては、ユーザがいつそのコンピューティングシステム(例えば、ワークステーション、デスク)に接近しているか、そしてそのコンピューティングシステムに存在する場合に、どこを見ているかについて、精確な情報をシステムが効果的に受信しない可能性がある。さらに、ユーザが単一ディスプレイユーザ存在ソリューションを有するラップトップを閉じれば、外部モニタディスプレイを管理して、ユーザがその外部モニタを見ていない場合に節電することはできなくなる。ラップトップが閉じられると、ユーザの存在挙動の一切に、外部モニタが反応できなくなる。
外部高解像度ディスプレイ(例えば、4Kディスプレイ)が、拡張ディスプレイシナリオにおいて益々使用されるようになっている。しかしこのようなディスプレイは、ディスプレイとシステムの電力およびエネルギーを大幅に増大させる。これらソリューションは、電力およびエネルギーを節約するようにユーザの存在を扱う方法を有さない。これは、カリフォルニア州エネルギー政策およびエネルギースターなど、特定の州および/または連邦制度への適合に影響し得る。高解像度も、性能を50パーセント(50%)以上影響し得る。したがって、さらにユーザ体験が損なわれ得る。
別の例において、認証ソフトウェア(例えば、マイクロソフト(登録商標)Windows Hello(登録商標)認証ソフトウェア)が、ユーザに、各モニタ上にクリップオンカメラを配置し、ユーザの注意が向けられたモニタ上で顔認証を実行可能にする。当該ソリューションは、ユーザが適切な距離およびディスプレイパネル正面の向きにある場合にのみ、認証(例えば、顔認識による)およびユーザのログインに利用可能である。これら認証ソリューションは、ユーザの存在に基づくディスプレイの電力および明るさの管理に対処しない。
最新の開発は、人間の存在および注意センシングを提供する、低電力コンポーネントを含んでいる。これにより、ユーザの存在と注意に基づき、異なる動作モードを通じて、プライバシーおよびセキュリティを提供する。これら進歩は、ラップトップまたは他の単一のデバイス実装には重要であるが、今日の一般的なコンピューティング環境における複数のディスプレイモジュールにまつわる問題を解決するものではない。
今日のコンピューティング環境では、ユーザがオフィスまたは自宅を問わず、そのワークステーションに自身のラップトップをドッキングすることが一般的である。研究によると、企業のユーザは、約80パーセント(80%)の時間をドッキングされたシナリオで作業することが示されている。ユーザにとって一般的なシナリオは、自身のラップトップをドッキングし、外部モニタ付きのドッキングステーションで主に作業するものである。ここで、外部モニタは、ドッキングされた時間の大部分でユーザが関与しているメインディスプレイよりも大きくなり得る。
実施形態は、第1ディスプレイパネル、第1カメラ、および第1カメラにより捕捉された第1画像センサデータに基づいて第1画像メタデータを生成する第1回路機構を含む第1ディスプレイデバイスと、第2ディスプレイパネル、第2カメラ、および第2カメラにより捕捉された第2画像センサデータに基づいて第2画像メタデータを生成する第2回路機構を含む第2ディスプレイデバイスを含むコンピューティングシステムを提供する。コンピューティングシステムはさらに、第1ディスプレイデバイスおよび第2ディスプレイデバイスに動作結合されたプロセッサをさらに含み得る。プロセッサは、画像メタデータに基づき、ディスプレイデバイスの動作モードを選択するように構成される。例えば、プロセッサは、第1画像メタデータに基づいて、第1動作モードを第1ディスプレイデバイスに対して選択し、第2画像メタデータに基づいて、第2動作モードを第2ディスプレイデバイスに対して選択し得る。
第1および第2画像メタデータは、例えば、ユーザが第1ディスプレイデバイスまたは第2ディスプレイデバイスに関与しているかをそれぞれ示し得、このインジケーションに基づき、個別のディスプレイデバイスの動作モードが選択され得る。例えば、ユーザのディスプレイデバイスに対する関与または非関与の検出は、顔認識に基づき得る。例えば、第1回路機構は、第1画像センサデータ内のユーザの顔を検出し、第1画像センサデータ内にユーザの顔を検出したことに基づいて、第1カメラの第1視野においてユーザが存在すると判定し、ユーザの顔の第1向きを、第1画像センサデータに基づき判定し、ユーザの顔の第1向きに少なくとも部分的に基づいて、ユーザが第1ディスプレイデバイスに関与しているか非関与かを判定し得る。ユーザが第2ディスプレイデバイスに関与しているまたは非関与であるかを判定するため、同様な動作が第2回路機構により実行され得る。ユーザがディスプレイデバイスのうちの特定の1つに非関与であれば、当該1つのディスプレイデバイスのディスプレイパネルに対するバックライトの明るさが、ユーザイベントが生じるまたはバックライトが所定の最低レベルの明るさまで低減するまで(または、延いてはバックライトがオフになるまで)、一定期間にわたって、漸次的に減少するように、当該1つのディスプレイデバイスに対する動作モードが選択され得る。
コンピューティングシステムのアンロックおよび/またはユーザ認証に、ユーザの存在が使用され得る。例えば、コンピューティングシステムのプロセッサはさらに、コンピューティングシステムへのアクセスがロックされたことを判定し、現在第2ディスプレイデバイス上で認証機構が稼働していないことを判定し、認証機構による、ユーザが関与しているディスプレイデバイスを介したユーザの認証をトリガし、ユーザが認証されるまで、他のディスプレイデバイスをオフのままとし得る。
図23Aから図23Bは、1つの追加的な外部モニタにラップトップが接続されたコンピューティングシステムにおける、ユーザのあり得る注意のシナリオを例示する。図23Aは、ユーザ2302と、ラップトップ2312と、ラップトップ2312に通信可能に結合された外部モニタ2339とを含む。ラップトップ2312は、ラップトップのリッド2314の一次ディスプレイパネル2316と、リッドに結合されたユーザフェイシングカメラ2310とを含む。外部モニタ2339は、二次ディスプレイパネル2326を含む。ラップトップ2312にのみ、ユーザの存在および注意検出が有効である。即ち、単一の内蔵一次ディスプレイパネル2316に対してユーザが非関与である、または存在しないことに基づく、ユーザの存在ポリシーにより、ディスプレイが減光される、および/または完全にオフにされ得る。ラップトップ2312が、ユーザの存在および注意検出が有効な唯一のシステムであるため、そのシステムのみが、ユーザの注意に基づき、即ち、そのディスプレイの視点に基づき、その内蔵ディスプレイパネルを減光またはオフにできる。したがって、ディスプレイ管理は、ラップトップにおける一次ディスプレイパネルのみに適用され得る、または全てのスクリーンに等しく適用され得る。
図23Aにおいて、2304Aに示すように、ユーザの注意が一次ディスプレイパネル2316に向けられている場合、ラップトップ2312は、ユーザの顔と存在を検出し、外部モニタ2339もオンのままで電力およびエネルギーを使用しながら、ラップトップとその一次ディスプレイパネル2316の使用を可能にする、適切な動作モードを開始(または維持)できる。ユーザの注意が図23Bの2304Bに示すように、外部モニタ2339の二次ディスプレイパネル2326に向いている場合、ラップトップ2312は、ディスプレイ管理をその一次ディスプレイパネル2316に適用できる。両方のモニタに等しくディスプレイ管理が適用される場合には、一次ディスプレイパネル2316に適用されるあらゆる変化(例えば、減光、スリープモード)は、ユーザが二次ディスプレイパネル2326に関与していたとしても、二次ディスプレイパネル2326にも適用される。
多数のスクリーンおよびドッキング構成があり得る。別の例において、図24Aから図24Cは、2つの追加的な外部モニタにラップトップが接続されたコンピューティングシステムにおける、ユーザのあり得る注意のシナリオを例示する。図24Aは、ユーザ2402と、ラップトップ2412と、ラップトップ2412に通信可能に結合された第1および第2外部モニタ2439および2434とを含む。ラップトップ2412は、ラップトップのリッド2414における一次ディスプレイパネル2416と、一次ディスプレイパネルに結合された、画像センサを含むカメラ2410とを含む。外部モニタ2439は二次ディスプレイパネル2426を含み、外部モニタ2434も二次ディスプレイパネル2436を含む。ラップトップ2412にのみ、ユーザの存在および注意検出が有効である。ユーザは、3つのモニタのいずれにも関与し、集中し得る。ラップトップ2412が、ユーザの存在および注意検出が有効な唯一のシステムであるため、そのシステムのみが、ユーザの注意に基づき、即ち、そのディスプレイの視点に基づき、その内蔵ディスプレイパネルを減光またはオフにできる。ユーザが、そのラップトップディスプレイのみに関与し続ける場合、他の2つのモニタは給電され続ける。これらは、ポリシーに、ユーザの存在ベースの入力を一切提供しないためである。したがって、ディスプレイ管理は、ラップトップにおけるディスプレイパネルのみに適用され得る、または3つ全てのスクリーンに等しく適用され得る。
図24Aにおいて、2404Aに示すように、ユーザの注意がラップトップ2412の一次ディスプレイパネル2416に向けられている場合、ラップトップ2412は、ユーザの顔と存在を検出し、両方の外部モニタ2439および2434もオンのままで電力およびエネルギーを使用しながら、システムの使用を可能にする、適切な動作モードを開始(または維持)し得る。ユーザの注意が中央のスクリーンに向いている場合、図24Bにおいて2404Bに示すように、ラップトップ2412は、二次ディスプレイパネル2436がオンのままで電力およびエネルギーを使用した状態で、ディスプレイ管理をその一次ディスプレイパネル2416に適用し得る。これも、ユーザ体験の低下につながり得る。他の外部モニタがオンのままで、減光ポリシーを扱うことができるディスプレイは1つのみであるためである。同様に、ユーザの注意が中央のスクリーンに向いている場合、図24Cの2404Cに示すように、ラップトップ2412は、中央のディスプレイパネル2426がオンのままで電力およびエネルギーを使用した状態で、ディスプレイ管理をその一次ディスプレイパネル2416に適用し得る。
本明細書に開示の、ユーザの存在および注意に基づく、複数のディスプレイおよびドッキングシナリオに対するディスプレイ電力管理は、これら問題を解決できる。本明細書に記載の実施形態は、全体的総合的ポリシーに応じて、各個別のディスプレイパネルをシームレスに管理するため、複数のディスプレイを扱うため、単一のディスプレイポリシーを拡張する。本明細書に開示の実施形態は、複数のディスプレイコンピューティングシステムにおいて、一次ディスプレイデバイス(例えば、モバイルコンピューティングデバイスにおける、内蔵ディスプレイパネルを含むリッド、デスクトップに接続されたモニタ)を有効にし、複数のディスプレイコンピューティングシステムにおける1または複数の二次ディスプレイ(例えば、外部モニタ)に、ユーザの存在および注意検出と、検出に基づく個別ディスプレイ管理を実行可能にする。したがって、ディスプレイデバイスの任意のディスプレイパネルは、ユーザの挙動に応じて減光および/またはオフにされ得る。複数のディスプレイパネル(例えば、コンピューティングデバイスの一次ディスプレイパネルと、コンピューティングデバイスに動作結合された外部モニタにおける1または複数の他のディスプレイパネル)を、一貫性を持って管理するようにポリシーを実装可能である。例は、複数のディスプレイデバイスのうちの任意のものから顔が検出されたことによりシステムを起動すること、特定のディスプレイデバイスに対するユーザ注意に基づいて適応的にディスプレイパネルを減光すること(例えば、バックライトを低減することによる)、ユーザが検出されるとディスプレイパネルがロックされることを防止すること(ユーザがコンピューティングシステムとインタラクトしていなかったとしても)、および、ディスプレイデバイスのうちの任意のものから使用がもはや検出されていない場合、コンピューティングシステムをロックすることに対応するようにポリシーを含み得る。
1または複数の実施形態において、LCH155、260、305、954、1705、1860、2830A、2830Bなどのリッドコントローラハブ、または少なくともその特定の機能を、複数のディスプレイおよびドッキングシナリオに対するユーザの存在および注意ベースのディスプレイ管理を実装するのに使用可能である。本明細書に開示の実施形態は、全てのディスプレイから(例えばそれぞれのLCHを介して)受信した入力をインテリジェントに扱うことができる。これにより、ユーザの存在および注意データに基づき、各ディスプレイをシームレスに減光またはオフにする。1または複数の実施形態において、システムは、ユーザが座る前であっても、起動するようにトリガされ得る。さらに、各ディスプレイに対してカメラを使用することで、ユーザが検出され得る領域は拡大され得る。システムはさらに、ユーザが既にログオンしている場合、システムが一切使用される前にであっても、起動するようにもトリガされ得る。本明細書の実施形態はさらに、ユーザがシステムと積極的にインタラクトしていない場合でも、複数のディスプレイにおける任意のものにおけるユーザの存在に基づき、システムがディスプレイパネルを減光すること、またはシステムを低電力状態に設定することを防止することを実現する。したがって、2以上(または全ての)ディスプレイがユーザの存在および注意検出を提供できる場合に、省電力およびエネルギー実現、およびユーザ体験向上が可能である。
図25を参照する。図25は、複数のディスプレイデバイスを扱うために、全体的ポリシーを適用するため、ユーザの存在ベースのディスプレイ管理の実施形態を実装可能な複数のディスプレイシステム2500のあり得る詳細を示す、簡略化されたブロック図である。1または複数の実施形態において、各ディスプレイデバイスは、自己のユーザの存在および注意入力を提供するように構成される。複数のディスプレイシステム2500は、1または複数の追加的なディスプレイデバイスに接続されたラップトップまたは他の任意のモバイルコンピューティングデバイスなどの、コンピューティングデバイス2505を含み得る。少なくとも1つの例において、コンピューティングデバイス2505(およびそのコンポーネント)は、本明細書に開示の他のコンピューティングデバイス(およびそれらのコンポーネント)の例示的実装(例えば、100、122、200、300、900、1700から2300、2800A、2800B)を示す。例示的システム2500における追加的なディスプレイデバイスが、第1外部モニタ2520および第2外部モニタ2530において実施される。1つの可能な実装において、外部モニタ2520および2530は、ドッキングステーション2550を介して、コンピューティングデバイス2505にドッキングされ得る。ただし、他の実装も可能であることが明らかであろう。例えば、外部モニタ2520および2530は、コンピューティングデバイス2505に直接接続され得る(例えば、コンピューティングデバイス上のHDMI(登録商標)ポートを介して)。または、他の任意の適切な手段を使用して、コンピューティングデバイス2505に接続され得る。
コンピューティングデバイス2505は、ベース2506と、リッド2510とにより構成可能である。システム・オン・チップ(SoC)または中央処理ユニット(CPU)などの処理要素2508が、ベース2506内に配置され得る。ディスプレイパネル2512およびユーザフェイシングカメラ2514がリッド2510内に配置され得る。外部モニタ2520および2530も、それぞれのディスプレイパネル2522および2532と、それぞれのカメラ2539および2534により構成され得る。
コンピューティングデバイスの一次ディスプレイデバイス(例えば、2512)と、コンピューティングデバイス(例えば、2520、2530)に接続された1または複数の追加的な外部(または二次)ディスプレイデバイス(1または複数)を含む、各ディスプレイデバイスは、本明細書に記載の1または複数のリッドコントローラハブ(例えば、LCH155、260、305、954、1705、1860、2830A、2830B)の特徴の一部または全部を含み得る、自身のビジョンベースのアナライザ集積回路(IC)により構成され得る。例えば、ビジョンベースのアナライザIC2540Aは、コンピューティングデバイス2505のリッド2510内に配置される。ビジョンベースのアナライザIC2540Bは、第1外部モニタ2520内に配置される。ビジョンベースのアナライザIC2540Cは、第2外部モニタ2530の外部に配置される。
ビジョンベースのアナライザIC2540A、2540B、および2540Cはそれぞれ、関連付けられたカメラにより生成された画像センサデータ基づいて、それらのそれぞれのカメラ2514、2539、および2534からの撮像視野におけるユーザの存在検出、顔検出、および顔の向き検出を実行可能な機械学習アルゴリズムを実行するために回路機構を含む。ビジョンベースのアナライザIC2540A、2540B、および2540Cは、それぞれのカメラ2514、2539、および2534により生成されたそれぞれの画像センサデータに基づき、それぞれの画像メタデータを生成し得る。所与のカメラに関連付けられた所与のビジョンベースのアナライザICにより生成された画像メタデータは、ユーザが所与のカメラの視野内に存在するか、所与のカメラに関連付けられたディスプレイパネルに関与しているか、所与のカメラに関連付けられたディスプレイパネルには非関与か、および/または所与のカメラの視野内に存在しないかを示し得る。
ビジョンベースのアナライザIC2540A、2540B、および2540Cにより生成された画像メタデータは、SoC2508に提供され得る。これは、複数のディスプレイデバイス2510、2520、および2530、ならびに複数のディスプレイデバイスがドッキングされたまたは他の方法で接続されたコンピューティングデバイス2505の電力レベルおよび/または性能レベルに影響する特定の性能パラメータの設定を選択的に制御可能である。ディスプレイデバイスについての設定は、各ディスプレイデバイスに対するユーザの存在、ユーザの不在、ユーザ関与、および/またはユーザ非関与に基づき定義されたポリシーに応じて制御され得る。専用カメラおよびビジョンベースのアナライザICは、各ディスプレイデバイス(例えば、コンピューティングデバイスの一次ディスプレイデバイスおよび外部モニタ(1または複数)の二次ディスプレイデバイス)に対して実装されているため、ユーザの存在ベースのポリシーはより正確に管理され得る。ユーザの存在ベースのポリシーの例は、ユーザが検出された場合にシステムを起動する、ユーザの注意が向いていなければ適応的にディスプレイパネルを減光する、ユーザが存在する際にシステムをロックしない、およびユーザが不在の場合にシステムをロックするための顔および頭部の存在および向き検出を含み得るが、必ずしもこれに限られない。ディスプレイパネルに対するカメラに結合された各ビジョンベースのアナライザICは、固有の視野からユーザがそのディスプレイデバイスに接近していることを示す入力を提供可能である。これは、システムの起動および顔認証のトリガに関して、精度および速度を向上可能である。また、ディスプレイデバイスを、各ディスプレイを個別におよびまとめて管理するにあたって、より精度を上げることができる(例えば、ユーザが非関与または存在しない場合にディスプレイパネルのバックライトを減光またはオフにする)。重要なことは、バックライトを調整することで、1または複数のディスプレイパネルが減光またはオフにできれば、および/または1または複数のディスプレイパネルについてディスプレイパネルリフレッシュレートおよびレンダリングが低減できれば、電力および性能を向上できる。少なくとも、複数のディスプレイコンピューティングシステムに対するディスプレイ管理の実施形態の文脈において、ディスプレイパネルに対してバックライトが提供されない場合、ディスプレイパネルのバックライトをより低い明るさに調整し、オフにすることでディスプレイパネルを減光可能である。なお、一方で、ディスプレイパネルが効果的にオフにされるようにディスプレイパネルにバックライトが提供されていなければ、カメラ2514、2539、および2534は、各カメラが画像を捕捉し、画像センサデータを生成し続けることができ、ビジョンベースのアナライザIC2540A、2540B、および2540Bが画像センサデータを評価し続けることができるように、「常時オン」用途用に構成され得る。
1または複数の実施形態において、複数のディスプレイシステム(例えば、2500)における各ディスプレイデバイスに対して、専用ビジョンベースのアナライザICが提供され得る。実施形態は、ビジョンベースのアナライザICを、ディスプレイデバイスに一体化、またはディスプレイデバイスに対するアドオンデバイスとして構成可能とする。例えば、場合によっては、専用ビジョンベースのアナライザICが、コンピューティングデバイスのリッド内、および外部モニタに内蔵され得る。ただし別のシナリオでは、ビジョンベースのアナライザICは、ドングル、またはコンピューティングシステムにおける任意のディスプレイデバイスに接続され、共用可能な他の小デバイスとして構成され得る。例えば、システム2500において、コンピューティングデバイス2505のリッド2510および第1外部モニタ2520はそれぞれ一体化されたビジョンベースのアナライザIC2540Aおよび2540Bを有し得る。ただし、第2外部モニタ2530は、アドオンビジョンベースの分析IC2540Cを有し得る。一例において、アドオンビジョンベースのアナライザIC2540Cが自身のカメラと一体化され得、外部カメラが第2外部モニタ2530の適切な撮像視野の画像を捕捉するように配置されるように、第2外部モニタ2530のハウジングに取り付けられる。別の例において、第2外部モニタ2530は、アドオンビジョンベースのアナライザIC2540Cが、カメラ2534などの、第2外部モニタに内蔵されたカメラに接続されることを可能にするポートと共に構成され得る。
図26は、複数のディスプレイシステムにおけるカメラのあり得る視野を示す上平面図である。この例示的シナリオにおいて、第1ディスプレイデバイス2610、第2ディスプレイデバイス2620、および第3ディスプレイデバイス2630の上平面図が示されている。ディスプレイデバイスのうちの少なくとも1つは、コンピューティングデバイスの一部として構成され得る(例えば、コンピューティングデバイス2505のリッド2510)。他の2つのディスプレイデバイスは、外部モニタ(例えば、2520、2530)、またはコンピューティングデバイスに動作結合されたディスプレイパネルを含む他のデバイスとして実施され得る。第1ディスプレイデバイス2610は、第1ディスプレイパネル2612と、第1ユーザフェイシングカメラ2614とを含む。第2ディスプレイデバイス2620は、第2ディスプレイパネル2622と、第2カメラ2639とを含む。第3ディスプレイデバイス2630は、第3ディスプレイパネル2632と、第3カメラ2634とを含む。各カメラは、常時オン用途ように構成され得、その関連付けられたディスプレイパネルの方向を向き得る。カメラ2614、2639、および2634はそれぞれ、それぞれのディスプレイパネル2612、2622、または2632に結合された、それぞれのディスプレイデバイス2610、2620、または2630に外部から取り付けられた、および/またはそれぞれのディスプレイデバイスまたは関連付けられたコンピューティングデバイスの他の部分上に配置された、それぞれのディスプレイパネル2612、2622、または2632を囲うベゼル領域内に配置され得る。
少なくとも1つの実施形態において、各カメラは、撮像視野(FoV)に関連付けられ、カメラの撮像FoV内のユーザの存在を示し得る、移動および/または光を検出するための適切な画像センサを含み得る(またはそれに動作結合され得る)。例えば、第1カメラ2614は、破線2617および2619の間にわたる第1撮像FoV2618に関連付けられる。第2カメラ2639は、破線2627および2629の間にわたる第2撮像FoV2628に関連付けられる。第3カメラ2634は、破線2637および2639の間にわたる第3撮像FoV2638に関連付けられる。図26の例において、第1カメラ2614は、撮像FoV2618内に視認可能な第1ディスプレイデバイス2610の周囲の領域の画像を表す画像センサデータを生成する。第2カメラ2639は、第2撮像FoV2628内に視認可能な第2ディスプレイデバイス2620の周囲の領域の画像を表す画像センサデータを生成する。第3カメラ2634は、第3撮像FoV2638内に視認可能な第3ディスプレイデバイス2630の周囲の領域の画像を表す画像センサデータを生成する。
図26に示すように、複数のディスプレイシステムの配置によっては、撮像FoVは重複し得る。この例において、ディスプレイデバイス2610、2620、および2630に関連付けられた撮像FoV2618、2628、および2638は、単一のカメラのFoVよりも大きな拡張領域を生成するように重複し得る。ここで、ユーザの存在は、カメラ2614、2639、および2634の内の1または複数により検出され得る。なお、図26に示す複数のデバイスは、略直線に沿って配置されるが、多数の他の構成も可能である。例えば、ディスプレイデバイスの内の任意のものが、ユーザの特定の希望および好みに基づいて、角度をつける、または回転し得る。異なる配置(例えば、角度、傾斜、位置)が、異なる視野および複数のカメラの視野の異なる重複部分に帰結し得る。
図27Aから図27Cは、ディスプレイデバイスに対する、あり得るユーザ頭部/顔の向きを示す、上平面図である。この例示的シナリオにおいて、ディスプレイパネル2712およびユーザフェイシングカメラ2714を含むディスプレイデバイス2710が示される。さらにユーザ2702は、ユーザがディスプレイパネルを見ることができるように、ディスプレイパネル2712に対向して位置しているように示されている。この例において、ユーザ2702は、カメラ2714の視野(FoV)内に存在する。したがって、カメラ2714により生成された画像センサデータは、ユーザ2702を表すデータを含み得る。図示のために、顔の向き2704Aから2704Dは、ディスプレイパネル2712に対する、ユーザ2702の例示的視線方向を示す。1または複数の例において、顔の向きまたは視線方向は、ユーザの顔(例えば、鼻、両眼の間の中心点、唇の中心点など、ユーザの顔の中心)から垂直に延在する。ディスプレイデバイス2710は、コンピューティングデバイスの例示的なリッド(例えば、コンピューティングデバイス2505のリッド2510)、あるいはコンピューティングデバイスに動作結合されたディスプレイパネルを有する外部モニタ(例えば、2520、2530)または他のデバイスを示す。
1または複数の実施形態において、カメラ2714により生成された画像センサデータは、図26を参照して説明するように、カメラの撮像視野(FoV)内にユーザが存在するかを判定するために、ビジョンベースのアナライザIC(例えば、2540A、2540B、2540C)により分析され得る。さらに、カメラ2714の撮像FoV内にユーザが存在すると判定されると、ビジョンベースのアナライザICは、ディスプレイパネル2712に対するユーザ2702の顔の向きを判定し得る。機械学習アルゴリズム(1または複数)使用して、人間の顔特徴を認識するように、そして当該顔特徴の認識に基づき、ユーザの顔の向き、関連付けられたカメラの撮像視野(FoV)内のユーザの頭部/顔の位置を判定するように、ビジョンベースのアナライザICが訓練され得る。少なくとも1つの実施形態において、識別された顔の向き、およびユーザの顔および/または視線方向の最大回転角度を定義するパラメータから、ユーザの意図(例えば、関与、非関与)が推測可能である。
1または複数の実施形態において、ユーザ2702がディスプレイパネル2712に関与しているか、非関与かの判定は、ディスプレイパネル2712に対するユーザの顔の回転角度が、ユーザ2702と、ディスプレイパネル2712との間の第1レベル領域内かの判定により実現され得る。一例において、ディスプレイパネル2712に対するユーザの顔の回転角度は、直接ディスプレイ経路(例えば、2703)と、ユーザの顔の向きまたは視線方向(例えば、2704Aから2704D)との間に定義された角度として計算され得る。直接ディスプレイ経路(例えば、2703)は、カメラ2714からユーザ2702への略直接的経路として定義され得る。カメラは、典型的にはディスプレイパネルに近接するためである。ユーザの頭部の向き(例えば、2704Aから2704D)は、ユーザの顔(例えば、鼻、両眼の間の中心点、唇の中心点など、ユーザの顔の中心)から延在する垂直な方向に対応し得る。第1レベル領域は、ユーザの顔の、直接ディスプレイ経路の左への第1レベル最大回転角度と、ユーザの顔の、直接ディスプレイ経路の右への第1レベル最大回転角度との間の領域として定義され得る。1または複数の実装において、左への第1レベル最大回転角度は右への第1レベル最大回転角度と同じであり得、例えば45度(45°)であり得る。第1レベル最大回転角度は、少なくとも1つの実施形態においてユーザおよび/またはシステム構成可能であり得る。
図27Aから図27Cに示すように、直接ディスプレイ経路2703と、顔の向き2704Aから2704Dとが、ディスプレイパネル2712に対するユーザの顔の向きのあり得るシナリオを示し得る。ここから、ディスプレイパネル2712に対するユーザ2702の関与または非関与が推測可能である。一般的に、ユーザ2702がディスプレイパネル2712に向いている場合(ユーザがディスプレイパネル2712の真正面にいるか、またはカメラ2714の撮像FoV内の或る他の位置にいるかにかかわらず)、ビジョンベースのアナライザICは、ユーザが、ディスプレイパネルにレンダリングされたコンテンツに興味があり(例えば、関与しており)、コンピューティングデバイスの動作またはディスプレイパネル2712の明るさに悪影響があることを望まないと推測し得る。別のシナリオにおいて、ユーザ2702は、ユーザからディスプレイパネル2712への直接ディスプレイ経路に対して、いずれかの側を向いたが、完全にはディスプレイパネル2712と違う向きを向いてはいない場合、ビジョンベースのアナライザICは、ユーザが現在、ディスプレイパネル2712上にレンダリングされたコンテンツに興味がないが(例えば存在するが非関与)、存在はしており、コンピューティングデバイスの動作に関与していると推測し得る。例えば、ユーザ2702は、カメラ2714に関連付けられた撮像FoV内の自身のデスクに座っているが、ドッキングされた外部モニタの第2ディスプレイパネルを見るために脇を向いている可能性がある。したがって、ユーザはディスプレイパネル2712には非関与であり得るが、ユーザは外部モニタの第2ディスプレイパネル上にレンダリングされたコンテンツに興味があり得、したがって、コンピューティングデバイスの動作の継続を望み得る。この場合、ディスプレイパネル2712は、ユーザが自身の注意をディスプレイパネル2712に戻さないと仮定して、時間をかけて漸次的に減光され得る(例えば、バックライトの明るさが低減される)。しかし、外部モニタに関連付けられたビジョンベースのアナライザICは、ユーザ2702が存在し、外部モニタにおける第2ディスプレイパネルに関与していると判定し得る。したがって、このシナリオにおいて、コンピューティングデバイスの動作と、外部モニタの第2ディスプレイパネルは悪影響を受けない(例えば、ディスプレイパネルの減光、SoCの低電力状態への移行)。一般的に、コンピューティングデバイスと、ディスプレイパネル2712と、外部モニタの第2ディスプレイパネルの性能は、推測されたユーザ2702の関与に基づき調整され得る。これにより、ユーザ体験(例えば、ユーザが関与している場合)を向上するために性能が向上する、または、節電のため、性能を落とす(例えば、ユーザが存在し、非関与である、または不在のいずれかの場合)。
少なくとも1つの実施形態において、ディスプレイパネル2712に対するユーザの存在、不在、関与、または非関与を示す画像メタデータが、ユーザの存在/不在および検出された人間の顔の顔の向きを識別することに基づいて生成され得る。この画像メタデータは、ディスプレイデバイス2710のビジョンベースのアナライザICに通信可能に結合されたコンピューティングデバイスの処理要素(例えば、コンピューティングデバイス2505のSoC2508)に提供され得る。ユーザが関与している、非関与である、存在する、および/または不在であるかについてのインジケーションに、および1または複数の予め定義されたルールに基づいて、コンピューティングデバイスは、ディスプレイデバイス2710の電力レベルおよび/または性能レベルに影響する特定の性能パラメータについての設定を制御し得る。
図27Aに示す第1の例において、ビジョンベースのアナライザICは、ユーザの顔の向き2704Aが第1レベル領域2718内であるという判定に基づいて、ユーザ2702が存在し、ディスプレイパネル2712に関与していると判定し得る。一実装において、第1レベル領域2718は、直接ディスプレイ経路2703の左に45度(45°)および右に45度(45°)延在し得る。この例において、第1レベル領域2718は、右への第1レベル最大回転角度を示す破線2717と、左への第1レベル最大回転角度を示す破線2719との間で、約90度(90°)にわたり得る。ユーザの顔の向き2704Aは、直接ディスプレイ経路2703との間に、破線2717により示される右への第1レベル最大回転角度未満の回転角度を成す。したがって、ユーザの顔の向き2704Aは第1レベル領域2718内である。したがって、ビジョンベースのアナライザICは、ユーザ2702が現在ユーザインタフェース(例えば、キーボード、タッチパッド、マウス、タッチスクリーン)とインタラクトしていなくても、ユーザ2702がディスプレイパネル2712に関与している(例えば、ディスプレイパネル2712上にレンダリングされたコンテンツに興味がある)と推定し得る。
図27Bに示す第2の例において、ビジョンベースのアナライザICは、ユーザの顔の向き2704Bまたは2704Cが第2レベル領域2728Bまたは2728C内であるという判定に基づいて、ユーザ2702が存在するが、ディスプレイパネル2712に関与していないと判定し得る。一実装において、第2レベル領域2728Bおよび2728Cはそれぞれ、第1レベル領域2718外に存在するが、直接ディスプレイ経路から左または右への第2レベル最大回転角度を超えて延在しない。一例において、直接ディスプレイ経路2703からの回転の第2レベル最大角度は、破線2729で示すように左に90度(90°)で、破線2727で示すように右に90度(90°)である。左右第2レベル領域はそれぞれ約45度(45°)にわたり得、破線2719および2729間と、破線2717および2727間に画定され得る。図27Bの1つのシナリオでは、ユーザの顔の向き2704Cは、直接ディスプレイ経路2703との間に、破線2717により示される右への第1レベル最大回転角度と、破線2727により示される右への第2レベル最大回転角度との間の回転角度を成す。したがって、ユーザの顔の向き2704Cは第2レベル領域2728A内である。したがって、このシナリオにおいて、ビジョンベースのアナライザICは、ユーザ2702がディスプレイパネル2712に関与していないが、存在し、他のディスプレイデバイスに関与している可能性があると推定し得る。図27Bの別のシナリオでは、ユーザの顔の向き2704Bは、直接ディスプレイ経路2703との間に、破線2719により示される左への第1レベル最大回転角度と、破線2729により示される左への第2レベル最大回転角度との間の回転角度を成す。したがって、ユーザの顔の向き2704Bは第2レベル領域2728B内である。したがって、このシナリオにおいて、ビジョンベースのアナライザICは、ユーザ2702がディスプレイパネル2712に関与していないが、存在し、他のディスプレイデバイスに関与している可能性があると推定し得る。
図27Cに示す第3の例において、ビジョンベースのアナライザICは、ユーザの顔の向き2704Dが第3レベル領域2738内であるという判定に基づいて、ユーザ2702が存在しない、またはユーザが存在するが、ディスプレイパネル2712に対してユーザの顔が検出不能であると判定し得る。一実装において、第3レベル領域2738は、直接ディスプレイ経路から左または右への第2レベル最大回転角度を超えて延在し得る。1つの例において、第3レベル領域2738は右への第2レベル最大回転角度を示す破線2727と、左への第2レベル最大回転角度を示す破線2729との間で、約180度(180°)にわたり得る。ユーザ2702の顔が、カメラ2714とディスプレイパネル2712を向いていないので、カメラ2714により捕捉されていないためユーザの顔の向き2704Dが識別されない。したがって、ビジョンベースのアナライザICは、ユーザ2702が存在しないと推測し得る。ただしいくつかのシナリオにおいて、ビジョンベースのアナライザICは、ユーザ2702が存在するが(例えば、身体、後頭部のような他の検出可能な特徴に基づく)、ユーザの顔が検出不能であると推測し得る。これは例えば、ユーザの顔の向きが第2レベル領域内にある場合に適用される減光ポリシーよりも、より積極的な減光ポリシーを実装することが有用となり得る。
1または複数の実施形態において、追加的なレベル領域が定義され得る。この実施形態において、ユーザの顔の向きが、追加的なレベル領域内であると判定されると、ユーザの注意は未知となる。1つの可能な実装において、第1レベル領域2718および第2レベル領域2728Aおよび2728Bのサイズを低減することで、図27Aから図27Cに示す第1および第2レベル領域の間で左右に追加的なレベル領域が生成され得る。例えば、第1レベル領域(例えば、2718)は、右への第1レベル最大回転角度(例えば、37°)、および左への第1レベル最大回転角度(例えば、37°)の間の74度(74°)にわたり得る。右への第2(追加)レベル領域は、右への第1レベル最大回転角度(例えば、37°)と右への第2レベル最大回転角度(例えば、31°)との間の15度(15°)にわたり得る。左への第2(追加)レベル領域は、左への第1レベル最大回転角度(例えば、37°)と左への第2レベル最大回転角度(例えば、31°)との間の15度(15°)にわたり得る。右への第3レベル領域(例えば、2728A)は、右への第2レベル最大回転角度(例えば、31°)と右への第3レベル最大回転角度(例えば、90°)との間の38度(38°)にわたり得る。左への第3レベル領域は、左への第2レベル最大回転角度(例えば、31°)と左への第3レベル最大回転角度(例えば、90°)との間の38度(38°)にわたり得る。第4レベル領域(例えば、2738)は、右への第3レベル最大回転角度(例えば、90°)と左への第3レベル最大回転角度(例えば、90°)との間の180度(180°)にわたり得る。
この例において、ユーザの顔の向きが追加的な第2レベル領域の1つ内にある場合、ディスプレイデバイスに対するユーザの関与のステータスが未知であるという判定がなされ得る。ユーザが未知のステータスを有するこのシナリオにおいて、ディスプレイ管理は特定の実装および必要に応じて、任意の適切な方法で扱われ得る。一例において、未知のステータスは、ディスプレイパネルが、減光が早すぎない、および/または望まないものとならないことを保証するために、それが漸次的に減光されることを防止し得る。いくつかの実装において、ユーザが未知のステータス向きに留まる時間を監視するために、タイマが起動され得る。閾値時間が経過すると、ディスプレイの明るさは、存在するが非関与のユーザに対して、即座に所定の最低ディスプレイ明るさレベルにまで低減され得る、または、ディスプレイデバイスに漸次的減光が適用され得る。他のレベル領域は、図27Aから図27Cを参照に説明するのと同様にして、評価され得る。具体的にはユーザの顔の向きが第1レベル領域内であれば、ユーザはディスプレイパネルに関与していると推測され、通常/デフォルトレベルの明るさが、ディスプレイパネルに提供され得る。ユーザの顔の向きが第3レベル領域内であれば、ユーザが存在するが、捕捉された画像センサデータに関連付けられたディスプレイパネルには非関与であり、一方でユーザは他のディスプレイデバイスに関与し得ると推測される。このシナリオにおいて、バックライトの減光が漸次的にディスプレイパネルに適用され得る。ユーザの顔の向きが第4レベル領域内であれば、ユーザが存在しないか、ユーザの顔が検出不能であるという推測がなされる。このシナリオにおいて、ディスプレイパネルは即、オフにされ得る(例えば、全ての他のディスプレイデバイスが、ユーザが存在しないことを示す画像センサデータを提供する場合)、またはディスプレイパネルがオフになり、バックライトが提供されなくなるまで、積極的減光がディスプレイパネルに漸次的に適用され得る。
なお、ユーザの視野に関して本明細書で提供された特定の値(例えば、度、距離)は、あくまで図示を目的としたものである。そのような所与の値は実際に1または複数のシナリオで実装され得るが、当該値は、特定の必要および実装に基づいて、他の任意の適切な値に調整され得る。さらに、当該値は、ディスプレイデバイス毎に調整され得る。例えば、いくつかのシナリオにおいて、単一のワークステーション内で、いくつかのディスプレイデバイスの端にあるものなどの、特定のディスプレイデバイスが、第1レベル領域の回転範囲が、当該ディスプレイパネルがあまりに頻繁に減光されないことを保証するように拡大されることが望ましくなり得る。
図28Aから図28Bは、ユーザの存在ベースのディスプレイ管理の実施形態が実装される、2つのディスプレイシステム2800の例を示す。この2つのディスプレイシステム2800は、コンピューティングデバイス2805と、コンピューティングデバイス2805に動作結合された外部モニタ2820とを含む。コンピューティングデバイス2805は、ベース2806と、リッド2810とを含み得る。この例において、リッド2810は、内蔵一次ディスプレイパネル2812と、画像センサを含むユーザフェイシングカメラ2814を含む。外部モニタ2820は、二次ディスプレイパネル2822と、画像センサを含むユーザフェイシングカメラ2839とを含む。この例において、カメラ2814および2839は、それらのそれぞれのリッドおよびモニタのベゼル領域内に内蔵される。ただし、これらカメラは、それらのそれぞれのリッドおよびモニタに、一体化される、または他の任意の適切な方法で、外部結合され得ることが理解されよう。図28Aから図28Bも、ユーザ2802と、2つのディスプレイパネル2812および2822に向けられたあり得る注意を示す。
ユーザフェイシングカメラ2814および2839のそれぞれは、リッド/モニタハウジング内に配置され得る、または外部コネクタ(例えばドングル)によりリッド/モニタに動作結合され得る、それぞれのビジョンベースのアナライザIC(例えば、LCH155、260、305、954、1705、1860、2830A、2830B、など、本明細書に記載のLCH、またはその特徴の一部を含む回路機構)に結合され得る。各ビジョンベースのアナライザICは、その関連付けられたユーザフェイシングカメラの視野内に、ユーザが存在する、関与している、非関与である、または存在しないかを示す入力を、コンピューティングデバイス2805に提供するように構成され得る。所与のビジョンベースのアナライザICからの入力は、その関連付けられたカメラ2814または2839により捕捉された画像に対して生成された画像センサデータに基づいて生成され得る。
図28Aは、2804Aに示すように、一次ディスプレイパネル2812に向けられたユーザ2802の注意を示す。カメラ2814は、カメラ2814に固有の第1視野内の画像を捕捉できる。カメラ2814に結合された第1ビジョンベースのアナライザICは、ユーザの存在と、ユーザの顔の向きとを検出するため、捕捉画像からの画像センサデータを使用し得る。その後、第1ビジョンベースのアナライザICは、カメラ2814の第1視野に基づいて、ユーザが存在する、関与している、非関与である、または存在しないかを示す入力を、コンピューティングデバイス2805に提供し得る。カメラ2839は、カメラ2839に固有の第2視野内の画像を捕捉できる。カメラ2839に結合された第2ビジョンベースのアナライザICは、第2視野からユーザの存在と、ユーザの顔の向きと検出するため、捕捉画像からの画像センサデータを使用し得る。その後、第2ビジョンベースのアナライザICは、カメラ2839の第2視野に基づいて、ユーザが存在する、関与している、非関与である、または存在しないかを示す入力を、コンピューティングデバイス2805に提供し得る。
図28Aから図28Bのデュアルディスプレイおよびドッキングシナリオで実装された実施形態は、ユーザが向いているかに応じて、適切なディスプレイを減光およびオフにする機能がある。例えば、図28Aにおいて、コンピューティングデバイス2805のリッド2810におけるディスプレイパネル2812に関連付けられたビジョンベースのアナライザICは、ユーザの存在と、2804Aに示す顔の向きとを検出し得る。一方、外部モニタ2820のディスプレイパネル2822に関連付けられたビジョンベースのアナライザICは、ユーザの存在を検出するが、ユーザの顔が代わりにコンピューティングデバイス2805に向いているため、ユーザの注意は検出しないことがあり得る。したがって、コンピューティングデバイスは、コンピューティングデバイスと、その一次ディスプレイパネル2812との使用を可能にするように、適切な動作モードを開始(または維持)し得る。コンピューティングデバイスは、外部モニタへのユーザ注意を検出することなく、閾値時間が経過するまで、外部モニタ2820のディスプレイパネル2822を適応的に減光することもできる。閾値時間が経過すると、ユーザがコンピューティングデバイスおよびその内蔵ディスプレイパネル2812を使用し続けながら、ディスプレイパネル2822はオフにされ得る。
図28Bにおいて、外部モニタ2820のディスプレイパネル2822に関連付けられたビジョンベースのアナライザICは、ユーザの存在と、2804Bに示す顔の向きとを検出し得る。一方、コンピューティングデバイス2805のリッド2810におけるディスプレイパネル2812に関連付けられたビジョンベースのアナライザICはユーザの存在を検出するが、ユーザの顔が代わりに外部モニタ2820に向いているため、ユーザの注意は検出しないことがあり得る。したがって、コンピューティングデバイスは、コンピューティングデバイスと、外部ディスプレイパネル2822との使用を可能にするように、適切な動作モードを開始(または維持)し得る。コンピューティングデバイスは、コンピューティングデバイスへのユーザ注意を検出することなく、閾値時間が経過するまで、コンピューティングデバイス2805のディスプレイパネル2812を適応的に減光することもできる。閾値時間が経過すると、ユーザがコンピューティングデバイスと外部モニタ2820を使用し続けながら、ディスプレイパネル2812はオフにされ得る。
コンピューティングデバイスが2以上の追加的な外部モニタに接続されている場合、ユーザの存在ベースのポリシーは、任意の数のディスプレイに適用され得る。図29Aから図29Cは、ユーザの存在および注意に基づくディスプレイ管理が実装された、複数の例示的ディスプレイシステム2900を示す。複数のディスプレイシステム2900は、コンピューティングデバイス2905と、コンピューティングデバイス2905に動作結合された第1外部モニタ2920と、コンピューティングデバイス2905に動作結合された第2外部モニタ2930とを含む。コンピューティングデバイス2905は、ベース2906と、リッド2910とを含み得る。この例において、リッド2910は、内蔵一次ディスプレイパネル2912と、画像センサを含むユーザフェイシングカメラ2914とを含む。第1外部モニタ2920は、二次ディスプレイパネル2922と、画像センサを含むユーザフェイシングカメラ2939とを含む。第2外部モニタ2930も、二次ディスプレイパネル2932と、画像センサを含むユーザフェイシングカメラ2934とを含む。この例において、カメラ2914、2939、および2934は、それらのそれぞれのリッド/モニタのベゼル領域内に内蔵される。ただし、これらカメラは、それらのそれぞれのリッド/モニタに、一体化される、または他の任意の適切な方法で、外部結合され得ることが理解されよう。図29Aから図29Cも、ユーザ2902と、複数のディスプレイパネル2912、2922、および2932に向けられたあり得る注意を示す。
ユーザフェイシングカメラ2914、2939、および2934のそれぞれは、リッド/モニタハウジング内に配置され得る、または外部コネクタ(例えばドングル)によりリッド/モニタに動作結合され得る、それぞれのビジョンベースのアナライザIC(例えば、LCH155、260、305、954、1705、1860、2830A、2830B、など、本明細書に開示のLCH、またはその特徴の一部を含む回路機構)に結合され得る。各ビジョンベースのアナライザICは、その関連付けられたユーザフェイシングカメラの視野内に、ユーザが存在する、関与している、非関与である、または存在しないかを示す入力を、コンピューティングデバイス2905に提供するように構成され得る。所与のビジョンベースのアナライザICからの入力は、その関連付けられたカメラ2914、2939、または2934により捕捉された画像に対して生成された画像センサデータに基づいて生成され得る。
図29Aは、2904Aに示すように、一次ディスプレイパネル2912に向けられたユーザ2902を示す。カメラ2914は、カメラ2914に固有の第1視野内の画像を捕捉できる。カメラ2914に結合された第1ビジョンベースのアナライザICは、ユーザの存在と、ユーザの顔の向きとを検出するため、捕捉画像からの画像センサデータを使用し得る。その後、第1ビジョンベースのアナライザICは、カメラ2914の第1視野に基づいて、ユーザが存在する、関与している、非関与である、または存在しないかを示す入力を、コンピューティングデバイス2905に提供し得る。カメラ2939は、カメラ2939に固有の第2視野内の画像を捕捉できる。カメラ2939に結合された第2ビジョンベースのアナライザICは、第2視野からユーザの存在と、ユーザの顔の向きと検出するため、捕捉画像からの画像センサデータを使用し得る。その後、第2ビジョンベースのアナライザICは、カメラ2939の第2視野に基づいて、ユーザが存在する、関与している、非関与である、または存在しないかを示す入力を、コンピューティングデバイス2905に提供し得る。カメラ2934は、カメラ2934に固有の第3視野内の画像を捕捉できる。カメラ2934に結合された第3ビジョンベースのアナライザICは、第3視野からユーザの存在と、ユーザの顔の向きと検出するため、捕捉画像からの画像センサデータを使用し得る。その後、第3ビジョンベースのアナライザICは、カメラ2934の第3視野に基づいて、ユーザが存在する、関与している、非関与である、または存在しないかを示す入力を、コンピューティングデバイス2905に提供し得る。
図29Aから図29Cの複数のディスプレイで実装された実施形態は、ユーザがどこを向いているかに応じて、適切なディスプレイを減光およびオフにする機能がある。例えば、図29Aにおいて、コンピューティングデバイス2905のリッド2910におけるディスプレイパネル2912に関連付けられた第1ビジョンベースのアナライザICは、ユーザの存在と、2904Aで示された顔の向きとを検出可能である。外部モニタ2920のディスプレイパネル2922に関連付けられた第2ビジョンベースのアナライザICは、ユーザの存在を検出するが、ユーザの顔が代わりにコンピューティングデバイス2905に向いているため、ユーザの注意は検出しない場合がある。同様に、外部モニタ2930のディスプレイパネル2932に関連付けられた第3ビジョンベースのアナライザICは、ユーザの存在を検出するが、ユーザの顔が代わりにコンピューティングデバイス2905に向いているため、ユーザの注意は検出しない場合がある。したがって、コンピューティングデバイスは、コンピューティングデバイスと、その一次ディスプレイパネル2912との使用を可能にするように、適切な動作モードを開始(または維持)し得る。コンピューティングデバイスは、外部モニタ2920へのユーザ注意を検出することなく、閾値時間が経過するまで、外部モニタ2920のディスプレイパネル2922を適応的に減光することもできる。閾値時間が経過すると、ユーザがコンピューティングデバイスとその内蔵ディスプレイパネル2912を使用し続けながら、ディスプレイパネル2922はオフにされ得る。同様に、コンピューティングデバイスは、外部モニタ2930へのユーザ注意を検出することなく、閾値時間が経過するまで、外部モニタ2930のディスプレイパネル2932を適応的に減光することもできる。閾値時間が経過すると、ユーザがコンピューティングデバイスとその内蔵ディスプレイパネル2912を使用し続けながら、ディスプレイパネル2932はオフにされ得る。
図29Bにおいて、外部モニタ2920のディスプレイパネル2922に関連付けられたビジョンベースのアナライザICは、ユーザの存在と、2904Bで示された顔の向きとを検出可能である。コンピューティングデバイス2905のリッド2910におけるディスプレイパネル2912に関連付けられた第1ビジョンベースのアナライザICは、ユーザの存在を検出するが、ユーザの顔が代わりに外部モニタ2920に向いているため、ユーザの注意は検出しない場合がある。同様に、外部モニタ2930のディスプレイパネル2932に関連付けられた第3ビジョンベースのアナライザICは、ユーザの存在を検出するが、ユーザの顔が代わりに外部モニタ2920に向いているため、ユーザの注意は検出しない場合がある。したがって、コンピューティングデバイスは、コンピューティングデバイスと、その外部モニタ2920のディスプレイパネル2922との使用を可能にするように、適切な動作モードを開始(または維持)し得る。コンピューティングデバイスは、コンピューティングデバイスへのユーザ注意を検出することなく、閾値時間が経過するまで、コンピューティングデバイス2905のディスプレイパネル2912を適応的に減光することもできる。閾値時間が経過すると、ユーザが外部モニタ2920を使用し続けながら、ディスプレイパネル2912はオフにされ得る。コンピューティングデバイスは、外部モニタ2930へのユーザ注意を検出することなく、閾値時間が経過するまで、外部モニタ2930のディスプレイパネル2932を適応的に減光することもできる。閾値時間が経過すると、ユーザが外部モニタ2920を使用し続けながら、ディスプレイパネル2932はオフにされ得る。
図29Cにおいて、外部モニタ2930のディスプレイパネル2932に関連付けられたビジョンベースのアナライザICは、ユーザの存在と、2904Cで示された顔の向きとを検出可能である。コンピューティングデバイス2905のリッド2910におけるディスプレイパネル2912に関連付けられた第1ビジョンベースのアナライザICは、ユーザの存在を検出するが、ユーザの顔が代わりに外部モニタ2930に向いているため、ユーザの注意は検出しない場合がある。同様に、外部モニタ2920のディスプレイパネル2922に関連付けられた第2ビジョンベースのアナライザICは、ユーザの存在を検出するが、ユーザの顔が代わりに外部モニタ2930に向いているため、ユーザの注意は検出しない場合がある。したがって、コンピューティングデバイスは、コンピューティングデバイスと、外部モニタ2930のディスプレイパネル2932との使用を可能にするように、適切な動作モードを開始(または維持)し得る。コンピューティングデバイスは、コンピューティングデバイスへのユーザ注意を検出することなく、閾値時間が経過するまで、コンピューティングデバイス2905のディスプレイパネル2912を適応的に減光することもできる。閾値時間が経過すると、ユーザが外部モニタ2930を使用し続けながら、ディスプレイパネル2912はオフにされ得る。コンピューティングデバイスは、外部モニタ2920へのユーザ注意を検出することなく、閾値時間が経過するまで、外部モニタ2920のディスプレイパネル2922を適応的に減光することもできる。閾値時間が経過すると、ユーザが外部モニタ2930を使用し続けながら、ディスプレイパネル2922はオフにされ得る。
図30は、複数のディスプレイコンピューティングシステム2500などの複数のディスプレイコンピューティングシステムにおいて、SoC3002に動作結合されたビジョンベースのアナライザIC3020の追加的なあり得る詳細を示すブロック図である。1または複数の例において、SoC3002は、図25の複数のディスプレイコンピューティングシステム2500の、コンピューティングデバイス2505におけるSoC2508のあり得る詳細を示す。1または複数の例において、ビジョンベースのアナライザIC3020は、それぞれコンピューティングデバイス2505のリッド2510内、第1外部モニタ2520内、および複数のディスプレイコンピューティングシステム2500の第2外部モニタ2530の外部に実装された、ビジョンベースのアナライザIC2540A、2540B、および2540Cのあり得る詳細を示す。したがって、ディスプレイデバイス3010は、ビジョンベースのアナライザIC3020が実装され得る、あり得るディスプレイデバイスの内のいずれか1つを表すように図30において示される。カメラ3014は、ディスプレイデバイス3010と一体化される、またはアドオンとしてディスプレイデバイスに結合され、ビジョンベースのアナライザIC3020に通信可能に結合され得る。カメラ3014は、ユーザフェイシングであるように配置され、ディスプレイデバイス3010においてディスプレイパネルから外に広がる固有の撮像視野を有し得る。ハードニングされたインジケータおよび制御3012が、ディスプレイデバイス3010内に設けられ得、カメラ3014がどのように使用されているか(例えば、SoC3002で動作するソフトウェアにより、ビジョンベースのアナライザIC3020により)を示すように発光ダイオード(LED)を含み得る。
一般的に、1または複数の実施形態において、SoC3002と、ビジョンベースのアナライザIC3020とは、本明細書に記載の複数のディスプレイコンピューティングシステムに対するディスプレイ管理に関連付けられた異なる機能を実行し得る。いくつかの例において、SoC3002は、入力/出力(I/O)インタフェース(IF)3004と、内蔵センサハブ(ISH)3006と、画像処理モジュール3008とを含む。いくつかの例において、ビジョンベースのアナライザIC3020は、ビジョン/撮像モジュール3026と、セキュリティモジュール3022と、セレクタ3024とを含む。ビジョン/撮像モジュール3026は、人間の顔(1または複数)および頭部/顔の向きを検出するための、処理画像センサデータをサポートする、人工知能ベースのビジョン処理ユニットである。画像センサデータは、ユーザフェイシングカメラ3014により捕捉された画像のシーケンスの各フレームに対して生成され得、ビジョン/撮像モジュール3026内にストリーミングされ、ここで、画像センサデータの各フレームについて、人間の顔(1または複数)および頭部/顔の向きが検出され、画像メタデータが生成され(例えば、ユーザの存在、不在、関与、および/または非関与を示す)、画像メタデータは、SoC3002のISH3006に送信される。いくつかの実施形態において、画像メタデータは、ディスプレイスクリーンからユーザが顔をそむけた場合(例えば、ユーザの顔の向きが第3レベル領域2738内にある)など、ユーザが存在するがユーザの顔が検出不能である場合を示し得る。1または複数の例において、カメラ3014は、画像データセンサファイル(またはフレーム)のストリームを、ニューラルネットワークアクセラレータ(NNA)3030と、データベース3040などのストレージユニットを含み得るビジョン/撮像モジュール3026に送信できる。1または複数の例において、SoC3002およびビジョンベースのアナライザIC3020、ならびにそのコンポーネントは、本明細書に開示の1または複数の他のSoC(例えば、140、390、340、914、1840、2840A、2840B、2508)および/またはリッドコントローラハブ(例えば、155、260、305、954、1705、1860、2830A、2830B)で提供されたのと同じ特徴の少なくとも一部により構成され得る。
NNA3030は、ユーザがカメラの視野内に存在するかしないか、およびディスプレイデバイスに関与しているか非関与かを判定するため、ディスプレイデバイス3010に内蔵された、または結合されたカメラ3014により生成された画像センサデータの初期分析を実行するように構成され得る。NNA3030は、カメラ3014から受信した画像センサデータにおいて人間の顔、顔の向き、および/または複数の顔を検出するため、機械学習アルゴリズム(例えば、ニューラルネットワーク)を利用し得る。NNA3030は、人間の顔(1または複数)および顔の向き検出を実行するため、ハードウェア、ファームウェア、ソフトウェア、またはそれらの任意の適切な組み合わせを含み得る。ディスプレイデバイス3010に対する画像メタデータは、カメラ3014により画像センサデータが生成され、NNA3030により分析される度に、生成され得る。画像メタデータは、カメラ3014の視野内にユーザが存在するかしないか、およびユーザがディスプレイデバイス3010に関与しているか非関与かを示し得る。
例示的ビジョンベースのアナライザIC3020は、SoC3002とは別個のダイとして実装され得、「常時オン」実装に対して、比較的低電力(例えば、約10mW)でこのビジョンベースの分析を実行するように具体的に設計される。ビジョンベースのアナライザIC3020は、ビジョンベースのアナライザ2540A、2540B、2540Cの一例示的実装で、ディスプレイデバイス3010内に実装され得る。ビジョンベースのアナライザIC3020は、本明細書に開示のリッドコントローラハブ(LCH)(例えば、LCH155、260、305、954、1705、1860、2830A、2830B)またはその一部として構成され得る。画像センサデータを分析して、分析に応じて画像メタデータを生成した後、ビジョン/撮像モジュール3026は、画像メタデータを、さらなる処理のために、(例えば、ICシリアルバスを介して)SoC3002の内蔵センサハブ(ISH)3006に送信し得る。一最適化において、画像メタデータは、カメラ3014により捕捉された新たな画像センサデータに対して生成された後続の画像メタデータとの比較のために、データベース3040に格納され得る。この最適化において、新たに生成された画像メタデータの、以前生成されてデータベース3040に格納されていた画像メタデータとの比較に基づいて、イベントが発生したという判定に応じてのみ、画像メタデータがSoCに送信される。
ISH3006が、ディスプレイデバイス3010のビジョンベースのアナライザIC3020から画像メタデータを受信すると、ISHは、SoC3002に対して適切な動作モードと、受信した画像メタデータに関連付けられたディスプレイデバイスと、SoC3002に動作結合された他のディスプレイデバイスとを識別し、それに応じて対応する性能パラメータを調整するために、画像メタデータを使用し得る。動作モードの例は、1)存在し関与、2)存在し受動的に関与、3)存在し非関与、4)不在の内の1または複数を含み得るが必ずしもこれに限定されない。
図示の例に示すように、ビジョンベースのアナライザIC3020は、ビジョン/撮像モジュール3026に画像センサデータの初期低電力分析を実行可能にするため、カメラ3014と、SoC3002との間に通信可能に結合される。しかし、ユーザがカメラ3014(例えば、ビデオ会議通話用)の使用を伴う動作を開始すると、例示的なセレクタ3024が、画像センサデータを、ビジョン/撮像モジュール3026をバイパスして、直接SoC3002の画像処理ユニット3008に転送し得る。
いくつかの例において、ビジョンベースのアナライザIC3020は、ビジョンベースのアナライザIC3020のセキュリティおよび/または一貫性を維持するために、セキュリティモジュール3022を含む。セキュリティモジュール3022は、エンドユーザに、ユーザフェイシングカメラ3014の完全可視性および制御を提供し得る。いくつかの実装において、セキュリティモジュール3022はI/Oインタフェース3004を介して、SoC3002と通信し得る。しかし、セキュリティモジュール3022は、認証されることなくSoC3002に、カメラ3014の撮像視野内に捕捉されたものを示す画像センサデータが開示されないことを保証する。例えば、ユーザは、ビデオ通話のビデオフレームを認証する選択肢を有し得る。さらに、セキュリティモジュール3022は、ユーザの把握(例えば、ハードニングされたインジケータおよび制御3012を介して)または制御(例えば、プライバシースイッチを介して)無しで、マルウェアの可能性があるものにより、画像センサデータがアクセスできないことを保証する。具体的には、ハードニングされたインジケータおよび制御3012は、セレクタ3024の現在の状態(例えば、ノーマル、ULPビジョン、またはプライバシーモード)が、インジケータに適切に反映されることを保証し得る。画像センサデータを受信することに加え、ビジョンベースのアナライザIC3020はさらに、ハードニングされたインジケータおよび制御3012に対する入力を受信し、適切な信号を、汎用入力/出力(GPIO)を介してLEDに提供し得る。
図31は、ビジョンベースのアナライザIC3020のビジョン/撮像モジュール3026と、SoC3002の内蔵センサハブ(ISH)3006との追加的なあり得る詳細を示すブロック図である。ビジョン/撮像モジュール3026は、NNA3030と、データベース3040と、画像処理アルゴリズム3039とを含み得る。ISH3006は、ディスプレイ管理ポリシー3001と、性能コントローラ3003と、動作モードセレクタ3005と、および動作モード定義/ルール3007とを含み得る。
NNA3030は、人間の顔、頭部/顔の向き、およびマルチ顔検出用に調整された、畳み込みニューラルネットワーク(CNN)などの1または複数のディープニューラルネットワーク(DNN)を実装し得る。少なくとも1つの実施形態において、ニューラルネットワークは、人間の顔と顔の向きとを認識するように訓練された機械学習モデルを使用して実装され得る。少なくとも1つの例において、機械学習モデルは、人間の顔の向きを回転度で識別するように訓練される。少なくとも1つの実施形態において、回転度は、人間の顔と、カメラが内蔵または結合されたディスプレイデバイスとの間の経路から測定され得る。機械学習エンジン3050は、訓練用画像データ3052を使用して、機械学習モデルを訓練し得る。例示的訓練用画像データ3052は、特定の単数または複数のユーザおよび/または複数の他の人間の被写体に対する、過去の画像データを含み得る。機械学習エンジン3050は、訓練済みモデルが提供可能な、またはビジョンベースのアナライザIC3020などの適切なビジョンベースのアナライザICによりアクセス可能な、ローカルまたはリモートサーバ内、クラウド内、または他の任意の適切なシステムまたはデバイスにおいて、モデルを使用しているビジョンベースのアナライザICに関連付けられたコンピューティングデバイス(例えば、2505)内で動作し得る。
訓練用画像データ3052は、任意の適切なストレージユニットまたはメモリ内に格納され得る。いくつかの例において、訓練用画像データ3052は、機械学習エンジン3050が格納されたおよび/または動作しているのと同じシステムまたはデバイスに格納され得る。別の例において、訓練用画像データ3052は、機械学習エンジン3050が格納されたおよび/または動作しているシステムまたはデバイスの外部に格納され得、一方で機械学習エンジン3050からアクセス可能な位置にあり得る。
訓練済みモデルは、人間の顔(単数または複数)を検出し、人間の顔の向きを判定するようにNNA3030により使用されるために、データベース3040に格納され得る。例えば、顔検出モデル(1または複数)3044および顔の向きモデル(1または複数)3046がデータベース3040内に格納され得る。
1または複数の例において、NNA3030は、人間の顔検出器3034と、顔の向き検出器3036と、マルチ顔検出器3038とを含み得る。人間の顔検出器3034は、ユーザフェイシングカメラ3014により生成された画像センサデータから、ビジョンベースのアナライザIC3020が配置されたディスプレイデバイスの前部分を囲う固有の撮像FoVから、人間の顔を識別するように、顔検出モデル(1または複数)3044を使用し得る。画像センサデータ内に人間の顔を検出することは、撮像FoV内にユーザが存在することを示すものである。画像センサデータ内に人間の顔を検出しないことは、撮像FoV内にユーザが存在しない(または不在である)ことを示すものである。人間の顔検出器3034はさらに、画像センサデータを生成したカメラから、検出されたユーザの顔への距離を判定するために使用できる情報を生成し得る。一例において、人間の顔検出器3034のニューラルネットワークは、人間の顔の検出の一部として、人間の頭部のバウンディングボックスを予測するように訓練され得る。バウンディングボックスが判定され、人間の顔が認識されると、バウンディングボックスのサイズに基づいて、カメラへのユーザ(例えば、ユーザの顔)の距離が判定され得る。いくつかの実装において、この判定は、NNA3030により実行され得る。他の実装において、ディスプレイデバイスに関連付けられたカメラへの、検出された人間の顔の距離を判定するために、バウンディングボックス情報が画像処理アルゴリズム3039に提供され得る。
人間の顔が検出されると、顔の向き検出器3036は顔の向きを判定するために、顔の向きモデル(1または複数)3046を使用し得る。一例において、顔の向きは、カメラ3014を向くユーザと、検出された人間の顔との間の経路に対する度合いにより提供され得る。顔の向きは、画像センサデータにおける顔特徴(例えば、見えている耳の数、見えている眼の数)の識別に基づいて判定され得る。顔の向きは、画像センサデータを生成した、カメラに関連透けられた特定のディスプレイデバイスに対して、ユーザが関与しているかまたは非関与かを推測するのに使用され得る。一例において、本明細書において上述したように、ユーザの顔の向きがレベル1領域内にあれば、カメラ3014に関連付けられたディスプレイデバイスに、ユーザが関与していると推測され得る。ユーザの顔の向きがレベル2領域内にあれば、カメラ3014に関連付けられたディスプレイデバイスに、ユーザが関与していないが、同じコンピューティングデバイスにドッキングされた、または他の方法で接続された他のディスプレイデバイスに関与し得ると推測され得る。ユーザの顔の向きがレベル3領域内にあれば、カメラ3014に関連付けられたディスプレイデバイスに、または同じコンピューティングデバイスにドッキングされた、または他の方法で接続された他の任意のディスプレイデバイスに、ユーザが関与していないと推測され得る。いくつかの実装において、これら推測は、NNA3030により判定され得る。他の実装において、これら推測は、画像処理アルゴリズム3039により判定され得る。
1または複数の実施形態において、NNA3030はさらに、ユーザフェイシングカメラ3014により生成された画像センサデータ内で、その固有の撮像FoVから、複数の顔を検出するように、マルチ顔検出器3038を含み得る。少なくとも1つの実施形態において、顔検出モデル(1または複数)3044は、単一の画像の画像センサデータにおける複数の人間の顔を検出するように訓練され得る。別の実施形態において、顔検出モデル(1または複数)3044が、単一の人間の顔を検出するように訓練され得、他のモデルがマルチ顔検出用に訓練され得る。複数の人間の顔が検出されると、少なくとも1つの実施形態において、各検出された顔は、顔の向きと、検出された顔に関連付けられたユーザがディスプレイデバイスに関与しているかとを判定するように分析され得る。カメラ3014に関連付けられたディスプレイデバイスのディスプレイパネルを減光および/またはオフにすることは、検出された全ての人間の顔が、ディスプレイデバイスとは非関与であると判定された場合にのみ実行され得る。
画像処理アルゴリズム3039は、NNA3030の一部としてビジョン撮像モジュール3026内に提供される、または個別に実装され得る。画像処理アルゴリズム3039は、回路機構内で実装され得、ハードウェア、ファームウェア、ソフトウェア、またはそれらの任意の適切な組み合わせを含み得る。画像処理アルゴリズム3039は、カメラ3014により捕捉された画像の新たな画像メタデータを生成するために、画像センサデータの現在のフレームに基づき、人間の顔検出器3034、顔の向き検出器3036、およびマルチ顔検出器3038により生成された情報を使用し得る。新たな画像メタデータは、捕捉された画像を示す現在の画像センサデータ内に、ユーザが存在する、存在しない、関与している、または関与していないかを示し得る。新たな画像メタデータが生成されると、画像処理アルゴリズム3039は、新たな画像メタデータを、データベース3040に格納された以前の画像メタデータ3042と比較することで、カメラ3014に関連付けられたディスプレイデバイスに対するユーザの存在、不在、関与または非関与に関連するイベントが生じたことを、2つの画像メタデータバイナリ(またはファイル)間の任意の変化が示すかを判定し得る。以前の画像メタデータ3042は、新たな画像メタデータが生成された画像センサデータのフレームを受信する直前に、ビジョン/撮像モジュール3026により受信された画像センサデータのフレームに基づいて生成された画像メタデータを示し得る。
比較に基づいて、イベントが発生したと判定された場合、ビジョン/撮像モジュール3026は、新たな画像メタデータのコピーを、データベース3040に、以前の画像メタデータ3042として格納し、新たな画像メタデータをISH3006に送信し得る。比較に基づいて、イベントが発生していないと判定された場合、少なくとも1つの実施形態において、省処理リソースのため、新たな画像メタデータが、ISH3006に送信されなくてよい。しかしここでも、新たな画像メタデータは、以前の画像メタデータ3042として、データベース3040内に格納されてもよい。
1または複数の実施形態において、SoC3002のISH3006は、ビジョン/撮像モジュール3026から画像メタデータを受信し、画像メタデータに基づいて、適切なポリシーを適用し、受信した画像メタデータに関連付けられたディスプレイデバイスと、おそらくはディスプレイデバイスにドッキングされたまたは他の方法で接続されたコンピューティングデバイスとに対して適切な動作モードを選択し、必要であれば、選択された動作モードに基づいて、性能パラメータを調整するように構成される。
動作モード定義/ルール3007は、各ディスプレイデバイスに対して生成された画像メタデータに個別に基づいて、各ディスプレイデバイス(例えば、2510、2520、2530)に適用され得る、様々な動作モードを含み得る。画像メタデータと、受信したメタデータに対して適用可能なポリシーに基づいて、適切な動作モードが選択され、受信した画像メタデータに関連付けられたディスプレイデバイスに適用され得る。一例において、特定のディスプレイデバイスに適用され得る動作モードは、以下を含み得るが、それに必ずしも限定されない。
関与動作モード-画像メタデータが、ユーザが存在し関与していることを示す。ユーザが検出され、視線方向が、ディスプレイデバイスに対してレベル1領域内にある(例えば、ユーザは読んでいる、またはディスプレイデバイス上のビデオを観ている状態であり得る)。
適応減光動作モード(通常または積極的)-画像メタデータが、ユーザが存在し非関与であることを示す。ユーザが検出されたが、ディスプレイデバイスに対して関与していない(しかし、コンピューティングシステムにおける他のディスプレイデバイスに関与し得る)。
不在動作モード-画像メタデータが、ユーザが存在しない、またはユーザの顔が検出不能であることを示す。ユーザの顔が検出されない。
なお、コンピューティングデバイスのSoCまたは他の処理要素に対する動作モードなど、他の動作モードも使用され得ることが理解されたい。これら他の動作モードは、本明細書に記載のディスプレイデバイスに対する動作モードと共に使用され得る。
1または複数の実施形態において、性能コントローラ3003は、コンピューティングデバイス2505と、コンピューティングデバイスにドッキングされた、または他の方法で接続された複数のディスプレイデバイス2510、2520、および2530の、電力消費、性能、および/またはシステム反応性を司る、性能パラメータを制御し得る。性能パラメータは、コンピューティングシステム2500における1または複数のディスプレイデバイス2510、2520、2530に対するユーザの存在および/または関与の判定に応じて調整され得る。例えば、性能コントローラ3003は、システムにおけるディスプレイデバイスの1つが、ユーザが接近していることを検出すると、システムを起動するように性能パラメータを制御し得、顔ベース認証をトリガし得る。別の場合において、性能コントローラ3003は、ユーザが特定のディスプレイデバイスが関与していないと判定された場合、特定のディスプレイデバイスに対するバックライトを減光するように性能パラメータを制御し得る。バックライトは、ディスプレイデバイスに対してユーザが非関与の所定期間に基づいて、漸次的に減光され得る(例えば、バックライトの明るさが低減される)。別の例において、性能コントローラ3003は、コンピューティングシステムにおける複数のディスプレイから、ユーザが立ち去ったことを判定したら迅速に、コンピューティングシステムをロックするように性能パラメータを制御し得る。さらに別の例において、性能コントローラ3003は、コンピューティングシステムの少なくとも1つのディスプレイデバイスが、ユーザが存在し、関与していると検出した場合、ユーザがキーボード、マウス、タッチパッドなどのようなユーザインタフェースとインタラクトしていなくても、SoCによるシステムをロックしようとするあらゆる試みを止めるように、性能パラメータを制御し得る。
ビジョン/撮像モジュール3026から受信した画像メタデータに基づいて、SoC3002により様々なディスプレイ管理ポリシー3001が実装され得る。例示的ディスプレイ管理ポリシー3001は、顔起動ポリシー、適応減光ポリシー、存在確認時非ロックポリシー、不在時ロックポリシーを含み得るが、これに限定されない。複数のディスプレイコンピューティングシステムにおいて、顔起動ポリシーは、ユーザがコンピューティングシステムに接近し、各ディスプレイデバイスに関連付けられたカメラの1または複数の視野に入ったことに応じて呼び出され得る。顔起動ポリシーが呼び出されると、コンピューティングシステムが起動し、顔からベースの認証(例えば、Windows Hello(登録商標)認証ソフトウェア)がトリガされる。したがって、コンピューティングシステムは、ユーザがディスプレイデバイスのいずれかの前に座る前に、またはコンピューティングシステムと(例えば、ユーザインタフェース機構、声を介して)インタラクトする前に、準備できている。複数のディスプレイコンピューティングシステムについて、ユーザが最初に関与するディスプレイデバイス(例えば、当該ディスプレイデバイスに自身の注意を向ける)が、コンピューティングシステムを起動するようにトリガする。複数のディスプレイコンピューティングシステムにおける他のディスプレイデバイスは、ユーザがコンピューティングシステムへログイン成功がするまで、オフのままとなる。複数ディスプレイ顔起動ポリシーは、ユーザがコンピューティングシステムに接近して見るより大きな面積をカバーする。各ディスプレイデバイスは、異なる撮像視野を有する関連付けられたカメラを備えるため、複数のディスプレイコンピューティングシステムの周りの、移動および光が検出可能で、画像が捕捉可能な領域は、単一のディスプレイコンピューティングシステムよりも広くなる。これは、特に異なる方向から作業領域に入り得るユーザに対して、よりロバストなソリューションを創り出す。
1または複数の実施形態において、適応減光ポリシーは、ディスプレイパネルのバックライトを、ユーザの注意が向いていない、定義された期間にわたって漸次的に減光し、さらにユーザがもはや存在しなくなるとディスプレイデバイスをオフにするように、複数のディスプレイコンピューティングシステムで呼び出され得る。適応減光ポリシーが呼び出されると、特定のディスプレイデバイスに対して、通常または積極的減光動作モードが選択され得る。このポリシーを実装することで、大幅なバッテリ寿命延長が実現され得る。ビジョンベースのアナライザICが実装された各ディスプレイデバイスについて、ディスプレイデバイス毎に省電力と反応性が最適化され得る。例えば、ユーザが関与して、ユーザの真正面の第1ディスプレイデバイスを見ている場合、ユーザが見ていない他の任意のディスプレイ上のディスプレイを減光するように調整され得る。一実装において、適応減光ポリシーは、ユーザが非関与になったディスプレイパネルをある期間にわたって漸次的に減光することと、ユーザの顔が向かなくなった(例えば、いずれかの方向に、顔の向き>90°)ディスプレイパネルをオフにすることを含み得る。このポリシーは、一体化またはアドオンビジョンベースのアナライザIC3020(またはLCH155、260、305、954、1705、1860、2830A、2830B、など)を有する、任意の数の追加的な外部ディスプレイデバイスに適用され得る。ディスプレイデバイスのディスプレイパネルを減光し、オフにするとともに、リフレッシュレートも管理できる。例えば、ユーザが非関与となった任意のディスプレイパネルについてリフレッシュレートが下げられ得る。したがって、SoC3002は、リフレッシュレートを低減し、レンダリングを低減することで性能を最適化するように、適応減光ポリシーを適用できる。
1または複数の実施形態において、ユーザが存在する場合、ユーザが積極的にタイピングを行ったりマウスを動かしていなかったり、またはユーザが非関与であったりしても、コンピューティングシステムがロックされたり、そしてディスプレイデバイスがオフにされたりすることを防止するように、複数のディスプレイコンピューティングシステムで存在時非ロックポリシーが呼び出され得る。存在時非ロックポリシーが呼び出されると、ユーザが関与していれば、特定のディスプレイデバイスに対して、関与動作モードが選択され得る(または変更されない)。このシナリオは、例えば、ユーザが長い文書を読んでいるまたは埋め込まれたビデオを観ているときに生じ得る。ユーザが非関与であれば、特定のディスプレイに対して非関与動作モードが選択され得る(または変更されない)。一方、コンピューティングシステムがロックされることを防止し、バックライトが完全にオフになることを防止するように、存在時非ロックポリシーが呼び出され得る。したがって、複数のディスプレイコンピューティングシステムの少なくとも1つの実施形態において、少なくとも1つのディスプレイデバイスからの画像メタデータが、ユーザが存在するが、関与(例えば、いずれの方向にも、顔の向きが≦45°の間)、または非関与(例えば、いずれの方向にも、顔の向きが>45°で≦90°)のいずれかであることを示す場合、コンピューティングシステムがロックされない。
1または複数の実施形態において、ユーザが、非アクティブタイムアウトが経過する前に立ち去った場合に、ディスプレイデバイスをオフにして、迅速にコンピューティングシステムをロックするため、複数のディスプレイコンピューティングシステムにおいて不在時ロックポリシーが呼び出され得る。不在時ロックポリシーが呼び出されると、特定のディスプレイデバイスそれぞれに対して不在動作モードが選択され得る。非アクティブタイムアウトは一般的に約5分で、ユーザのコンピューティングシステムとのインタラクション(例えば、マウス、タッチパッドなどのユーザインタフェースを介する)がないことに基づいて実行され得る。特定のアプリケーション(例えば、埋め込みビデオ)が動作中は、非アクティブタイムアウトが一切生じなくてよい。1または複数の実施形態において、複数のディスプレイコンピューティングシステムは、全てのディスプレイデバイスが、ユーザの不在を示す場合に(例えば、ユーザが不在である、またはいずれの方向にも、顔の向き>90°)、コンピューティングシステムをロックし、全てのディスプレイデバイスをオフにするように構成され得る。
複数のディスプレイコンピューティングシステムに対するディスプレイ管理の実施形態は、ユーザ体験向上を提供する。追加的なユーザの存在入力からの精度向上により、ユーザ接近を検出可能な第1ディスプレイがシステムを起動可能であるため、実施形態は、ユーザが自身のシステムに接近したことをより迅速にかつシームレスに検出可能とする。さらに、複数の入力に関して精度向上が図られる。適応減光は、ユーザが関与していないラップトップディスプレイまたは追加的な外部ディスプレイのいずれかをオフにすることで、省エネルギーおよび電力を提供する。この省電力は、29から100W程度になり得る。この大幅な省エネルギーは、ワイヤレスディスプレイのシナリオにも適用され得る。
複数のディスプレイコンピューティングシステムのディスプレイ管理の実施形態は、追加的な外部モニタを、ユーザがそれら外部モニタの1または複数に非関与である場合に駆動する必要がないため、リフレッシュレートおよびレンダリングを低減でき、性能が最適化可能となる。典型的には、高解像度ディスプレイは、処理およびレンダリング用のGPUオーバヘッドへのレンダリングタックス、データ構成および送信用の、グラフィックおよびディスプレイエンジンのディスプレイタックス、および熱的に規制を受けるフォームファクターへのCPUバジェットの影響を含む高コストに直結する。バッテリ寿命測定ツールによる分析は、外部4Kディスプレイへの取り付け時に≧50%の性能ロスを示した。
不要に追加的なディスプレイデバイスを駆動する必要がなければ、レンダリングおよびリフレッシュレートを大幅に下げられ得る。ユーザが非関与または不在時に、リフレッシュレートおよびディスプレイレンダリングを適時低減することで、ディスプレイ電力およびエネルギーは、特定の州の政策(例えば、カリフォルニア州エネルギー政策およびエネルギースター規格)に適合する(延いてはそれを超越する)ことができる。さらに、特定の機能(例えば、顔起動、適応減光、存在時非ロック、不在時ロック)に対するユーザ体験の最適化に合わせて、相関ポリシーの問題も適切に扱われ得る。相関ポリシーは、ユーザが存在し関与しているか、非関与であるか、または存在しないかに相関した、ユーザ入力イベント(HID)がある場合を含み得る。実施形態は、ユーザ入力イベントを待つ必要なく、ユーザが存在し関与しているかまたは非関与/存在しないかを正確に示すように、複数のディスプレイコンピューティングシステムシナリオについてこの問題を解消し得る。具体的には、実施形態は、どのディスプレイが、電力エネルギー、および性能の効果的な管理と相関していないかを示し得る。
図32から図37を参照すると、簡略化されたフローチャートが、ユーザの存在および注意ベースのディスプレイ管理が実装された複数のディスプレイコンピューティングシステム2500の実施形態に関連付けられ得る、例示的なハードウェアロジック、機械可読命令、ファームウェア、ソフトウェア、またはそれらの任意の適切な組み合わせを示す。少なくとも1つの実施形態において、動作の組は図32から図37のフローチャートに示す動作に対応する。一例において、リッド制御ハブ(例えば、155、260、305、954、1705、1860、2830A、2830B)、またはその一部(例えば、ビジョンベースのアナライザ集積回路(例えば、2540A、2540B、2540C、3020))が、動作の少なくとも一部を利用または実行し得、SoC(例えば、140、390、340、914、1840、2840A、2840B、2508、3002)が、動作の少なくとも一部を利用または実行し得る。図示簡略化のため、図32から図37のフローチャートは、図25および図30のコンポーネントを参照にして説明され得る。しかし、これらコンポーネントは、本出願を通じて、さらに図示および説明され、これら図示および説明のうちの1または複数は、図32から図37に関して参照されるコンポーネントに適用可能であることが理解および受け入れられよう。
図32は、少なくとも1つの実施形態に係る複数のディスプレイコンピューティングシステム(例えば、2500)においてユーザの存在を検出することに関連付けられた例示的プロセス3200の高次フローチャートである。少なくとも1つの実施形態において、動作の組は、例示的プロセス3200の動作に対応する。一例において、動作は、複数のディスプレイコンピューティングシステムのディスプレイデバイス(例えば、391、341、2510、2520、2530、3010)内に配置されたビジョン/撮像モジュール(例えば、172、263、363、1740、1863、2832A、2832B、3026)、およびディスプレイデバイスに関連付けられたカメラ(例えば、2514、3014)により実行され得る。より具体的には、ニューラルネットワークアクセラレータ(例えば、276、327、1740、1863、2834A、2834B、3030)が動作の1または複数を実行し得る。
3202において、ディスプレイデバイス3010に関連付けられたカメラ3014の視野(FoV)内の移動が検出され得る。いくつかの実装において、移動の検出は、カメラに一体化された、またはカメラ3014に通信可能に結合された撮像センサにより実行され得る。3204において、カメラは、カメラに関連付けられたFoV内で新たな画像(またはフレーム)を捕捉する。カメラは、新たな画像(またはフレーム)に対する画像センサデータを生成し、画像センサデータがディスプレイデバイス3010に関連付けられたビジョンベースのアナライザIC3020に提供される。より具体的には、少なくとも1つの実施形態において、画像センサデータが、ユーザの存在検出、顔検出、顔の向き検出、および任意でマルチ顔検出を実行するため、ニューラルネットワークアクセラレータ3030に提供される。
3205において、NNA3030は、人間の顔(1または複数)を検出し、人間の顔が検出された場合、人間の顔(1または複数)の向きを検出するため、1または複数の機械学習アルゴリズムを動作し得る。3206において、ビジョン/撮像モジュール3026は、NNA3030により実行された顔、ユーザの存在、および頭部の向き検出に基づき、新たな画像メタデータを生成し得る。新たな画像メタデータは、例えば、カメラ3014により、ディスプレイデバイス3010の前で捕捉された新たな画像に、ユーザが存在する、または不在であるかについてのインジケーションを含み得る。ユーザの存在は、顔検出に基づいて判定され得る。人間の顔が検出されると、ユーザは存在する。ユーザが存在すると判定された場合、頭部の向きの新たな画像メタデータはさらに、ユーザがカメラに関連付けられたディスプレイデバイス3010に関与しているか、またはディスプレイデバイス3010に非関与(例えば、受動的に関与)かのインジケーションを含み得る。
3208において、以前の画像メタデータに関連付けられた以前の画像が捕捉されてから、何らかのユーザイベントが生じたかを判定するため、新たな画像メタデータが、以前の画像メタデータと比較され得る。ユーザイベントが生じたかを判定するため、カメラ3014により捕捉された新たな画像の画像センサデータに基づいて生成された新たな画像メタデータが、新たな画像が捕捉される前に捕捉された画像の画像センサデータに基づいて以前に生成された、格納された以前の画像メタデータに比較され得る。したがって、新たな画像メタデータは、違いを識別し、その違いがユーザイベントに対応するかを判定するため、以前の画像メタデータと比較される。以前の画像データと比較して、新たな画像メタデータ内にユーザの存在の変化が検出されると、ユーザイベントが発生し得る。例えば、ユーザは、以前の画像で不在であり得るが、新たな画像でユーザが存在し得る。または、ユーザは、以前の画像で存在し得るが、新たな画像でユーザが不在であり得る。起こり得る他のユーザイベントとしては、ユーザの顔の向きが変わることが挙げられる。このシナリオにおいて、人間の顔が以前の画像で検出済みで、顔の向きが識別済みであり得る。新たな画像メタデータが、検出されたユーザの顔の向きが、以前の画像メタデータ内で示された顔の向きと異なることを示す場合、ユーザイベントが起きている。例えば、以前の画像メタデータは、ユーザがディスプレイデバイスに関与していなかったことを示し得る(顔の向きに基づいて判定される)。新たな画像メタデータは、ユーザがディスプレイデバイスに関与していることを示し得る(顔の向きに基づいて判定される)。あるいはこの逆である。
3210において、3208で実行された比較に基づいて、ユーザイベントが発生したかが判定される。ユーザイベントが発生していない場合(例えば、以前の画像メタデータと、新たな画像メタデータとが同じ)、3212において、最適化として、新たな画像メタデータが、SoC3002に送信されなくてよい。3208で実行された比較に基づいて、ユーザイベントが発生したと判定された場合、3214において、ディスプレイデバイス(そして任意でディスプレイデバイスが接続されたコンピューティングデバイス)に対して動作モードを決定するため、新たな画像メタデータがSoC3002に送信される。3216において、新たな画像メタデータが、ディスプレイデバイスに対して生成される次の新たな画像メタデータに対する比較のために、以前の画像メタデータとして格納され得る。
図33は、少なくとも1つの実施形態に係る、ユーザの存在、人間の顔(1または複数)、および頭部/顔の向きを検出するための、複数のディスプレイコンピューティングシステム(例えば、2500)における、新たな画像センサデータの処理に関連付けられた、例示的プロセス3300の高次フローチャートである。例示的プロセス3300は、図32の処理3200の1または複数の動作(例えば、3205、3206)に関連付けられた追加的な詳細を提供し得る。少なくとも1つの実施形態において、動作の組は、例示的プロセス3300の動作に対応する。一例において、動作の少なくとも一部は、ニューラルネットワークアクセラレータ(例えば、276、327、1740、1863、2834A、2834B、3030)、および任意でビジョンベースのアナライザIC(例えば、2540A、2540B、2540C、3020)のビジョン/撮像モジュール(例えば、172、263、363、1740、1863、2832A、2832B、3026)における画像処理アルゴリズム3039により実行され得る。
3302において、NNA3030は、ディスプレイデバイス3010に関連付けられたカメラ3014により捕捉された新たな画像の画像センサデータ上で、1または複数の機械学習アルゴリズムを実行し得る。機械学習アルゴリズムの一例は、人間の顔を検出するように訓練され、実行されると、画像センサデータ内に人間の顔が存在するか検出可能なニューラルネットワークモデルであり得る。3304において、顔検出用のニューラルネットワークモデルにより画像センサデータ内で、人間の顔が検出されたかを判定される。人間の顔が検出されなければ、3306において、ユーザが存在しないことを示すため、新たな画像メタデータが生成される。新たな画像メタデータはさらに、ディスプレイデバイス3010に関与しているユーザがいないことを示し得る。
3304において、顔検出用のニューラルネットワークモデルにより画像センサデータ内に人間の顔が検出されたと判定された場合、3308において、検出された人間の顔の頭部/顔の向きを判定するために、別の機械学習アルゴリズムが実行され得る。機械学習アルゴリズムの一例は、人間の顔(例えば、度で)人間の顔の向きを検出するように訓練され、実行されると、画像センサデータにおいて検出された人間の顔の向きを検出可能なニューラルネットワークモデルであり得る。少なくとも1つの実施形態において、顔の向きは、ユーザの顔と、ディスプレイデバイスとの間に定義された直接ディスプレイ経路に対する回転度で判定され得る。直接ディスプレイ経路は、検出された顔からディスプレイデバイスのディスプレイパネルの中心まで、画像を捕捉したカメラまで、またはディスプレイデバイスに関連付けられた他の任意の適切なポイントまで計算され得る。
3310において、推測されるディスプレイデバイス3010に対する関与が最大回転角度内であるかを判定するために、ユーザの顔の向きが評価され得る。一例において、最大回転角度は、ユーザの顔と、ディスプレイデバイス3010(例えば、ディスプレイデバイスのディスプレイパネルの中心、カメラ、またはディスプレイデバイス上の任意の他の位置にある)との間の直接ディスプレイ経路に対して、いずれの方向にも、ユーザの顔の第1レベル最大回転角度(例えば、24°)である。
3312において、ユーザの顔の向きが第1レベル最大回転角度(例えば、24°)内であると判定された場合、ユーザがディスプレイデバイス3010のディスプレイパネルに関与している(例えば、ユーザはディスプレイパネル上の何かを読んでいるか、見ている可能性がある)と推測され得る。このシナリオにおいて、3316において、ユーザが存在し、ユーザがディスプレイデバイス3010に関与していることを示すため、新たな画像メタデータが生成される。
ユーザの顔の向きが、第1レベル最大回転角度を超えるが、第2レベル最大回転角度(例えば、90°)を超えないと判定された場合、ユーザがディスプレイデバイス3010のディスプレイパネルに非関与であるが、ディスプレイデバイス3010がドッキングされた、または他の方法で接続された、コンピューティングシステムにおける他のディスプレイパネルに関与し得ると推測され得る。このシナリオにおいて、3314において、ユーザが存在するが、ユーザがディスプレイデバイス3010に関与していない(即ち非関与である)ことを示すため、新たな画像メタデータが生成される。
なお、ユーザの顔の向きが第2レベル最大回転角度を超える、または他の理由で検出不能である場合、3306で評価されるように、ユーザが存在しないと判定され得る
なお、別の実施形態において、関与または非関与を推測するために、ユーザの顔の向きが特定の閾値レベルの回転以内であるかは、SoC(例えば3002)により判定され得ることにも留意されたい。この実施形態において、メタデータは、判定された顔の向きのインジケーションを含み得、この情報は、SoCにより、ユーザがディスプレイデバイスに関与しているか非関与かを判定するために使用され得る。
図34は、複数のディスプレイコンピューティングシステム(例えば、2500)における、ディスプレイデバイス(例えば、3010)のビジョンベースのアナライザIC(例えば、3020)により生成された、新たな画像メタデータの処理に関連付けられた例示的プロセス3400の高次フローチャートである。少なくとも1つの実施形態において、動作および/または命令の組は、コンピューティングシステムがロックされた際に(例えば、不在動作モードにおいて)、コンピューティングシステムにおけるビジョンベースのアナライザIC(またはLCH)により生成された新たな画像メタデータを受信し、適用可能であれば顔起動ポリシーを適用するための例示的プロセス3400の動作に対応する。一例において、動作の少なくとも一部は、複数のディスプレイコンピューティングシステム(例えば、2500)のSoC(例えば、140、390、340、914、1840、2840A、2840B、4140、3002、2508)により実行され得る。より具体的な例において、プロセス3400の1または複数の動作は、SoCの内蔵センサハブ(例えば、392、342、1790、1842、3006)により実行され得る。
3402において、ディスプレイデバイスがオフにされ(例えば、ディスプレイパネルにバックライトが提供されない)、コンピューティングシステムがロックされると、複数のディスプレイコンピューティングシステムのSoC3002が、ディスプレイデバイス3010におけるビジョンベースのアナライザIC3020から新たな画像メタデータを受信する。少なくとも1つの実施形態において、コンピューティングシステムは、全てのディスプレイデバイスに対して不在動作モードが選択されると、ロックされ得る。
3404において、新たな画像メタデータはユーザが存在することを示すかを判定する。機械学習アルゴリズム(例えば、NNA3030)が、カメラ3014により捕捉された新たな画像の画像センサデータにおいて人間の顔を検出すると、メタデータ内にユーザが存在すると示され得る。新たな画像メタデータはユーザが存在することを示さない場合、ディスプレイデバイス3010はオフのままとなり、コンピューティングシステムはロックされたままとなる。
新たな画像メタデータはユーザが存在することを示す場合、3406において、新たな画像メタデータはユーザがディスプレイデバイスに関与していることを示すかを判定される。ユーザの顔の向き(例えば、ディスプレイデバイスへの直接ディスプレイ経路に対する)が、いずれの方向にも、第1レベル最大回転角度以下であると判定された場合、新たな画像メタデータは、ユーザがディスプレイデバイスに関与していることを示し得る。新たな画像メタデータはユーザがディスプレイデバイスに関与していることを示さない場合、ディスプレイデバイス3010はオフのままとなり、コンピューティングシステムはロックされたままとなる。しかし、複数のディスプレイコンピューティングシステムにおける別のディスプレイデバイスにユーザは関与し得る。その場合、当該別のディスプレイデバイスから受信した新たな画像メタデータ(ユーザが存在し、当該ディスプレイデバイスに関与していることを示し得る)が、SoCに認証機構をトリガさせ得る。
3406において、新たな画像メタデータはユーザがディスプレイデバイスに関与していることを示す場合、3408において、複数のディスプレイコンピューティングシステムにおける別のディスプレイデバイスが、既にSoC3002に認証機構をトリガさせたかが判定され得る。されている場合、ユーザが別のディスプレイデバイスを通じて認証されるまで、ディスプレイデバイス3010はオフのままとなる。
3408において、既にSoC3002に認証機構をトリガさせた別のディスプレイデバイスが、複数のディスプレイコンピューティングシステム内に存在しないと判定された場合、3410において、顔起動ポリシーが呼び出され得、SoCはディスプレイデバイス3010上に認証機構をトリガできる。ユーザがディスプレイデバイス3010を通じて認証されるまで、複数のディスプレイコンピューティングシステムの別のディスプレイデバイスはオフのままにできる。
図35は、複数のディスプレイコンピューティングシステム(例えば、2500)における、ディスプレイデバイス(例えば、3010)のビジョンベースのアナライザIC(例えば、3020)により生成された、新たな画像メタデータの処理に関連付けられた例示的プロセス3500の高次フローチャートを示す。少なくとも1つの実施形態において、動作の組は、ディスプレイデバイスが関与動作モードにある場合に(例えば、ディスプレイデバイスのディスプレイパネルが初期明るさを有する)、新たな画像メタデータを受信し、適用可能であれば、減光ポリシーまたは不在時ロックポリシーを呼び出すための例示的プロセス3500の動作に対応する。一例において、動作の少なくとも一部は、複数のディスプレイコンピューティングシステム(例えば、2500)のSoC(例えば、140、390、340、914、1840、2840A、2840B、4140、3002、2508)により実行され得る。より具体的な例において、プロセス3400の1または複数の動作は、SoCの内蔵センサハブ(例えば、392、342、1790、1842、3006)により実行され得る。
3502において、ディスプレイデバイスが関与動作モードにある際に(例えば、ディスプレイデバイスのディスプレイパネルが初期明るさを有する)、複数のディスプレイコンピューティングシステムのSoC3002が、ディスプレイデバイス3010におけるビジョンベースのアナライザIC3020から新たな画像メタデータを受信する。
3504において、新たな画像メタデータはユーザが存在することを示すかを判定する。新たな画像メタデータはユーザが存在することを示す場合、3506において、新たな画像メタデータはユーザがディスプレイデバイスに関与していることを示すかを判定される。ユーザがディスプレイデバイスに関与している場合、ユーザの顔の向きは、第1レベル領域内にあり得る(例えば、いずれの方向にも、第1レベル最大回転角度以下)。新たな画像メタデータはユーザがディスプレイデバイスに関与していることを示す場合、3508において示すように、ディスプレイデバイスは関与動作モードに留まる(例えば、フルディスプレイ明るさまたは初期ディスプレイ明るさ)。
3506において、新たな画像メタデータはユーザがディスプレイデバイス3010に関与していることを示さないと判定された場合、3510において、新たな画像メタデータはユーザがディスプレイデバイスに非関与である(しかし存在する)と示すかを判定される。ユーザが非関与である(しかし存在する)と判定された場合、3514において、適応減光ポリシーが呼び出され得、ディスプレイデバイス3010に対して通常減光動作モードが選択可能である。一例において、通常減光動作モードは、ディスプレイデバイス3010のディスプレイパネルのバックライトを、所定の最低レベルの明るさに達するまで、所定の明るさのパーセンテージで低減され得る。例えば、ディスプレイパネルの明るさは、5秒経過後に5パーセント(5%)低減され得、20パーセント(20%)に達するまで、毎秒5パーセント(5%)低減され得る。ディスプレイパネルは、ユーザイベントが発生するまで、20パーセント(20%)の明るさに維持され得る。
3510において、新たな画像メタデータはユーザが存在するが、関与していないまたは非関与であることを示すと判定された場合、ユーザの顔の向きは第3レベル領域にあり得る(例えば、いずれの方向にも、第2レベル最大回転角度を超える)。したがって、ユーザの顔は検出不能であり得る。このシナリオにおいて、異なるユーザには、異なる手法が望ましくなり得る。最初に、3512において、積極的適応減光ポリシーが呼び出され得、ディスプレイデバイス3010に対して積極的減光動作モードが選択可能である。1つの可能な実装(またはシステム/ユーザ構成)において、積極的減光動作モードは、バックライトがオフになるまで、明るさを所定のパーセンテージでディスプレイデバイス3010のディスプレイパネルのバックライトを低減し得る。例えば、ディスプレイパネルの明るさは、5秒経過後に20パーセント(20%)低減され得、0パーセント(0%)に達し、バックライトをオフにできるまで、毎秒1パーセント(1%)低減され得る。別の可能な実装(またはシステム/ユーザ構成)において、積極的減光動作モードは、バックライトが所定の最低レベルの明るさに低減されるまで、明るさを所定のパーセンテージでディスプレイデバイス3010のディスプレイパネルのバックライトを低減し得る。バックライトが最終的にオフになる実装において、ユーザの存在時に、たとえユーザの顔が検出不能でも、コンピューティングシステムがロックされないように、存在時非ロックポリシーが呼び出され得る(本明細書でさらに説明する)。ただし、他の実装において、システムは、ユーザの顔が検出されなければ(例えば、ユーザの顔の向きが第3レベル領域内)であれば、バックライトがオフになった後にロックするように構成され得る。
再度3504を参照すると、新たな画像メタデータはユーザが存在することを示さない場合、3520において、不在時ロックポリシーが呼び出されるべきか評価され得る。3520において、複数のディスプレイコンピューティングシステムにおける他のディスプレイデバイスのそれぞれから受信した、最後の画像メタデータはユーザが存在しないことを示すかを判定される。示す場合、3522において、不在時ロックポリシーは呼び出され得、不在動作モードがディスプレイデバイス3010に対して選択され得る。不在動作モードが選択されると、ディスプレイデバイスがオフにされ、バックライトが提供されない。ディスプレイデバイス3010に対して不在動作モードが選択され、全ての他のディスプレイデバイスが既に不在動作モード(または積極的減光動作モード)にある場合、コンピューティングシステムのSoCはロックし、ユーザはコンピューティングシステムをアンロックして使用するためには再度認証されなければならない。
3520で、コンピューティングシステムにおける他のディスプレイデバイスのうちの少なくとも1つからの最後の画像メタデータはユーザが存在することを示すと判定された場合、3539において、積極的適応減光ポリシーが呼び出され得、上述のようにディスプレイデバイス3010に対して積極的減光動作モードが選択可能である。
図36は、複数のディスプレイコンピューティングシステム(例えば、2500)における、ディスプレイデバイス(例えば、3010)のビジョンベースのアナライザIC(例えば、3020)により生成された、新たな画像メタデータの処理に関連付けられた例示的プロセス3600の高次フローチャートを示す。少なくとも1つの実施形態において、動作の組は、ディスプレイデバイスが通常または積極的減光動作モードにある際に、新たな画像メタデータを受信するための例示的プロセス3600の動作に対応する。一例において、動作の少なくとも一部は、複数のディスプレイコンピューティングシステム(例えば、2500)のSoC(例えば、140、390、340、914、1840、2840A、2840B、4140、3002、2508)により実行され得る。より具体的な例において、プロセス3600の1または複数の動作は、SoCの内蔵センサハブ(例えば、392、342、1790、1842、3006)により実行され得る。
3602において、ディスプレイデバイスが減光動作モードにある際に、複数のディスプレイコンピューティングシステムのSoC3002が、ディスプレイデバイス3010におけるビジョンベースのアナライザIC3020から新たな画像メタデータを受信する。
3604において、新たな画像メタデータはユーザが存在することを示すかを判定する。新たな画像メタデータはユーザが存在することを示す場合、3606において、新たな画像メタデータはユーザがディスプレイデバイスに関与していることを示すかを判定される。新たな画像メタデータはユーザがディスプレイデバイスに関与していることを示す場合、3608において、ディスプレイデバイスに対する減光動作モードが関与動作モードに変更される。したがって、ディスプレイデバイス3010のディスプレイパネルの明るさが、フルまたは初期ディスプレイ明るさまで増加され得る。
3606において、新たな画像メタデータはユーザがディスプレイデバイス3010に関与していることを示さないと判定された場合、3610において、新たな画像メタデータはユーザがディスプレイデバイスに非関与であることを示すかを判定される。新たな画像メタデータはユーザが非関与である(しかし存在する)と示す場合、ユーザの顔の向きは、第2レベル領域内にあり得る(例えば、いずれの方向にも、第1レベル最大回転角度を超えるが、第2レベル最大回転角度以下)。このシナリオにおいて、3614で、ディスプレイデバイス3010は、本明細書で上述したように、適応減光動作モードに留まる。
3610において、新たな画像メタデータはユーザが非関与でないと(しかし存在する)示すと判定される場合、ユーザの顔の向きは第3レベル領域にあり得る(例えば、いずれの方向にも、第2レベル最大回転角度を超える)。したがって、ユーザの顔は検出不能であり得る。このシナリオにおいて、3612で、ディスプレイデバイスが現在通常適応減光動作モードであれば、本明細書で上述したように、積極的適応減光動作モードがディスプレイデバイス3010に対して選択可能である。あるいは、積極的適応減光動作モードがディスプレイデバイス3010に対して既に選択されている場合、それが選択されたままとなる。
再度3604を参照すると、新たな画像メタデータはユーザが存在することを示さない場合、処理は、本明細書で上述したように、不在時ロックポリシーが呼び出されるべきか評価するため、(A)が示すように図35の処理3500に進み得る。
図37は、複数のディスプレイコンピューティングシステム(例えば、2500)のディスプレイデバイス(例えば、3010)に対する非アクティブタイムアウト処理に関連付けられた例示的プロセス3700の高次フローチャートである。少なくとも1つの実施形態において、動作および/または命令の組は、ディスプレイデバイスのビジョンベースのアナライザIC(またはLCH)により生成された画像メタデータを評価し、適用可能であれば、存在時非ロックポリシーを適用する例示的プロセス3700の動作に対応する。一例において、動作の少なくとも一部は、複数のディスプレイコンピューティングシステム(例えば、2500)のSoC(例えば、140、390、340、914、1840、2840A、2840B、4140、3002、2508)により実行され得る。より具体的な例において、プロセス3700の1または複数の動作は、SoCの内蔵センサハブ(例えば、392、342、1790、1842、3006)により実行され得る。
3702において、ディスプレイデバイス3010に対するディスプレイロックタイマが満了する。3704で、ディスプレイデバイスからの最後の画像メタデータがアクセスされる。1または複数の実施形態において、複数のディスプレイコンピューティングシステムにおける各ディスプレイデバイスの最後の画像メタデータは、より新しいバージョンの画像データが受信され、現在格納されている画像メタデータを置き換えるまで、任意の適切なメモリまたはストレージユニットに格納され得る。
3706において、ディスプレイデバイス3010からの最後の画像メタデータはユーザが存在することを示すかを判定する。3706において、ディスプレイデバイス3010の最後の画像メタデータはユーザが存在することを示すと判定された場合、3710において、ディスプレイデバイス3010からの最後の画像メタデータはユーザが関与している、または非関与であることを示すかを判定される。例えば、新たな画像メタデータはユーザが非関与である(しかし存在する)と示す場合、ユーザの顔の向きは、第2レベル領域内にあり得る(例えば、いずれの方向にも、第1レベル最大回転角度を超えるが、第2レベル最大回転角度以下)。あるいは、最後の画像メタデータはユーザがディスプレイデバイスに関与していることを示す場合、ユーザの顔の向きは、第1レベル領域内にあり得る(例えば、いずれの方向にも、第1レベル最大回転角度以下)。これらシナリオのいずれでも、ユーザはまだ存在しており、3712において、存在時非ロックポリシーが呼び出され得、ディスプレイデバイス3010がロックされることを防止するように非アクティブモニタをオーバーライドすることができる。その代わりに、ディスプレイデバイス3010は現在選択されているモードが何であれ、それにとどまる(例えば、関与動作モード、適応減光動作モード)。
3706において、ディスプレイデバイス3010の最後の画像メタデータはユーザが存在しないことを示すと判定された場合、または3710において、ディスプレイデバイス3010の最後の画像メタデータはユーザがディスプレイデバイスに関与せず、非関与でもないことを示すと判定された場合(即ち、ユーザが存在し、しかし顔は検出不能である)、3708において、ディスプレイデバイスに対して不在動作モードが選択され得、ディスプレイデバイスがオフにされ得(例えば、バックライトがオフにされ)、コンピューティングシステムがロックされ得る。さらに、ディスプレイデバイス3010用のロックタイマがリセットされ得る。
以下の例は、本明細書に係る実施形態に関する。例DA1は、第1ディスプレイデバイス内にあり、第1カメラに通信可能に結合された第1回路機構であって、上記第1カメラにより捕捉された第1画像センサデータに基づいて第1画像メタデータを生成する、第1回路機構と、第2ディスプレイデバイス内にあり、第2カメラに通信可能に結合された第2回路機構であって、上記第2カメラの第2視野から上記第2カメラにより捕捉された第2画像センサデータに基づいて第2画像メタデータを生成し、上記第1視野と上記第2視野とは部分的に重複する、第2回路機構と、上記第1ディスプレイデバイスおよび上記第2ディスプレイデバイスに動作結合されたプロセッサであって、上記第1画像メタデータに基づいて、第1動作モードを上記第1ディスプレイデバイスに対して選択し、上記第2画像メタデータに基づいて、第2動作モードを上記第2ディスプレイデバイスに対して選択するプロセッサと、を含む、コンピューティングシステムを提供する。
例DA2は、例DA1の主題を含み、上記コンピューティングシステムは、第3ディスプレイデバイス内の第3回路機構をさらに含み、上記第2回路機構は、第3カメラおよび上記プロセッサに結合され、上記第3回路機構は、第3視野から上記第3カメラにより捕捉された第3画像センサデータに基づいて第3画像メタデータを生成し、上記プロセッサは、上記第3ディスプレイデバイスから上記第3画像メタデータを受信し、上記第3画像メタデータに基づいて、第3動作モードを上記第3ディスプレイデバイスに対して選択する。
例DA3は、例DA1からDA2のいずれか1つの主題を含み、上記第1回路機構は、上記第1画像センサデータ内にユーザの顔を検出し、上記第1画像センサデータ内に上記ユーザの顔を検出したことに基づいて、上記第1カメラの上記第1視野において上記ユーザが存在すると判定し、上記ユーザの顔の第1向きを、上記第1画像センサデータに基づき判定し、上記ユーザの顔の上記第1向きに少なくとも部分的に基づいて、上記ユーザが上記第1ディスプレイデバイスに関与しているか非関与かを判定するようにさらに構成される。
例DA4は、例DA3の主題を含み、上記ユーザの顔と、上記第1ディスプレイデバイスとの間の第1経路に対して、いずれの方向にも、第1最大回転角度を超えて上記ユーザの顔が回転されていないという判定に基づいて、上記ユーザは、上記第1ディスプレイデバイスに関与していると判定される。
例DA5は、例DA3からDA4のいずれか1つの主題を含み、上記ユーザが上記第1ディスプレイデバイスに関与しているという判定に基づいて、上記第1画像メタデータは、上記ユーザが上記第1ディスプレイデバイスに関与していることを示す。
例DA6は、例DA3からDA5のいずれか1つの主題を含み、上記第2回路機構は、上記第2画像センサデータ内に上記ユーザの顔を検出し、上記第2画像センサデータ内に上記ユーザの顔を検出したことに基づいて、上記第2カメラの上記第2視野において上記ユーザが存在すると判定し、上記ユーザの顔の第2向きを、上記第2画像センサデータに基づき判定し、上記ユーザの顔の上記第2向きに少なくとも部分的に基づいて、上記ユーザが上記第2ディスプレイデバイスに関与しているか非関与かを判定するように構成される。
例DA6.5は、例DA6の主題を含み、上記ユーザの顔と、上記第2ディスプレイデバイスとの間の第2経路に対して、いずれの方向にも、第1最大回転角度を超えているが第2回転角度以下で、上記ユーザの顔が回転されているという判定に基づいて、上記ユーザは、上記第2ディスプレイデバイスに非関与であると判定される。
例DA7は、例DA6からDA6.5のいずれか1つの主題を含み、上記ユーザが上記第2ディスプレイデバイスに非関与であるという判定に基づいて、上記第2画像メタデータは、上記ユーザが上記第2ディスプレイデバイスに非関与であることを示す。
例DA8は、例DA6からDA7のいずれか1つの主題を含み、上記第1回路機構は、上記第1画像センサデータ内に上記ユーザの顔を検出し、上記ユーザの顔の上記第1向きを判定するため、機械学習アルゴリズムを実行するようにさらに構成され、上記第2回路機構は、上記第2画像センサデータ内に上記ユーザの顔を検出し、上記ユーザの顔の上記第2向きを判定するため、上記機械学習アルゴリズムを実行するようにさらに構成される。
例DA9は、例DA8の主題を含み、上記機械学習アルゴリズムは、人間の顔および人間の顔の向きを認識するように訓練された1または複数のニューラルネットワークを含む。
例DA10は、例DA1からDA9のいずれか1つの主題を含み、上記プロセッサは、上記第1画像メタデータはユーザが存在することと、上記ユーザが上記第1ディスプレイデバイスに関与していることを示すと判定し、上記コンピューティングシステムへのアクセスがロックされたことを判定し、現在上記第2ディスプレイデバイス上で認証機構が稼働していないことを判定し、上記認証機構による、上記第1ディスプレイデバイスを介した上記ユーザの認証をトリガし、上記ユーザが認証されるまで、上記第2ディスプレイデバイスをオフのままとするようにさらに構成される。
例DA11は、例DA1からDA10のいずれか1つの主題を含み、上記プロセッサは、上記第2画像メタデータはユーザが存在することと、上記ユーザが上記第2ディスプレイデバイスに非関与であることを示すと判定し、上記ユーザが上記第2ディスプレイデバイスに非関与であるという判定に基づいて、上記第2動作モードは選択され、上記第2動作モードの選択に応じて、ユーザイベントが発生するまで、または上記バックライトが所定の最低レベルの明るさまで低減するまで、上記第2ディスプレイデバイスのディスプレイパネルに対するバックライトの明るさを、一定期間にわたって、漸次的に減少させるようにさらに構成される。
例DA12は、例DA1からDA10のいずれか1つの主題を含み、上記プロセッサは、上記第2画像メタデータは、ユーザが存在することと、上記ユーザの顔が検出可能でないことを示すと判定し、上記第2動作モードは、上記ユーザが存在し、上記ユーザの顔が検出可能でないという判定に基づいて選択され、第2動作モードの選択に応じて、ユーザイベントが発生するまで、または上記バックライトがオフになるまで、上記第2ディスプレイデバイスのディスプレイパネルに対するバックライトの明るさを、一定期間にわたって、漸次的に減少させるようにさらに構成される。
例DA13は、例DA1からDA10のいずれか1つの主題を含み、上記プロセッサは、上記第2画像メタデータはユーザが存在しないことを示すと判定し、上記プロセッサに動作結合された全ての他のディスプレイデバイスに関連付けられた最後の画像メタデータが、上記ユーザが存在しないことを示すと判定し、上記第2動作モードの選択に応じて、上記第2ディスプレイデバイスおよび上記プロセッサに動作結合された全ての他のディスプレイデバイスをオフにし、上記コンピューティングシステムをロックするようにさらに構成される。
例DA14は、例DA1からDA13のいずれか1つの主題を含み、上記プロセッサは、非アクティブのために許可された最大時間が上記第1ディスプレイデバイスに対して経過したと判定し、上記第1ディスプレイデバイスに関連付けられた最後の画像メタデータにアクセスし、上記第1ディスプレイデバイスに関連付けられた最後の画像メタデータはユーザが存在することを示すという判定に基づいて、上記第1ディスプレイデバイスがオフにされることを防止するようにさらに構成される。
例DA15は、例DA1からDA14のいずれか1つの主題を含み、上記第1画像メタデータは、上記第1カメラに関連付けられた上記第1視野においてユーザが存在するか、または存在しないか、および上記ユーザが上記第1ディスプレイデバイスに関与しているか非関与かを示す。
例DA16は、例DA1からDA14のいずれか1つの主題を含み、上記第1回路機構は、上記第1視野において第1イベントが発生したと判定し、上記第1視野において上記第1イベントが発生したとの判定に応じて、上記第1画像メタデータを上記プロセッサに送信するようにさらに構成される。
例DA17は、例DA16の主題を含み、上記第1回路機構は、上記第1画像センサデータの捕捉前に上記第1カメラにより上記第1視野から捕捉された他の画像センサデータに基づいて、上記第1画像メタデータを上記第1回路機構により以前生成された第4画像メタデータと比較することにより、上記第1イベントが発生したと判定するようにさらに構成される。
例DA18は、本明細書に上述の例DAのいずれか1つの主題を含み、例AB1からAB14のいずれか1つの特徴(これらの特徴が本明細書に上述の例DAの特徴と重複しない限り)をさらに含む。
例DB1は、第1ディスプレイデバイスおよび第2ディスプレイデバイスを含むリッドを含む、コンピューティングデバイスを備えるコンピューティングシステムを提供する。上記第1ディスプレイデバイスは、第1カメラと、上記第1カメラに通信可能に結合された第1回路機構であって、第1視野から上記第1カメラにより捕捉された第1画像センサデータに基づいて第1画像メタデータを生成する第1回路機構と、上記リッド内で上記第1回路機構に動作結合されたプロセッサであって、上記第1画像メタデータに基づいて、第1動作モードを上記第1ディスプレイデバイスに対して選択するように構成されたプロセッサと、を含む。上記第2ディスプレイデバイスは、上記コンピューティングデバイスの上記プロセッサに動作結合される。上記第2ディスプレイデバイスは、上記第2ディスプレイデバイスに関連付けられた第2カメラに通信可能に結合された第2回路機構を含み、上記第2回路機構は、第2視野から上記第2カメラにより捕捉された第2画像センサデータに基づいて第2画像メタデータを生成する。上記第1視野と上記第2視野とは部分的に重複する。上記プロセッサは、上記第2画像メタデータに基づいて、第2動作モードを上記第2ディスプレイデバイスに対して選択する。
例DB2は、例DB1の主題を含み、上記第1回路機構は、上記第1画像センサデータ内にユーザの顔を検出し、上記第1画像センサデータ内に上記ユーザの顔を検出したことに基づいて、上記第1視野において上記ユーザが存在すると判定し、上記ユーザの顔の第1向きを、上記第1画像センサデータに基づき判定し、上記ユーザの顔の上記第1向きに少なくとも部分的に基づいて、上記ユーザが上記第1ディスプレイデバイスに関与しているか非関与かを判定するように構成される。
例DB3は、例DB2の主題を含み、上記ユーザの顔と、上記第1ディスプレイデバイスとの間の経路に対して、いずれの方向にも、第1最大回転角度を超えて、上記ユーザの顔が回転されていないという判定に基づいて、上記ユーザは、上記第1ディスプレイデバイスに関与していると判定される。
例DB4は、例DB2からDB3のいずれか1つの主題を含み、上記第2回路機構は、上記第2画像センサデータ内に上記ユーザの顔を検出し、上記第2画像センサデータ内に上記ユーザの顔を検出したことに基づいて、上記第2カメラの上記第2視野において上記ユーザが存在すると判定し、上記ユーザの顔の第2向きを、上記第2画像センサデータに基づき判定し、上記ユーザの顔の上記2向きに少なくとも部分的に基づいて、上記ユーザが上記第2ディスプレイデバイスに関与しているか非関与かを判定するように構成される。
例DB4.5は、例DB4の主題を含み、上記ユーザの顔と、上記第2ディスプレイデバイスとの間の第2経路に対して、いずれの方向にも、第1最大回転角度を超えているが第2回転角度以下で、上記ユーザの顔が回転されているという判定に基づいて、上記ユーザは、上記第2ディスプレイデバイスに非関与であると判定される。
例DB5は、例DB4からDB4.5のいずれか1つの主題を含み、上記第1回路機構は、上記第1画像センサデータ内に上記ユーザの顔を検出し、上記ユーザの顔の上記第1向きを判定するため、機械学習アルゴリズムを実行するようにさらに構成され、上記第2回路機構は、上記第2画像センサデータ内に上記ユーザの顔を検出し、上記ユーザの顔の上記第2向きを判定するため、上記機械学習アルゴリズムを実行するようにさらに構成される。
例DB6は、例DB5の主題を含み、上記機械学習アルゴリズムは、人間の顔および人間の顔の向きを認識するように訓練された1または複数のニューラルネットワークを含み、上記人間の顔の向きは、回転度で表される。
例DB7は、例DB1からDB6のいずれか1つの主題を含み、上記プロセッサは、上記第1画像メタデータはユーザが存在することと、上記ユーザが上記第1ディスプレイデバイスに関与していることを示すと判定し、上記コンピューティングシステムへのアクセスがロックされたことを判定し、認証機構による、上記第1ディスプレイデバイスを介した上記ユーザの認証をトリガし、上記ユーザが認証されるまで、上記第2ディスプレイデバイスをオフのままとするようにさらに構成される。
例DB8は、例DB1からDB7のいずれか1つの主題を含み、上記プロセッサは、上記第2画像メタデータはユーザが存在することと、上記ユーザが上記第2ディスプレイデバイスに非関与であることを示すと判定し、上記ユーザが上記第2ディスプレイデバイスに非関与であるという判定に基づいて、上記第2動作モードは選択され、上記第2動作モードの選択に応じて、上記第2ディスプレイデバイスのディスプレイパネルに対するバックライトの明るさを、一定期間にわたって、漸次的に減少させるようにさらに構成される。
例DB9は、例DB1からDB7のいずれか1つの主題を含み、上記プロセッサは、上記第2画像メタデータはユーザが存在しないことを示すと判定し、上記プロセッサに動作結合された全ての他のディスプレイデバイスに関連付けられた最後の画像メタデータが、上記ユーザが存在しないことを示すと判定し、上記第2動作モードの選択に応じて、上記第2ディスプレイデバイスおよび上記プロセッサに動作結合された全ての他のディスプレイデバイスをオフにし、上記コンピューティングシステムをロックするようにさらに構成される。
例DB10は、例DB1からDB9のいずれか1つの主題を含み、上記プロセッサは、非アクティブのために許可された最大時間が上記第1ディスプレイデバイスに対して経過したと判定し、上記第1ディスプレイデバイスに関連付けられた最後の画像メタデータにアクセスし、上記第1ディスプレイデバイスに関連付けられた最後の画像メタデータはユーザが存在することを示すという判定に基づいて、上記第1ディスプレイデバイスがオフにされることを防止するようにさらに構成される。
例DB11は、例DB1からDB10のいずれか1つの主題を含み、上記第1画像メタデータは、上記第1カメラに関連付けられた第1視野においてユーザが存在するか、または存在しないか、および上記ユーザが上記第1ディスプレイデバイスに関与しているか非関与かを示す。
例DB12は、例DB1からDB10のいずれか1つの主題を含み、上記第1回路機構は、上記第1視野において第1イベントが発生したと判定し、上記第1視野において上記第1イベントが発生したとの判定に応じて、上記第1画像メタデータを上記プロセッサに送信するようにさらに構成される。
例DB13は、例DB12の主題を含み、上記第1回路機構は、上記第1画像センサデータの捕捉前に上記第1カメラにより上記第1視野から捕捉された他の画像センサデータに基づいて、上記第1画像メタデータを上記第1回路機構により以前生成された第3画像メタデータと比較することにより、上記第1イベントが発生したと判定するようにさらに構成される。
例DB14は、例DB1からDB13のいずれか1つの主題を含み、上記第2ディスプレイデバイスは、ドッキングステーションを介して上記コンピューティングデバイスに動作結合されている。
例DB15は、本明細書に上述の例DBのいずれか1つの主題を含み、例AB1からAB14のいずれか1つの特徴(これらの特徴が本明細書に上述の例DBの特徴と重複しない限り)をさらに含む。
例DC1は、外部モニタに関連付けられたカメラに通信可能に結合されるように構成された回路機構と、上記外部モニタに動作結合されたコンピューティングデバイスと、を含む装置を提供し、上記回路機構は、上記カメラの視野から捕捉された画像センサデータを受信し、上記画像センサデータ内にユーザの顔を検出し、上記画像センサデータ内に上記ユーザの顔を検出したことに基づいて、上記カメラの上記視野において上記ユーザが存在すると判定し、上記ユーザの顔の向きを判定し、上記ユーザの顔の向きに少なくとも部分的に基づいて、上記ユーザが上記外部モニタに関与しているか非関与かを判定し、上記カメラの上記視野において上記ユーザが存在することを示し、上記ユーザが上記外部モニタに関与しているか非関与かをさらに示す画像メタデータを生成し、上記画像メタデータを上記コンピューティングデバイスのプロセッサに送信する。
例DC2は、例DC1の主題を含み、上記ユーザの顔の向きは、上記ユーザの顔と、上記外部モニタとの間の経路に対して判定される。
例DC3は、例DC1からDC2のいずれか1つの主題を含み、上記回路機構は、上記ユーザの顔の向きに基づいて、第1最大回転角度を超えて上記ユーザの顔が回転されていないと判定するようにさらに構成され、上記第1最大回転角度を超えて上記ユーザの顔が回転されていないという判定に基づいて、上記画像メタデータは、上記ユーザが上記外部モニタに関与していることを示す。
例DC4は、例DC1からDC2のいずれか1つの主題を含み、上記回路機構は、上記ユーザの顔の向きに基づいて、第1最大回転角度を超えているが第2最大回転角度以下で、上記ユーザの顔が回転されていると判定するようにさらに構成され、第1最大回転角度を超えているが第2最大回転角度以下で、上記ユーザの顔が回転されているという判定に基づいて、上記画像メタデータは、上記ユーザが上記外部モニタに非関与であることを示す。
例DC5は、例DC1からDC2のいずれか1つの主題を含み、上記回路機構は、上記ユーザの顔の向きに基づいて、第2最大回転角度を超えて上記ユーザの顔が回転されていると判定するようにさらに構成され、第2最大回転角度を超えて上記ユーザの顔が回転されているという判定に基づいて、上記画像メタデータは、上記ユーザが存在し、上記ユーザの顔が検出不能であることを示す。
例DC6は、例DC1からDC5のいずれか1つの主題を含み、上記回路機構は、上記画像センサデータ内に上記ユーザの顔を検出し、上記ユーザの顔の向きを判定するため、機械学習アルゴリズムを実行するようにさらに構成される。
例DC7は、例DC6の主題を含み、上記機械学習アルゴリズムは、人間の顔および人間の顔の向きを認識するように訓練された1または複数のニューラルネットワークを含み、上記人間の顔の向きは、回転度で表される。
例DC8は、例DC1からDC7のいずれか1つの主題を含み、上記回路機構は、上記コンピューティングデバイス外にある。
例DC9は、例DC1からDC8のいずれか1つの主題を含み、上記外部モニタは、ドッキングステーションを介して上記コンピューティングデバイスに接続されている。
例DC10は、例DC1からDC9のいずれか1つの主題を含み、上記回路機構および上記カメラは、上記外部モニタに内蔵されるか、上記外部モニタに取り外し可能に接続されるかのいずれかである。
例DD1は、第1ディスプレイデバイスおよび第2ディスプレイデバイスに動作結合されたプロセッサを含む装置を提供し、上記プロセッサは、上記第1ディスプレイデバイスに近接する第1視野から第1カメラにより捕捉された第1画像に関連付けられた第1画像メタデータを受信し、上記第1画像メタデータは、上記第1視野においてユーザが存在し、上記ユーザが上記第1ディスプレイデバイスに関与していることを示すと判定し、上記第2ディスプレイデバイスに近接する第2視野から第2カメラにより捕捉された第2画像に関連付けられた第2画像メタデータを受信し、上記第2画像メタデータは、上記第2視野において上記ユーザが存在し、上記ユーザが上記第2ディスプレイデバイスに非関与であることを示すと判定し、上記第1画像メタデータに少なくとも部分的に基づいて、第1動作モードを上記第1ディスプレイデバイスに対して選択し、上記第2画像メタデータに少なくとも部分的に基づいて、第2動作モードを上記第2ディスプレイデバイスに対して選択する1または複数の命令を実行する。
例DD2は、例DD1の主題を含み、上記プロセッサは、さらに、上記プロセッサを含むコンピューティングシステムへのアクセスがロックされたことを判定し、現在上記第2ディスプレイデバイス上で認証機構が稼働していないことを判定し、上記認証機構による、上記第1ディスプレイデバイスを介した上記ユーザの認証をトリガし、上記ユーザが認証されるまで、上記第2ディスプレイデバイスをオフのままとするように上記1または複数の命令を実行する。
例DD3は、例DD1からDD2のいずれか1つの主題を含み、上記プロセッサは、さらに、上記第2画像メタデータは上記ユーザが上記第2ディスプレイデバイスに非関与であることを示すと判定し、上記第2ディスプレイデバイスのディスプレイパネルに対するバックライトの明るさを、一定期間にわたって、漸次的に減少させるように上記1または複数の命令を実行する。
例DD4は、例DD3の主題を含み、上記バックライトが所定の最低レベルの明るさまで低減するまで、またはオフになるまで、上記バックライトの明るさを漸次的に減少させる。
例DD5は、例DD1からDD4のいずれか1つの主題を含み、上記プロセッサは、さらに、上記プロセッサに動作結合された第3ディスプレイデバイスに近接する第3視野から第3カメラにより捕捉された第3画像に関連付けられた第3画像メタデータを受信し、上記第3画像メタデータは、上記第3視野において上記ユーザが存在しないことを示すと判定し、上記第1ディスプレイデバイスに関連付けられた最後の画像メタデータが、上記第1視野において上記ユーザが存在しないことを示し、上記第2ディスプレイデバイスに関連付けられた最後の画像メタデータが、上記第2視野において上記ユーザが存在しないことを示すと判定し、第3動作モードを上記第3ディスプレイデバイスに対して選択し、上記第3動作モードの選択に応じて、上記第3ディスプレイデバイス、上記第1ディスプレイデバイス、および上記第2ディスプレイデバイスをオフにし、上記プロセッサを含むコンピューティングシステムをロックする上記1または複数の命令を実行する。
例DD5.1は、例DD1からDD6のいずれか1つの主題を含み、上記ユーザの顔と、上記第1ディスプレイデバイスとの間の第1経路に対して、いずれの方向にも、第1最大回転角度を超えて、上記ユーザの顔が回転されていないという判定に基づいて、上記ユーザは、上記第1ディスプレイデバイスに関与していると判定される。
例DD5.2は、例DD1からDD6.1のいずれか1つの主題を含み、上記ユーザの顔と、上記第2ディスプレイデバイスとの間の第2経路に対して、いずれの方向にも、第1最大回転角度を超えているが第2最大回転角度未満で、上記ユーザの顔が回転されているという判定に基づいて、上記ユーザは、上記第1ディスプレイデバイスに非関与であると判定される。
例DD6は、例DD1からDD5.2のいずれか1つの主題を含み、上記プロセッサは、さらに、非アクティブのために許可された最大時間が上記第1ディスプレイデバイスに対して経過したと判定し、上記第1ディスプレイデバイスに関連付けられた最後の画像メタデータにアクセスし、上記第1ディスプレイデバイスに関連付けられた最後の画像メタデータが、上記ユーザが存在することを示すという判定に基づいて、上記第1ディスプレイデバイスがオフにされることを防止する上記1または複数の命令を実行する。
例DE1は、第1カメラに結合された第1回路機構によって、第1ディスプレイデバイスに近接した第1視野から上記第1カメラにより捕捉された第1画像センサデータに基づいて第1画像メタデータを生成する段階と、第2カメラに結合された第2回路機構によって、第2ディスプレイデバイスに近接した第2視野から上記第2カメラにより捕捉された第2画像センサデータに基づいて第2画像メタデータを生成する段階であって、上記第1視野と上記第2視野とは部分的に重複する、生成する段階と、コンピューティングデバイスのプロセッサによって、上記第1回路機構からの上記第1画像メタデータおよび上記第2回路機構からの上記第2画像メタデータを受信する段階と、上記プロセッサによって、上記第1画像メタデータに基づいて、第1動作モードを上記第1ディスプレイデバイスに対して選択する段階と、上記プロセッサによって、上記第2画像メタデータに基づいて、第2動作モードを上記第2ディスプレイデバイスに対して選択する段階と、を含む方法を提供する。
例DE2は、例DE1の主題を含み、上記方法は、上記第1画像センサデータ内にユーザの顔を検出する段階と、上記第1画像センサデータ内に上記ユーザの顔を検出したことに基づいて、上記第1カメラの上記第1視野において上記ユーザが存在すると判定する段階と、上記ユーザの顔の第1向きを、上記第1画像センサデータに基づき判定する段階と、上記ユーザの顔の上記第1向きに少なくとも部分的に基づいて、上記ユーザが上記第1ディスプレイデバイスに関与しているか非関与かを判定する段階と、をさらに含む。
例DE3は、例DE2の主題を含み、上記方法は、上記ユーザの顔と、上記第1ディスプレイデバイスとの間の第1経路に対して、いずれの方向にも、第1最大回転角度を超えて、上記ユーザの顔が回転されていないという判定に基づいて、上記ユーザが上記第1ディスプレイデバイスに関与していると判定する段階をさらに含む。
例DE4は、例DE2からDE3のいずれか1つの主題を含み、上記ユーザが上記第1ディスプレイデバイスに関与しているという判定に基づいて、上記第1画像メタデータは、上記ユーザが上記第1ディスプレイデバイスに関与していることを示すために生成される。
例DE5は、例DE2からDE4のいずれか1つの主題を含み、上記第2回路機構は、上記第2画像センサデータ内に上記ユーザの顔を検出し、上記第2画像センサデータ内に上記ユーザの顔を検出したことに基づいて、上記第2カメラの上記第2視野において上記ユーザが存在すると判定し、上記ユーザの顔の第2向きを、上記第2画像センサデータに基づき判定し、上記ユーザの顔の上記第2向きに少なくとも部分的に基づいて、上記ユーザが上記第2ディスプレイデバイスに関与しているか非関与かを判定する。
例DE5.5は、例DE5の主題を含み、上記方法は、上記ユーザの顔と、上記第2ディスプレイデバイスとの間の第2経路に対して、いずれの方向にも、第1最大回転角度を超えているが第2最大回転角度以下で、上記ユーザの顔が回転されているという判定に基づいて、上記ユーザが上記第2ディスプレイデバイスに非関与であると判定する段階をさらに含む。
例DE6は、例DE5からDE5.5のいずれか1つの主題を含み、上記ユーザが上記第2ディスプレイデバイスに非関与であるという判定に基づいて、上記第2画像メタデータは、上記ユーザが上記第2ディスプレイデバイスに非関与であることを示すために生成される。
例DE7は、例DE5からDE6のいずれか1つの主題を含み、上記第2画像センサデータ内に上記ユーザの顔を検出する段階および上記ユーザの顔の上記第2向きを判定する段階は、1または複数の機械学習アルゴリズムを実行する段階を含み、上記第1画像センサデータ内に上記ユーザの顔を検出する段階および上記ユーザの顔の上記第1向きを判定する段階は、1または複数の機械学習アルゴリズムを実行する段階を含む。
例DE8は、例DE7の主題を含み、上記1または複数の機械学習アルゴリズムは、人間の顔および人間の顔の向きを認識するように訓練された1または複数のニューラルネットワークを含む。
例DE9は、例DE1からDE8のいずれか1つの主題を含み、上記方法は、上記第1画像メタデータはユーザが存在することと、上記ユーザが上記第1ディスプレイデバイスに関与していることを示すと判定する段階と、上記プロセッサを含むコンピューティングシステムへのアクセスがロックされたことを判定する段階と、現在上記第2ディスプレイデバイス上で認証機構が稼働していないことを判定する段階と、上記認証機構による、上記第1ディスプレイデバイスを介した上記ユーザの認証をトリガする段階と、上記ユーザが認証されるまで、上記第2ディスプレイデバイスをオフのままとする段階と、をさらに含む。
例DE10は、例DE1からDE9のいずれか1つの主題を含み、上記方法は、上記第2画像メタデータは、ユーザが存在することと、上記ユーザが上記第2ディスプレイデバイスに非関与であることを示すと判定する段階であって、上記第2動作モードを選択する段階は、上記ユーザが上記第2ディスプレイデバイスに非関与であるという判定に基づく、判定する段階と、上記第2動作モードの選択に応じて、上記第2ディスプレイデバイスのディスプレイパネルに対するバックライトの明るさを、一定期間にわたって、漸次的に減少させる段階をさらに含む。
例DE11は、例DE10の主題を含み、上記バックライトが所定の最低レベルの明るさまで低減するまで、またはオフになるまで、上記バックライトの明るさを漸次的に減少させる。
例DE12は、例DE1からDE9のいずれか1つの主題を含み、上記方法は、上記第2画像メタデータは、ユーザが存在することと、上記ユーザの顔が検出可能でないことを示すと判定する段階であって、上記第2動作モードを選択する段階は、上記ユーザが存在し、上記ユーザの顔が検出可能でないという判定に基づく、判定する段階と、上記第2動作モードの選択に応じて、ユーザイベントが発生するか、または上記バックライトがオフにされるまで、上記第2ディスプレイデバイスのディスプレイパネルに対するバックライトの明るさを、一定期間にわたって、漸次的に減少させる段階と、をさらに含む。
例DE13は、例DE1からDE9のいずれか1つの主題を含み、上記方法は、上記第2画像メタデータはユーザが存在しないことを示すと判定する段階と、上記第1ディスプレイデバイスに関連付けられた最後の画像メタデータが、上記ユーザが存在しないことを示すと判定する段階と、上記第2動作モードの選択に応じて、上記第1ディスプレイデバイスおよび上記第2ディスプレイデバイスをオフにする段階と、上記プロセッサを含むコンピューティングシステムをロックする段階と、をさらに含む。
例DE14は、例DE1からDE13のいずれか1つの主題を含み、上記方法は、非アクティブのために許可された最大時間が上記第1ディスプレイデバイスに対して経過したと判定する段階と、上記第1ディスプレイデバイスに関連付けられた最後の画像メタデータにアクセスする段階と、上記第1ディスプレイデバイスに関連付けられた最後の画像メタデータはユーザが存在することを示すという判定に基づいて、上記第1ディスプレイデバイスがオフにされることを防止する段階と、をさらに含む。
例DE15は、例DE1からDE14のいずれか1つの主題を含み、上記第1画像メタデータは、上記第1カメラに関連付けられた上記第1視野においてユーザが存在するか、または存在しないか、および上記ユーザが上記第1ディスプレイデバイスに関与しているか非関与かを示す。
例DE16は、例DE1からDE14のいずれか1つの主題を含み、上記方法は、上記第1視野において第1イベントが発生したと判定する段階と、上記第1視野において上記第1イベントが発生したとの判定に応じて、上記第1回路機構から、上記第1画像メタデータを上記プロセッサに送信する段階と、をさらに含む。
例DE17は、例DE16の主題を含み、上記方法は、上記第1画像センサデータの捕捉前に上記第1カメラにより上記第1視野から捕捉された他の画像センサデータに基づいて、上記第1画像メタデータを上記第1回路機構により以前生成された第3画像メタデータと比較することにより、上記第1イベントが発生したと判定する段階をさらに含む。
例DE18は、本明細書に上述の例DEのいずれか1つの主題を含み、例AA1からAA16のいずれか1つの方法の要素(これらの方法要素が本明細書に上述の例DEの方法要素と重複しない限り)をさらに含む。
例DF1は、例DE1からDE17のいずれか1つの方法を実行する手段を含む装置を提供する。
例DF2は、例DF1の主題を含み、上記方法を実行する上記手段は、少なくとも1つのプロセッサおよび少なくとも1つのメモリ要素を含む。
例DF3は、例DF2の主題を含み、上記少なくとも1つのメモリ要素は機械可読命令を含み、上記命令は、実行されると、上記装置に上述のいずれか1つの例の方法を実行させる。
例DF4は、例DF1からDF3のいずれか1つの主題を含み、上記装置は、コンピューティングシステム、処理要素、またはシステム・オン・チップのうちの1つである。
例DG1は、命令を含む少なくとも1つの機械可読ストレージ媒体を提供し、上記命令は、実行されると、装置を実現し、コンピューティングシステムを実現し、または上述のいずれか1つの例に記載の方法を実装する。
タッチ体験向上
上述のように、リッドコントローラハブは、タッチセンサデータのオペレーティングシステムへの送信と、ディスプレイリフレッシュレートとの同期を可能とする。この同期は、スムーズなタッチ体験を実現する。フレームが、ディスプレイリフレッシュ間の時間と同じ時間間隔で収集されたタッチセンサデータに基づいてレンダリング可能であるためである。ユーザが、その指で、ディスプレイを横切るように一定の速度でアイコンを動かすことを考える。オペレーティングシステムへのタッチセンサデータ送信が、ディスプレイリフレッシュレートと同期していれば、アイコンは、スクリーンリフレッシュ毎に、実質的に同じ距離、ディスプレイを横切るように移動し、アイコンはディスプレイを横切ってスムーズに移動するように見える。同期がなければ、連続したフレームにおけるアイコンが移動する距離は異なる可能性があり、アイコンの移動は、同期的手法よりも断続的に見え得る。
いくつかの既存アプリケーションは、この非同期に対応するため、使用前にタッチセンサデータの平滑化を行う。しかし、そのような調整は、アプリケーションレベルで実行され、アプリケーションの全てが使用前にタッチセンサデータを平滑化しなくてもよい。リッドコントローラハブによるタッチセンサデータの調整は、デバイスレベルでのタッチセンサデータの調整を実現する。調整されたタッチセンサデータは、LCHによりオペレーティングシステムに送信され、これによりオペレーティングシステムと、コンピューティングデバイス上で動作するアプリケーションにより利用可能になる。したがって、リッドコントローラハブは、少なくとも2つの方法で、全アプリケーション間で、ユーザに向上したタッチ体験を提供する、デバイスレベル機能を可能とする。即ち、タッチセンサデータのオペレーティングシステムへの送信と、ディスプレイリフレッシュレートとの同期、およびタッチセンサデータをオペレーティングシステムに送信する前に調整することである。
一般的に、タッチセンサデータの送信と、ディスプレイリフレッシュレートとの同期は、以下のとおりに実行できる。タッチディスプレイコントローラ(例えば、165、285、385)は、タッチディスプレイ(例えば、145、280、380、926、2140)でのタッチインタラクション開始を検出し、タッチセンサデータをLCHに提供する。ディスプレイがリフレッシュされる前の或る時点で、LCH(例えば、155、260、305、954、1705)は、今後のリフレッシュの通知を受信する。この通知は、表示サブシステム、またはタイミングコントローラ(例えば、タイミングコントローラ150、400、355、944、1706、2100)などの表示サブシステムのコンポーネントから来得る。LCHは、タッチコントローラから受信したタッチセンサデータに基づいて、調整されたタッチセンサデータを生成し、調整されたタッチセンサデータをオペレーティングシステムに送信する。調整されたタッチセンサデータは、調整されたタッチ位置データを、いくつかの実施形態においては調整されたタッチ強度データを含み得る。調整されたタッチセンサデータをオペレーティングシステムに送信することは、データをリッド(例えば、120、123、220、301、1701)から、コンピューティングデバイス(例えば、100、122、200、300、900)のベース(例えば、110、129、210、315、910、1702)におけるホスト処理ユニット(例えば、140、390、340、1760、2186)に送信することを含み得る。
オペレーティングシステムは、調整されたタッチセンサデータを、コンピューティングデバイス上で実行中のアプリケーションに送り得る。オペレーティングシステムまたはアプリケーションは、調整されたタッチセンサデータに基づいて、フレームデータを生成し得る。フレームデータは、ディスプレイ上に表示される新たなフレームを生成するディスプレイモジュール(例えば、391、341、2164)に提供され得る。ディスプレイモジュールは、新たなフレームを示す情報を含むビデオデータを、タイミングコントローラ(例えば、150、400、355、944、1706、2100)に送信する。タイミングコントローラは、新たなフレームを、ディスプレイ上に表示させ得る。個別のアプリケーションが、それらが受信したタッチセンサデータを調整する代わりに、リッドコントローラハブが調整されたタッチセンサデータをオペレーティングシステムに提供することで、調整されたタッチセンサデータが、オペレーティングシステムと、コンピューティングデバイス上で動作するあらゆるアプリケーションにより利用可能にできる。
図38は、向上したタッチユーザ体験を提供可能なリッドコントローラハブを含む、例示的コンピューティングデバイスの簡略化されたブロック図である。コンピューティングデバイス3800は、リッド3810aと、ベース3820とを含む。リッド3810は、タッチディスプレイコントローラ(タッチコントローラ)3830と、LCH3834と、表示サブシステム3838と、内蔵ディスプレイパネル3842とを含む。ベース3820は、ディスプレイモジュール3860を含む、ホスト処理ユニット3850を含む。オペレーティングシステム3870および1または複数のアプリケーション3880は、ベース3820(例えば、ホスト処理ユニット3850)における計算リソース上で実行され得る。
コンピューティングデバイス3800は、本明細書に記載のコンピューティングデバイス(例えば、100、122、200、300、900)のいずれかであり得る。リッド3810は、本明細書に記載のリッド(例えば、120、123、220、301、920、1701)のいずれかであり得る。タッチコントローラ3830は、本明細書に記載のタッチコントローラ(例えば、165、285、385)のいずれかであり得る。内蔵ディスプレイパネル3842は、タッチディスプレイであり、本明細書に記載のディスプレイパネル(例えば、145、280、380、926、2140)のいずれかであり得る。LCH3834は、本明細書に記載のLCH(例えば、155、260、305、954、1705)のいずれかであり得る。いくつかの実施形態において、LCH3834は、本明細書に記載の他のLCH実施形態のLCHの一部として記載された全てのコンポーネントおよびモジュールよりもコンポーネントを少なく有する。例えば、LCH3834は、オーディオモジュールを含まなくてよい。
表示サブシステム3838は、タイミングコントローラ(例えば、150、400、355、944、1706、2100)とそれを構成するタイミングコントローラコンポーネント(例えば、フレームバッファ(例えば、830、2120)、フレーム処理スタックモジュール(例えば、822から826、2139から2128))、行ドライバ(例えば、882、2154、2158)、列ドライバ(例えば、884、2160)、ディスプレイドライバ(例えば、880、2130)、およびビデオデータレシーバ(例えば、812、2110)などの、ディスプレイ関連動作を実行する本明細書に記載の1または複数のコンポーネントを含み得る。ホスト処理ユニット3850は、本明細書に記載の任意のホスト処理ユニット(例えば、140、385、380、382、340、342、914、1760、2186)であり得る。ディスプレイモジュール3860は、本明細書に記載の任意のディスプレイモジュール(例えば、381、341、2164)であり得る。ベース3820は、本明細書に記載のベース(例えば、110、129、210、315、910、1702)のいずれかであり得る。
図39は、コンピューティングデバイス3900におけるコンポーネント間の情報の例示的な流れを示す。3920において、タッチコントローラ3830は、ディスプレイ3842におけるタッチインタラクションを検出しない。いくつかの実施形態において、タッチコントローラ3830は、ディスプレイをタッチしているオブジェクトがないことを示すタッチセンサデータからの、タッチセンサデータの乖離を検出することにより、タッチインタラクションを検出し得る。3925において、タッチコントローラ3830は、ディスプレイ3842におけるタッチインタラクションの開始を検出する。3930において、ディスプレイ3842でのタッチインタラクションの開始の検出に応じて、タッチコントローラ3830は、タッチセンサデータをLCH3834に提供する。3935において、LCH3834は、表示サブシステム3838に、ディスプレイ3842のリフレッシュレートを増加するよう通知を送信する。別の実施形態において、LCH3834は、表示サブシステム3838に、通知で指定されたレートにリフレッシュレートを変更するよう、またはリフレッシュレートをディスプレイ3842の最大リフレッシュレートに変更するよう通知し得る。いくつかの実施形態において、LCH3834は、同期信号3882(例えば、180、226、370)を介して、表示サブシステム3838に通知を送信する。LCH3834が、ディスプレイリフレッシュレートを追跡しており、ディスプレイリフレッシュレートが既に「アクティブ」ディスプレイレート(例えば、60Hzから120Hz)であれば、LCH3834はこの通知を表示サブシステム3838に送信しなくてよい。
3940で、タッチコントローラ3830は、タッチセンサデータ3832をLCH3834に送信し続ける。3945および3950で、表示サブシステム3838は、ディスプレイリフレッシュが発生することを示すディスプレイリフレッシュ通知をLCH3834およびオペレーティングシステム3870に送信する。ディスプレイリフレッシュ通知3945がLCH3834に送信された後に、オペレーティングシステム3870に送信されるディスプレイリフレッシュ通知3945は、遅延3947により遅延され得る。これにより、オペレーティングシステム3870またはアプリケーション3880が、調整されたタッチセンサデータに基づいて、新たなフレームをレンダリングするのに、追加的な時間が提供される。いくつかの実施形態において、遅延3947はプログラム可能である。いくつかの実施形態において、ディスプレイリフレッシュ通知は、ディスプレイの第1行または列のリドローが発生することを通知し得る。今後のディスプレイリフレッシュの通知と、ディスプレイリフレッシュの開始との間の遅延は、3955で示される。いくつかの実施形態において、この遅延はプログラム可能である。一部の既存のディスプレイの最大リフレッシュレート(例えば、120Hz)でも、調整されたタッチセンサデータを生成し、調整されたタッチセンサデータをオペレーティングシステム3870に送信し、調整されたタッチセンサデータをアプリケーション3880に送り、調整されたタッチセンサデータに基づいてフレーム情報を生成し、フレーム情報に基づいて新たなフレームを生成し、ディスプレイ3842が新たなフレームでリフレッシュされるのに間に合うように、表示サブシステム3838に新たなフレームを表す情報を含むビデオデータを提供する時間がある。
3960において、ディスプレイリフレッシュ通知の受信に応じて、LCH3834は、タッチコントローラ3830により提供されたタッチセンサデータに基づいて、調整されたタッチセンサデータ3836を生成する。いくつかの実施形態において、タッチセンサデータは、タッチコントローラがタッチを検出したタッチ位置情報(例えば、x-y座標)を含み、調整されたタッチデータは調整されたタッチ位置データを含み得る。いくつかの実施形態において、タッチセンサデータ3832は、タッチインタラクションの強度(例えば、ユーザまたはオブジェクトがどれほど強くディスプレイに押し当てられているか)を反映できるタッチ強度情報を含み、調整されたタッチセンサデータは、調整されたタッチ強度データを含むことができる。タッチインタラクションの開始、または調整されたタッチセンサデータの最後の生成から、LCH3834が複数のタッチセンサデータサンプルを受信した場合(例えば、複数のx-y座標組)、LCH3834は、複数のタッチセンサデータサンプルに対して、1または複数の調整操作を実行し得る。調整操作は、複数のタッチセンサデータサンプルにわたるタッチ位置x-y座標の平均化、カルマンフィルタを利用した平滑化操作、または他の任意のタイプの平滑化操作等の平滑化操作であり得る。いくつかの実施形態において、LCH3834は、前回のディスプレイリフレッシュよりも前にLCH3834が受信したタッチセンサデータに基づき、調整されたタッチセンサデータ3836を生成し得る。例えば、調整されたタッチデータ位置を生成することは、以前、例えば5回のディスプレイリフレッシュにわたり、LCHが受信したタッチ位置データが示すタッチ位置の平均を計算することを含み得る。
3965において、調整されたタッチセンサデータ3836がオペレーティングシステム3870に送信される。LCH3834は、調整されたタッチセンサデータ3836送信後の次のディスプレイリフレッシュ間隔について、調整されたタッチセンサデータの生成に使用されるタッチセンサデータ3832を、タッチコントローラ3830から受信できる。3970において、オペレーティングシステム3870は、調整されたタッチセンサデータを、調整されたタッチセンサデータに基づいてフレーム情報を生成可能なアプリケーション3880に送る。いくつかの実施形態において、オペレーティングシステム3870は、調整されたタッチセンサデータに基づいて、フレーム情報を生成できる。フレーム情報は、ユーザ要素(例えば、カーソル、ポインター)またはゲームキャラクターの位置を更新するなど、調整されたタッチセンサデータに基づいて、アプリケーション3880またはオペレーティングシステム3870に更新されたフレームの全部または一部を示し得る。3975において、アプリケーション3880はリドローコマンドをオペレーティングシステム3870に送信する。例えば、オペレーティングシステム3870がWindows(登録商標)オペレーティングシステムであれば、アプリケーション3880は、ディスプレイウィンドウマネージャに、リドローコマンドを送信できる。
図39には示されていないが、ディスプレイリフレッシュ時に新たなフレームを表示させる追加的動作は、コンピューティングデバイスのベース3820から表示サブシステム3838がビデオデータ3854を受信することと、表示サブシステム3838が新たなフレームでディスプレイ3842をリフレッシュさせることとを含み得る。いくつかの実施形態において、ビデオデータ3854は、ホスト処理ユニット3850の一部であるディスプレイモジュール3860による生成され得る。いくつかの実施形態において、タッチコントローラ3830が、タッチセンサデータをLCH3834のホストモジュール(例えば、261、362)に送信できる。いくつかの実施形態において、調整されたタッチセンサデータ3836は、I3C接続(例えば、接続221)またはUSB接続(例えば、接続238)を介してオペレーティングシステム3870に送られ得る。
図40は、オペレーティングシステムにタッチセンサデータを送信することを、ディスプレイリフレッシュレートに同期する、例示的方法を示す。方法は例えば、ラップトップ内のリッドコントローラハブ(例えば、155、260、305、954、1705、3834)により実行され得る。4010において、タッチセンサデータがタッチディスプレイコントローラから受信される。4020において、ディスプレイリフレッシュ通知の受信に応じて、調整されたタッチセンサデータがタッチセンサデータに基づいて生成され、調整されたタッチセンサデータがオペレーティングシステムに送信される。タッチセンサデータを受信することと、調整されたタッチセンサデータを生成することと、調整されたタッチセンサデータを送信することとは、モバイルコンピューティングデバイスのリッド内で実行され得、オペレーティングシステムは、モバイルコンピューティングデバイスのベース内に配置された1または複数の処理ユニットの上で実行され得る。
別の実施形態において、方法4000は追加的な要素を含み得る。例えば、ディスプレイリフレッシュ通知は、表示サブシステムから受信され得る。別の例において、オペレーティングシステム、またはモバイルコンピューティングデバイス上で実行されるアプリケーションは、調整されたタッチセンサデータに基づいてフレーム情報を生成する。新たなフレームは、フレーム情報に基づいて生成される。ディスプレイは、新たなフレームを表示するため、リフレッシュされる。
以下の例は、本明細書に係る実施形態に関する。
例EA1は、タッチディスプレイコントローラからタッチセンサデータを受信する段階と、ディスプレイリフレッシュ通知の受信に応じて、上記タッチセンサデータに基づいて、調整されたタッチセンサデータを生成する段階と、上記調整されたタッチセンサデータをオペレーティングシステムに送信する段階と、を含む方法であって、上記タッチセンサデータを受信する段階と、上記調整されたタッチセンサデータを生成する段階と、上記調整されたタッチセンサデータを送信する段階は、モバイルコンピューティングデバイスのリッド内で実行され、上記オペレーティングシステムは、上記モバイルコンピューティングデバイスのベース内に配置された1または複数の処理ユニットの上で実行される。
例EA2は、例EA1の方法を含み、上記タッチセンサデータは、タッチ位置データを含み、上記調整されたタッチセンサデータを生成する段階は、上記タッチ位置データに基づいて、調整されたタッチ位置データを生成する段階を含み、上記調整されたタッチセンサデータは、上記調整されたタッチ位置データを含む。
例EA3は、例EA1またはEA2の上記方法を含み、上記タッチセンサデータは、タッチ強度データを含み、上記調整されたタッチセンサデータを生成する段階は、上記タッチ強度データに基づいて、調整されたタッチ強度データを生成する段階を含み、上記調整されたタッチセンサデータは、上記調整されたタッチ強度データを含む。
例EA4は、例EA1からEA3のいずれか1つの方法を含み、上記調整されたタッチセンサデータを生成する段階は、上記タッチセンサデータを平滑化する段階を含む。
例EA5は、例EA1からEA4のいずれか1つの方法を含み、以前のタッチセンサデータを受信する段階と、上記ディスプレイリフレッシュ通知より前の以前のディスプレイリフレッシュ通知を受信する段階と、をさらに含み、上記以前のタッチセンサデータは、上記以前のディスプレイリフレッシュ通知の受信より前に受信され、上記調整されたタッチセンサデータを生成する段階は、上記タッチセンサデータを上記以前のタッチセンサデータで平均化する段階を含む。
例EA6は、例EA1からEA5のいずれか1つの方法を含み、表示サブシステムに、ディスプレイのリフレッシュレートを変更するよう通知する段階をさらに含む。
例EA7は、例EA1からEA5のいずれか1つの方法を含み、表示サブシステムに、ディスプレイのリフレッシュレートを増加させるよう通知する段階をさらに含む。
例EA8は、例EA1からEA5のいずれか1つの方法を含み、表示サブシステムに、上記ディスプレイのリフレッシュレートを最大リフレッシュレートまで増加させるよう通知する段階をさらに含む。
例EA9は、例EA6からEA8のいずれか1つの方法を含み、上記タッチセンサデータの受信に応じて、上記表示サブシステムに通知する段階をさらに含む。
例EA10は、例EA1からEA9のいずれか1つの方法を含み、上記調整されたタッチセンサデータを上記モバイルコンピューティングデバイス上で実行されるアプリケーションに送信する段階をさらに含む。
例EA11は、例EA1からEA10のいずれか1つの方法を含み、上記オペレーティングシステムまたは上記モバイルコンピューティングデバイス上で実行されるアプリケーションにより、上記調整されたタッチセンサデータに基づいてフレーム情報を生成する段階と、上記フレーム情報に基づいて新たなフレームを生成する段階と、上記新たなフレームを表示するため、ディスプレイをリフレッシュする段階と、をさらに含む。
例EA12は、本明細書に上述の例EAのいずれか1つの方法を含み、例AA1からAA16またはDE1からDE17のいずれか1つの方法の要素(これらの方法要素が本明細書に上述の例EAの方法要素と重複しない限り)をさらに含む。
例EB1は、タッチディスプレイコントローラからタッチセンサデータを受信し、ディスプレイリフレッシュ通知を受信し、上記ディスプレイリフレッシュ通知の受信に応じて、上記タッチセンサデータに基づいて、調整されたタッチセンサデータを生成し、上記調整されたタッチセンサデータをホスト処理ユニットに送信する、回路機構を備える装置であって、上記装置は、モバイルコンピューティングデバイスのリッド内で使用される。
例EB1.5は、例EB1の装置を含み、上記装置は、リッドコントローラハブである。
例EB2は、例EB1の装置を含み、上記タッチセンサデータは、タッチ位置データを含み、上記調整されたタッチセンサデータを生成することは、上記タッチ位置データに基づいて、調整されたタッチ位置データを生成することを含み、上記調整されたタッチセンサデータは、上記調整されたタッチ位置データを含む。
例EB3は、例EB1またはEB2の装置を含み、上記タッチセンサデータは、タッチ強度データを含み、上記調整されたタッチセンサデータを生成することは、上記タッチ強度データに基づいて、調整されたタッチ強度データを生成することを含み、上記調整されたタッチセンサデータは、上記調整されたタッチ強度データを含む。
例EB4は、例EB1からEB3のいずれか1つの装置を含み、上記調整されたタッチセンサデータを生成することは、上記タッチセンサデータを前回のディスプレイリフレッシュよりも前に受信されたタッチセンサデータで平均化することを含む。
例EB5は、例EB1からEB3のいずれか1つの装置を含み、上記回路機構はさらに、表示サブシステムに、ディスプレイのリフレッシュレートを変更するよう通知する。
例EB6は、例EB1からEB3のいずれか1つの装置を含み、上記回路機構はさらに、表示サブシステムに、ディスプレイのリフレッシュレートを増加させるよう通知する。
例EB7は、例EB1からEB3のいずれか1つの装置を含み、上記回路機構はさらに、表示サブシステムに、ディスプレイのリフレッシュレートを最大リフレッシュレートまで増加させるよう通知する。
例EB8は、例EB6からEB7のいずれか1つの装置を含み、上記回路機構はさらに、上記タッチセンサデータの受信に応じて、上記表示サブシステムに通知する。
例EB9は、本明細書に上述の例EBのいずれか1つの装置を含み、例DC1からDC10、またはDD1からDD6のいずれか1つの特徴(これらの特徴が本明細書に上述の例EBの特徴と重複しない限り)をさらに含む。
例EC1は、オペレーティングシステムを実行する1または複数のホスト処理ユニットを含むベースと、上記ベースに回転可能に結合されたリッドであって、タッチディスプレイと、タッチディスプレイコントローラと、上記タッチディスプレイをリフレッシュする表示サブシステムと、回路機構であって、上記タッチディスプレイコントローラからタッチセンサデータを受信し、上記表示サブシステムからディスプレイリフレッシュ通知を受信し、上記ディスプレイリフレッシュ通知の受信に応じて、上記タッチセンサデータに基づいて、調整されたタッチセンサデータを生成し、上記調整されたタッチセンサデータを上記オペレーティングシステムに送信する、回路機構と、を含むリッドと、を備えるモバイルコンピューティングデバイスである。
例EC1.5は、例EC1の装置を含み、上記装置は、リッドコントローラハブである。
例EC2は、例EC1のモバイルコンピューティングデバイスを含み、上記タッチセンサデータは、タッチ位置データを含み、上記調整されたタッチセンサデータを生成することは、上記タッチ位置データに基づいて、調整されたタッチ位置データを生成することを含み、上記調整されたタッチセンサデータは、上記調整されたタッチ位置データを含む。
例EC3は、例EC1またはEC2のモバイルコンピューティングデバイスを含み、上記タッチセンサデータは、タッチ強度データを含み、上記調整されたタッチセンサデータを生成することは、上記タッチ強度データに基づいて、調整されたタッチ強度データを生成することを含み、上記調整されたタッチセンサデータは、上記調整されたタッチ強度データを含む。
例EC4は、例EC1からEC3のいずれか1つのモバイルコンピューティングデバイスを含み、上記回路機構はさらに、以前のタッチセンサデータを受信し、上記ディスプレイリフレッシュ通知より前の以前のディスプレイリフレッシュ通知を受信し、上記以前のタッチセンサデータは、上記以前のディスプレイリフレッシュ通知の受信より前に受信され、上記調整されたタッチセンサデータを生成することは、上記タッチセンサデータを上記以前のタッチセンサデータで平均化することを含む。
例EC5は、例EC1からEC4のいずれか1つのモバイルコンピューティングデバイスを含み、上記回路機構はさらに、上記表示サブシステムに、ディスプレイのリフレッシュレートを変更するよう通知する。
例EC6は、例EC1からEC4のいずれか1つのモバイルコンピューティングデバイスを含み、上記回路機構はさらに、上記表示サブシステムに、ディスプレイのリフレッシュレートを増加させるよう通知する。
例EC7は、例EC1からEC4のいずれか1つのモバイルコンピューティングデバイスを含み、上記回路機構はさらに、上記表示サブシステムに、ディスプレイのリフレッシュレートを最大リフレッシュレートまで増加させるよう通知する。
例EC8は、例EC7の上記モバイルコンピューティングデバイスを含み、上記回路機構はさらに、上記タッチセンサデータの受信に応じて、上記表示サブシステムに通知する。
例EC9は、例EC1からEC8のいずれか1つのモバイルコンピューティングデバイスを含み、上記表示サブシステムはタイミングコントローラを含む。
例EC10は、例EC1からEC9のいずれか1つのモバイルコンピューティングデバイスを含み、上記ホスト処理ユニットは、アプリケーションを実行し、上記オペレーティングシステムは、上記調整されたタッチセンサデータを上記アプリケーションに提供する。
例EC11は、例EC1からEC10のいずれか1つのモバイルコンピューティングデバイスを含み、上記オペレーティングシステムまたは上記アプリケーションは、上記調整されたタッチセンサデータに基づいてフレーム情報を生成し、上記オペレーティングシステムは、上記フレーム情報に基づいて新たなフレームを生成し、上記表示サブシステムはさらに、上記ベースからビデオデータを受信し、上記ディスプレイを上記新たなフレームでリフレッシュさせる。
例EC12は、本明細書に上述の例ECのいずれか1つのモバイルコンピューティングデバイスを含み、例AB1からAB14、DA1からDA17、またはDB1からDB14のいずれかの特徴(これらの特徴が本明細書に上述の例ECの特徴と重複しない限り)をさらに含む。
例ED1は、オペレーティングシステムを実行する1または複数のホスト処理ユニットを含むベースと、上記ベースに回転可能に結合されたリッドであって、タッチディスプレイと、タッチディスプレイコントローラと、上記タッチディスプレイをリフレッシュする表示サブシステムと、上記タッチディスプレイコントローラから受信されたタッチセンサデータを調整し、上記タッチディスプレイのリフレッシュレートと同期して、上記オペレーティングシステムに上記調整されたタッチセンサデータを送信するためのタッチセンサデータ調整手段と、を含むリッドと、を備えるモバイルコンピューティングデバイスである。
例ED2は、例ED1のモバイルコンピューティングデバイスを含み、上記タッチセンサデータは、タッチ位置データを含み、上記調整されたタッチセンサデータを生成することは、上記タッチ位置データに基づいて、調整されたタッチ位置データを生成することを含み、上記調整されたタッチセンサデータは、上記調整されたタッチ位置データを含む。
例ED3は、例ED1またはED2のモバイルコンピューティングデバイスを含み、上記ホスト処理ユニットは、アプリケーションを実行し、上記オペレーティングシステムは、上記調整されたタッチセンサデータを上記アプリケーションに提供する。
例ED4は、例ED1からED3のいずれか1つのモバイルコンピューティングデバイスを含み、上記オペレーティングシステムまたは上記アプリケーションは、上記調整されたタッチセンサデータに基づいてフレーム情報を生成し、上記オペレーティングシステムは、上記フレーム情報に基づいて新たなフレームを生成し、上記表示サブシステムはさらに、上記ベースからビデオデータを受信し、上記タッチディスプレイを上記新たなフレームでリフレッシュさせる。
例ED5は、本明細書に上述の例EDのいずれか1つのモバイルコンピューティングデバイスを含み、例AB1からAB14、DA1からDA17、またはDB1からDB14のいずれかの特徴(これらの特徴が本明細書に上述の例EDの特徴と重複しない限り)をさらに含む。
例EEは、命令を格納する1または複数の非一時的コンピュータ可読ストレージ媒体であって、上記命令は、実行されると、モバイルコンピューティングデバイスのリッドの1または複数の処理ユニットに、例AA1からAA16、DE1からDE17、またはEA1からEA8のいずれか1つの方法を実行させる。
例EFは、例AA1からAA16、DE1からDE17、またはEA1からEA11のいずれか1つの方法を実行する1または複数の手段を含む装置である。
ジェスチャー連続体
モバイルコンピューティングデバイスのリッドに1または複数の前方向きカメラを内蔵することは、空中ジェスチャーをジェスチャー連続体の一部として扱うことを可能とする。ジェスチャー連続体とは、即ち、連続したジェスチャーが初期タッチジェスチャーコンポーネント(2Dジェスチャー)を含み、それにディスプレイの前の空間で実行される空中ジェスチャー(3Dジェスチャー)コンポーネントが続くジェスチャー空間連続体、および、タッチジェスチャーに1または複数の関連空中ジェスチャーが続く、関連「マルチプレーン」ジェスチャーを含むジェスチャー時間連続体である。逆の状況も可能である。連続したジェスチャーは、空中ジェスチャーコンポーネントにより開始し、タッチジェスチャーコンポーネントにより終了し得る。一連の関連マルチプレーンジェスチャーは、空中ジェスチャーにより開始し、それに1または複数の関連タッチジェスチャーが続き得る。マルチプレーンジェスチャーは、複数のユーザにより提供され得る。例えば、第1ユーザがタッチジェスチャーを提供し得、第2ユーザの関連空中ジェスチャーがそれに続き得る。同時マルチプレーンジェスチャーもサポートされる。複数のユーザが関連タッチおよび空中ジェスチャーを同時に供給できる。
一般的に、組み合わせジェスチャーは以下のとおりに可能となる。タッチメタデータおよび画像メタデータは、タッチディスプレイコントローラ(例えば、165、285、385、3830)により提供されるタッチセンサデータと、カメラ(例えば、160、270、346、932、2514、3014)により提供される画像センサデータによりそれぞれ判定される。タッチメタデータはタッチアナライザにより判定され得、画像メタデータはビジョン/撮像アナライザ(172、263、363、1740、2540A、2540B、3020、3026)により判定され得る。タッチディスプレイコントローラ、カメラ、タッチアナライザ、およびビジョン/撮像アナライザは、ラップトップなどのモバイルコンピューティングデバイス(例えば、100、122、200、300、900、3800)のリッド(例えば、120、123、220、301、920、1701、3810)内に配置され得る。タッチメタデータおよび画像メタデータは、タッチメタデータおよび画像メタデータに基づいて、ユーザにより組み合わせジェスチャーが実行されたかを判定するオペレーティングシステムおよび/またはアプリケーションに送信される。組み合わせジェスチャーが行われたかの判定は、これに加えて、オペレーティングシステムおよび/またはアプリケーションに同じく送信され得るタッチセンサデータの一部および/または画像センサデータの一部に基づき得る。タッチメタデータは、ディスプレイ(例えば、145、280、380、926、2140、3842)へのタッチの位置を示す情報を含み得る。画像メタデータは、ディスプレイの前の空間における、ジェスチャーオブジェクト(例えば、指、スタイラス)の位置を示す情報を含み得る。画像メタデータは、ディスプレイの表面からのジェスチャーオブジェクトの距離を示す、距離情報を含み得る。タッチアナライザおよび/またはビジョン/撮像アナライザは、タッチセンサデータおよび画像センサデータが、空間的または時間的に関連しているかを示す情報を、オペレーティングシステムに提供できる。組み合わせジェスチャーが実行されたかの判定は、空間的および時間的関係情報にさらに基づき得る。組み合わせジェスチャーが実行されたと判定された場合、オペレーティングシステムおよび/またはアプリケーションは、仮想オブジェクトを「持ち上げて」、アプリケーション環境内でオブジェクトを移動するなど、組み合わせジェスチャーに基づき、1または複数の動作を実行できる。
マルチプレーンジェスチャーも同様に可能となる。タッチメタデータおよび画像メタデータは、タッチディスプレイコントローラ(例えば、165、285、385、3830)により提供される第1タッチセンサデータと、カメラ(例えば、160、270、346、932、2514、3014)により提供される画像センサデータによりそれぞれ判定される。マルチプレーンジェスチャーシナリオにおいて、画像メタデータは、第1タッチセンサデータ受信後に受信された画像センサデータに基づいて判定され得る。第1タッチメタデータおよび画像メタデータは、第1タッチメタデータに基づき、1または複数の第1動作を実行し、その後、画像センサデータに基づいて、1または複数の第2動作を実行する、オペレーティングシステムまたはアプリケーションに送信される。第1タッチセンサデータの受信に関連付けられた時間から、ディスプレイ(例えば、145、280、380、926、2140、3842)にユーザが関与していると、第2動作が実行され得る。追加的なタッチメタデータが、追加的なタッチセンサデータに基づいて判定され得、追加的なタッチメタデータは、オペレーティングシステムまたはアプリケーションに提供され得る。そして、オペレーティングシステムまたはアプリケーションは、追加的なタッチメタデータに基づいて、1または複数の第3動作を実行し得る。第1タッチセンサデータの受信に関連付けられた時間から、スクリーンのディスプレイにユーザが関与していると、第3動作が実行され得る。オペレーティングシステムおよび/またはアプリケーションにより実行される第1動作の一部として、デバイス(例えば、100、122、200、300、900、3800)は、空中ジェスチャーが認識され、対応されるモードまたはコンテキストに移行し得る。いくつかの実施形態において、モードまたはコンテキストに移行することは、新たなユーザインタフェースを提示すること、または既存のものを空中ジェスチャーに対するプロンプトを含むように更新することを含み得る。
ディスプレイに対するユーザの関与を検出することは、ユーザがディスプレイの前に存在するかの判定、および/またはディスプレイに対するユーザの頭部または顔の向きの判定に基づき得る。ユーザの存在および頭部/顔の向きは、画像アナライザにより判定され得る。ユーザの存在検出および/または頭部/顔の向きの判定に、ニューラルネットワークアクセラレータが使用され得る。
複数のユーザにより提供されるマルチプレーンジェスチャーもサポートされる。例えば、タッチセンサデータは、第1ユーザによる、ディスプレイ(例えば、145、280、380、926、2140、3842)へのタッチに応じて生成され得、画像センサデータは、第2ユーザによる空中ジェスチャーを示し得る。第1ユーザによるタッチが行われた時間から、空中ジェスチャーが行われた時間まで第2ユーザがディスプレイに関与したと判定された場合、オペレーティングシステムおよび/またはアプリケーションは、1または複数の空中ジェスチャー関連動作を実行し得る。ディスプレイへの初期タッチが行われた時間から、任意の後続のタッチがディスプレイに行われた時間までに、第1ユーザがディスプレイに関与したと判定された場合、オペレーティングシステムおよび/またはアプリケーション1または複数のタッチ関連動作を実行し得る。画像アナライザ(例えば、172、263、363、1740、2540A、2540B、3020、3026)は、画像センサデータに基づいて複数のユーザの存在を検出し、第1ユーザをタッチセンサデータに関連付け、第2ユーザを画像センサデータに関連付け、各ユーザがディスプレイに関与しているかを判定し得る。画像センサデータにおける1または複数のユーザの存在の検出、およびユーザがディスプレイに関与しているかの判定に、ニューラルネットワークアクセラレータが使用され得る。
マルチユーザマルチプレーンジェスチャーは、創作プロセス時の、ユーザ間の同時コラボレーションを可能にし得る。例えば、イラストレーションプログラムにおいて、1人がタッチ入力を介してイラストレーションの1部分の作業を実行でき、その間に、第2の人が空中ジェスチャーを介してイラストレーションの他の部分の作業を実行できる。ここで、各ユーザは自身の個別の好みに応じて、イラストレーションアプリケーションとインタラクトする。または、両ユーザは、空中ジェスチャーを介して同時にインタラクトし得る。マルチプレーンジェスチャーの別の例において、ユーザは、ブラシ色変更を可能とするアイコンをタッチすることで、イラストレーションアプリケーションにおけるブラシの異なるブラシ色を選択可能である。タッチに応じて、ユーザが、空中ジェスチャーを使用して新たな色を選択するためにインタラクト可能なカラーホイールユーザインタフェース要素が表示される。空中ジェスチャーは、例えば、ユーザが所望の色を指先で指さして、その指をピンチし、または伸ばしたその指をその拳内に引き込むことで選択することを含み得る。
いくつかのモバイルコンピューティングデバイスは、ライダセンサ、レーダセンサ、および超音波センサなど、連続的ジェスチャーおよびマルチプレーンジェスチャーを可能とするタッチディスプレイコントローラおよびカメラとは異なるセンサにより生成されたセンサデータを利用し得る。これら追加的なセンサ(例えば、追加的なセンサ671)により生成されたセンサデータは、モバイルコンピューティングデバイスのリッド、モバイルコンピューティングデバイスのべースまたはその両方において、タッチセンサデータおよび画像センサデータと融合できる。
図41は、組み合わせジェスチャーおよびマルチプレーンジェスチャーをサポート可能な例示的コンピューティングデバイスの簡略化されたブロック図である。コンピューティングデバイス4100は、リッド4110aと、ベース4140とを含む。リッド4110は、タイミングコントローラ(TCON)4114と、内蔵ディスプレイパネル4118と、タッチディスプレイコントローラ4124と、カメラ4128と、タッチアナライザ4134と、ビジョン/撮像アナライザ4138とを含む。ベース4140は、オペレーティングシステム4160および1または複数のアプリケーション4170を実行可能な1または複数のホスト処理ユニット4150を含む。コンピューティングデバイス4100は、本明細書に記載のコンピューティングデバイス(例えば、100、122、200、300、900、3800)のいずれかであり得る。リッド4110は、本明細書に記載のリッド(例えば、120、123、220、301、920、1701、3810)のいずれかであり得る。タッチディスプレイコントローラ4124は、本明細書に記載のタッチコントローラ(例えば、165、285、385、3830)のいずれかであり得る。内蔵ディスプレイパネル4118はタッチディスプレイであり、本明細書に記載のディスプレイパネル(例えば、145、280、380、926、2140、3842)のいずれかであり得る。タッチアナライザ4134およびビジョン/撮像アナライザ4138は、本明細書に記載のリッドコントローラハブ(例えば、155、260、305、954、1705、3810)のいずれかの一部であり得る。いくつかの実施形態において、タッチアナライザ4134はLCHホストモジュール(例えば、176、261、362、1720)の一部であり得る。いくつかの実施形態において、ビジョン/撮像アナライザ4138は、本明細書に記載のLCHビジョン/撮像モジュールまたはビジョン/撮像アナライザ集積回路(例えば、172、263、363、1740、2540A、2540B、3020、3026)のいずれかを含む、またはその一部であり得る。いくつかの実施形態において、タッチアナライザ4134およびビジョン/撮像アナライザ4138は別個の物理的なコンポーネント(例えば、個別にパッケージングされた集積回路またはともにパッケージングされた個別の集積回路)であり得る。カメラ4128は、本明細書に記載のカメラ(例えば、160、270、346、932、2514、3014)のいずれかであり得る。ホスト処理ユニット4150は、本明細書に記載の任意のホスト処理ユニット(例えば、140、385、380、382、340、342、914、1760、2186、3820)であり得る。ベース4214は、本明細書に記載のベース(例えば、110、129、210、315、910、1702)のいずれかであり得る。
図42は、コンピューティングデバイスに適用される、例示的組み合わせジェスチャーを示す。コンピューティングデバイス4200は、リッド4210と、ベース4214と、カメラ4218と、ディスプレイ4228とを含む。組み合わせジェスチャー4250は、仮想オブジェクトを選択するための、ディスプレイ4228上の第1ポイント4232へのユーザの指4220のタッチにより開始する。ユーザがその指4220をディスプレイ4228上で、第1ポイント4232から第2ポイント4236への経路4240に沿って動かすことでジェスチャーが継続する。組み合わせジェスチャーの空中部分は、第2ポイント4236で開始する。ここでユーザは、オブジェクトを「つかむ」ためにその指を、ピンチし、選択されたオブジェクトを「持ち上げる」ためにディスプレイ表面から離隔するようにその指を引く。ユーザは、そのピンチした指を、経路4244に沿って、ディスプレイ表面から離隔するように引く。経路4244は破線で示され、これは経路がディスプレイ4228の前の空間に生じることを示す。ディスプレイの前の空間におけるポイント4248で、ユーザは例えば、その指をアンピンチして、選択された仮想オブジェクトをアプリケーション環境内で「落下」させることで、組み合わせジェスチャーの空中ジェスチャー部分を終了する。
図41を参照すると、いくつかの実施形態において、デバイス4100は、以下のとおりに、図42に示す組み合わせジェスチャーなどの、組み合わせジェスチャーを可能にできる。タッチアナライザ4134は、タッチディスプレイコントローラ4124からタッチセンサデータ4130を受信する。タッチセンサデータ4130は、ディスプレイで実行されたタッチジェスチャー(例えば、第1ポイント4232でのピンチジェスチャー、経路4240に沿って仮想オブジェクトをドラッグ)に関連付けられる。タッチアナライザ4134は、受信したタッチデータに基づいて、タッチメタデータを判定する。タッチアナライザは、受信したタッチデータに基づいて、タッチ位置情報を判定できる(例えば、仮想オブジェクトをユーザが選択した第1ポイント4232の位置、オブジェクトをユーザが「持ち上げた」第2ポイント4136の位置、経路4240に沿った位置)。タッチアナライザ4134は、タッチメタデータ4144をホスト処理ユニット4150に送信する。いくつかの実施形態において、タッチアナライザ4134は、タッチアナライザ4134で受信したタッチセンサデータ4130の一部を、ホスト処理ユニット4150に送信できる。タッチアナライザ4134がリッドコントローラハブの一部である実施形態において、タッチアナライザ4134以外の、LCHのコンポーネントは、タッチメタデータ4144をホスト処理ユニット4150に送信できる。いくつかの実施形態において、タッチアナライザ4134は、複数のタッチ位置を判定し得、タッチメタデータは、ディスプレイ4118への複数の同時タッチに関するタッチ位置情報を含み得る。ディスプレイへの複数の同時タッチの位置は、オペレーティングシステム4160またはアプリケーション4170に、図41に示す例示的組み合わせジェスチャーにおける、仮想オブジェクトを持ち上げるのに使用したピンチジェスチャーなど、ディスプレイでのマルチ指タッチジェスチャーを判定可能にし得る。
ビジョン/撮像アナライザ4138は、カメラ4128から画像センサデータ4132を受信する。画像センサデータは、ユーザによる空中ジェスチャー(例えば、ユーザが、経路4244に沿って、ディスプレイの表面から、そのピンチした指を引き戻す)に関連付けられる。ビジョン/撮像アナライザ4138は、受信した画像センサデータに基づいて、画像メタデータを判定する。ビジョン/撮像アナライザ4138は、画像センサデータに基づいて、空中ジェスチャー位置情報を判定し得る。空中ジェスチャー位置情報は、画像センサデータ4132で検出されたジェスチャーオブジェクト(例えば、指、スタイラス)の位置を含み得る。ジェスチャーオブジェクトの位置は、1または複数のNNA(例えば、NNA327)および/またはDSP(例えば、DSP328)を利用して判定され得る。いくつかの実施形態において、ビジョン/撮像アナライザ4138は、リッド内に配置された複数のカメラから受信した画像センサデータに基づいて画像メタデータを判定する。ビジョン/撮像アナライザ4138は、画像メタデータ4148をホスト処理ユニット4150に送信する。いくつかの実施形態において、ビジョン/撮像アナライザ4138は、画像センサデータ4132の一部をホスト処理ユニット4150に送信できる。ビジョン/撮像アナライザ4138がリッドコントローラハブの一部である実施形態において、ビジョン/撮像アナライザ4138以外の、LCHのコンポーネントは、画像メタデータ4148をホスト処理ユニット4150に送信できる。
いくつかの実施形態において、ライダセンサ、レーダセンサ、および超音波センサなどの入力センサは、カメラよりも近接センサとしてより良く作用し得る。空中ジェスチャー位置情報は、画像センサデータからのジェスチャーオブジェクトの位置よりも、より少ない演算負荷で判定され得るためである。
タッチアナライザ4134、ビジョン/撮像アナライザ4138、リッド4110における他のコンポーネント、またはそれらの組み合わせは、タッチセンサデータ4130が画像センサデータ4132に時間的に関連していることを示す時間的関係情報、タッチセンサデータ4130が画像センサデータ4132に空間的関連していることを示す空間的関係情報、またはその両方を判定し得る。時間的関係情報および空間的関係情報は、タッチアナライザ4134、ビジョン/撮像アナライザ4138、または他のリッドコンポーネントから、ホストプロセッサユニット4150に送信され得る。例えば、空中ジェスチャーに対応する画像センサデータが、カメラ4128により捕捉された、またはビジョン/撮像アナライザ4138により受信されたと判定される直前または直後に、ディスプレイへのタッチに対応するタッチセンサデータがタッチディスプレイコントローラ4124により捕捉された、またはタッチアナライザ4134により受信されたと判定された場合、タッチセンサデータ4130および画像センサデータ4132が時間的に関連し得る。タッチセンサデータと、画像センサデータとの間の時間的関係の判定に使用される、用語「直前」および「直後」は、タッチコントローラ4124でのタッチセンサデータの捕捉、またはタッチアナライザ4134でのタッチセンサデータの受信と、カメラ4128での画像センサデータの捕捉、またはビジョン/撮像アナライザ4138での画像センサデータの受信との間の時間間隔が存在しないことを意味しない。むしろそれらは時間的に連続して発生し、互いに短期間内に発生し得る(例えば、1/10、1/4、1/2、または1秒以内)。
例えば、タッチ位置データにより示される、ディスプレイへのタッチの判定された開始または終了位置が、画像センサデータにより示される、空中ジェスチャーの判定された開始または終了位置に近ければ、タッチセンサデータおよび画像センサデータは、空間的に関連し得る。タッチセンサデータおよび画像センサデータが空間的関連するかの判定で使用される「近い」という用語は、タッチジェスチャーが、空中ジェスチャーが終わるまたは始まる正確な位置で始まるまたは終わることを意味しない。むしろ、タッチセンサデータおよび画像センサは、それらの対応するタッチジェスチャーおよび空中ジェスチャーが、互いに距離閾値内(例えば、人間の指先のサイズや、スタイラスの先のサイズの規模の画素数内)に開始または終了する場合に、空間的に関連していると判定され得る。
いくつかの実施形態において、ディスプレイに組み合わせジェスチャーが行われたかの判定は、第1ジェスチャーコンポーネントが開始した時間(例えば、タッチアナライザまたはビジョン/撮像アナライザによりタッチ/画像センサデータが受信された時間、またはタッチアナライザまたはビジョン/撮像アナライザからのタッチ/画像センサデータの分析に基づき、ジェスチャーが開始したと判定された時間)から、第2ジェスチャーコンポーネントが終了した時間(例えば、タッチアナライザまたはビジョン/撮像アナライザにより最後のタッチ/画像センサが受信された時間、またはタッチアナライザまたはビジョン/撮像アナライザからのタッチ/画像センサデータの分析に基づき、ジェスチャーが終了したと判定された時間)までに、ユーザが、ディスプレイに関与していたかの判定を含み得る。ディスプレイに対するユーザ関与を判定することは、より詳細に後述する。
デバイス4100上で動作するオペレーティングシステム4160またはアプリケーション4170は、タッチメタデータ4144および画像メタデータ4148に基づいて、デバイス4100で組み合わせジェスチャーが行われたかを判定できる。いくつかの実施形態において、この判定は、以下のうちの1または複数に基づいて行うことができる:空間的関係情報、時間的関係情報、タッチセンサデータ、画像センサデータ、タッチ位置情報、および空中ジェスチャー位置情報。オペレーティングシステム4160またはアプリケーション4170は、図41に示す、「移動、持ち上げ、落下」という組み合わせジェスチャーを実行するなど、組み合わせジェスチャーが行われたと判定されたことに応じて、1または複数の動作を実行し得る。
いくつかの実施形態において、デバイス4100は、追加的なセンサ4154を含み得る。追加的なセンサ4154は、1または複数のライダ(「光検出および測距」、「レーザ撮像、検出、および測距」)センサ、レーダセンサ、および超音波センサを含み得る。ライダセンサは、レーザ光をオブジェクトに照射して、反射を測定可能な任意のセンサを含む。ライダセンサは、ライダセンサデータを、リッド4110内の1または複数の他のコンポーネントに提供し得る。ライダセンサデータは、センサにより測定されたレーザ光反射、および/または他のコンポーネントによる処理用の、測定されたレーザ光反射を表すデータに基づき、デバイス4100近傍の、1または複数の検出されたオブジェクトの存在または距離を示す情報を含み得る。
レーダセンサは、その周囲に電磁波を発し、電磁波反射を測定可能な任意のセンサを含み得る。レーダセンサは、レーダセンサデータを、リッド4110内の1または複数の他のコンポーネントに提供し得る。レーダセンサデータは、レーダセンサにより測定された電磁波反射、および/または他のコンポーネントによる処理用の、測定された電磁波反射を表すデータに基づき、デバイス4100近傍の、1または複数のオブジェクトの存在または距離を示す情報を含み得る。超音波センサは、その周囲に超音波を発し、超音波反射を測定可能な任意のセンサを含み得る。超音波センサは、超音波センサデータを、リッド4110内の1または複数の他のコンポーネントに提供し得る。超音波センサデータは、センサにより測定された超音波反射、および/または他のコンポーネントによる処理用の、測定された超音波反射を表すデータに基づき、デバイス4100近傍の、1または複数のオブジェクトの存在または距離を示す情報を含み得る。
ライダセンサデータ、レーダセンサデータ、および超音波センサデータは、追加的なセンサアナライザ4162に、追加的なデータセンサデータ4158として送信され得る。追加的なセンサアナライザ4162は、追加的なセンサデータ4158に基づいて、オブジェクトの存在またはそこまでの距離を判定し得る。いくつかの実施形態において、追加的なセンサアナライザ4162は、複数のアナライザを含み得る。各アナライザは、ライダセンサデータを処理するライダアナライザ、レーダセンサデータを処理するレーダアナライザ、および超音波センサデータを処理する超音波センサなど、1タイプのセンサデータを処理するアナライザである。追加的なセンサアナライザは、1または複数のホスト処理ユニット4150に提供され得、そこでオペレーティングシステム4160、アプリケーション4170の内の1または複数、または内蔵センサハブ4180によりさらに処理され得る、追加的なセンサメタデータ4166を生成し得る。
いくつかの実施形態において、リッド内の1または複数のコンポーネントは、リッド4110またはベース4140における他のコンポーネントにより使用されるメタデータ情報を判定するために、様々なタイプのセンサデータを利用(または「融合」)できる。例えば、ディスプレイ4118の前の、1または複数のオブジェクトの存在または位置を判定するために、ライダセンサデータ、画像センサデータ、レーダセンサデータ、または超音波センサデータのうちの1または複数を使用できる。本明細書の、組み合わせジェスチャーおよびマルチプレーンジェスチャーに関する説明において、画像センサデータおよび画像センサメタデータが参照されるが、組み合わせおよびマルチプレーンジェスチャーは、追加的なセンサデータおよび追加的なセンサメタデータにも依存し得る。例えば、組み合わせジェスチャーが行われたという判定、またはマルチプレーンジェスチャーの関連性の判定は、追加的なセンサデータ4158および/または追加的なセンサメタデータ4166に基づき得る。画像センサメタデータ4148は、画像センサデータを、追加的なセンサデータ4162のタイプの1または複数に組み合わせた処理に基づく、メタデータを含み得る。
例えば、オペレーティングシステム4160またはアプリケーション4170の1つは、画像センサデータおよび追加的なセンサデータタイプのうちの1または複数から判定されたメタデータを含む、画像メタデータに基づき、組み合わせジェスチャーを判定し得る。いくつかの実施形態において、組み合わせジェスチャーはさらに、追加的なセンサメタデータに基づいて判定され得る。追加的なセンサメタデータおよび/または画像メタデータは、画像センサデータ、レーダセンサ、ライダセンサデータ、および超音波センサデータのうちの1または複数に基づく、空中ジェスチャー位置情報を含み得る。いくつかの実施形態において、ライダセンサデータの一部、レーダセンサデータの一部、超音波センサデータの一部の内の1または複数が、1または複数の処理ユニット4150に提供され得る。組み合わせジェスチャーは、さらに、ベース4140に送られたこの追加的なセンサデータに基づいてさらに判定され得る。
いくつかの実施形態において、時間的関係情報および/または空間的関係情報は、タッチセンサデータ、画像センサデータ、レーダセンサデータ、ライダセンサデータ、および超音波センサデータのうちの1または複数に基づき得る。
いくつかの実施形態において、ユーザ関与情報は、追加的なセンサデータタイプにも基づき得る。例えば、ディスプレイの前にユーザが存在するか存在しないか、ユーザの頭部または顔の向き、およびユーザがデバイス4100のディスプレイに関与しているか関与していないかの判定は、画像センサデータ、レーダセンサデータ、ライダセンサデータ、および超音波センサデータのうちの1または複数に基づき得る。いくつかの実施形態において、1または複数のNNA(例えば、327、3030)および/またはDSP(例えば、DSP328)は、当該判定の実行の一部として、様々なセンサデータタイプのうちの1または複数を利用し得る。
いくつかの実施形態において、タッチ位置、空中ジェスチャー位置、空間的または時間的関係、ユーザの存在、頭部/顔の向き、ユーザ関与の判定、または複数のタイプのセンサデータを伴う他の任意の判定のために、複数のタイプのセンサデータを処理または「融合」することは、タッチアナライザ、ビジョン/撮像アナライザ4138、追加的なセンサアナライザ、および/または図41に示さないリッド4110内の他の任意のコンポーネントにより実行され得る。タッチアナライザ4134、ビジョン/撮像アナライザ4138、追加的なセンサ分析4162のそれぞれは、当該アナライザで受信したセンサデータを、他のアナライザの任意のものと共有できる。さらに、アナライザのうちの1つにより生成された任意のメタデータは、他のアナライザの任意のものと共有できる。LCH4138は、本明細書に記載のLCH(例えば、155、260、305、954、1705、3834)のいずれかであり得る。いくつかの実施形態において、複数のセンサデータタイプを融合することは、内蔵センサハブ4180のベース内で実行され得る。
図43Aから図43Cは、関連マルチプレーンジェスチャーおよび基準タッチジェスチャーの第1例を示す。本明細書で使用される場合、「マルチプレーンジェスチャー」という表現は、1または複数のジェスチャーが、ディスプレイ(第1「プレーン」)で実行されるタッチジェスチャーであり、1または複数のジェスチャーが、ディスプレイ(第2「プレーン」)の前の空間で実行される空中ジェスチャーである、2つ以上ジェスチャーを指す。「マルチプレーン」という用語における、「プレーン」という語の使用は、空中ジェスチャーがディスプレイから固定距離に沿って行われることを要さず、空中ジェスチャーがディスプレイ表面で実行されないことを示すのに使用される。マルチプレーンジェスチャーは、ディスプレイ表面に向かっておよびそこから離れる移動を含み(例えば、ディスプレイスクリーンの表面に対するz軸に沿う)、ディスプレイ表面から任意の距離で発生し得る空中ジェスチャーを含み得る。
図43Aから図43Bに示すマルチプレーンジェスチャーは、コンピューティングデバイス4300に適用されるように示されている。デバイス4300は、リッド4310と、ベース4314と、カメラ4304と、ディスプレイ4318とを含む。デバイス4300はイラストレーションアプリケーションを実行する。図43Aにおいて、ユーザは、ディスプレイ4318上のポイント4324における編集ユーザインタフェース要素をタッチすることで、編集モードを選択する。編集インタフェース要素の選択に応じて、アプリケーションは、イラストレーションを編集するための空中ジェスチャーを認識し、それに反応する編集モードに移行する。したがって、ディスプレイ4318上のポイント4324へのタッチは、一連のマルチプレーンジェスチャーにおける第1ジェスチャーである。図43Bにおいて、ユーザは、ディスプレイ4318の前の空間内で行うユーザの手4328で示される空中ジェスチャーを用いて、イラストレーションを編集(例えば、描画、ペイント、着色)する。空中ジェスチャーは、ユーザが、伸ばした人差し指またはその手でジェスチャーを行うことを含むことができる。
空中ジェスチャーでイラストレーションを編集することは、ユーザに、ディスプレイ4318がより遮蔽されることなく、イラストレーションとインタラクト可能となるという利点を提供する。図43Cは、ユーザがタッチを介してイラストレーションを編集する、図43Bの空中ジェスチャーと比較される基準タッチジェスチャーを示す。図示のように、タッチジェスチャーを介してイラストレーションを編集することにより、ユーザの手(および手首)がディスプレイの一部を遮蔽し得る。したがって、空中ジェスチャーによると、ユーザはインタラクション時に、ディスプレイをより見やすくなる。さらに、空中ジェスチャーは、ユーザに、より心地よい物理的条件で、ディスプレイとインタラクト可能にし得る。例えば、デスクに着いてラップトップとインタラクトするユーザは、ラップトップディスプレイ表面にタッチするには前にかがむ必要があり得る。空中ジェスチャーの使用は、ユーザを、椅子にもたれたまま、より心地よく、人体構造的にも適切な姿勢で、デバイスとインタラクト可能とし得る。
図43Aから図43Bに示すタイプの関連マルチプレーンジェスチャーは、第1動作(例えば、編集UI要素をタッチ)が、アプリケーション、オペレーティングシステム、またはデバイスを、空中ジェスチャーが認識され、対応されるモードまたはコンテキストにするという点で関連している。いくつかの実施形態において、タッチジェスチャー後に実行された空中ジェスチャーは、タッチジェスチャーと時間的にどれほど近くに実行されたかに基づいて、タッチジェスチャーと関連すると見做される。例えば、図43Aから図43Bに示すイラストレーションプログラムは、ユーザが編集UI要素を選択し、空中ジェスチャーがイラストレーションを編集するものと解釈された後に、特定の期間内(予め定義された時間またはユーザが定義した時間であり得る)に発生する任意の空中ジェスチャーを認識可能である。1または複数の空中ジェスチャーは、編集目的で実行されていると解釈され得る。特定の時間について、空中ジェスチャーが実行されないと、イラストレーションプログラムは、空中ジェスチャーがイラストレーション編集目的と解釈されるモードまたはコンテキストから脱し得る。
いくつかの実施形態において、タッチジェスチャーに続く空中ジェスチャーは、タッチジェスチャーが実行された時間から、空中ジェスチャーが実行された時間までの、ディスプレイに対するユーザの関与の連続性に基づき、タッチジェスチャーに関連付けられ得る。例えば、編集UI要素がタッチされた後に複数の空中ジェスチャーが実行され得、後続の空中ジェスチャーは、ユーザがディスプレイに関与している限り、イラストレーション編集ジェスチャーと解釈され得る。即ち、タッチジェスチャーに応じてデバイス4300、オペレーティングシステム、またはアプリケーションが置かれるモードまたはコンテキストは、ユーザのディスプレイ4318に対する関与が維持される限り、維持される。例えば、ディスプレイの前のユーザの存在が検出されなくなる、またはユーザがディスプレイから眼をそらしたことが検出されることで、ユーザが非関与となると、アプリケーション、オペレーティングシステム、またはアプリケーションは、タッチジェスチャーによりトリガされたモードまたはコンテキストから脱する。連続したジェスチャーおよびマルチプレーンジェスチャーに関して、ユーザ関与を判定することは、さらに詳細に後述する。初期タッチジェスチャー後に実行されるジェスチャーは、空中ジェスチャーである必要はない。初期タッチジェスチャーの後に実行されたタッチジェスチャーは、初期タッチジェスチャーの結果移行したモードまたはコンテキストで実行されたと解釈され得、空中ジェスチャーの後、その間、またはそれと同時に実行され得る。
さらに、一連のマルチプレーンジェスチャーはタッチジェスチャーで始まる必要はない。いくつかの実施形態において、一連のマルチプレーンジェスチャーにおける初期ジェスチャーは空中ジェスチャーであり得る。例えば、ユーザがスクリーンの前に存在すると検出されると、ディスプレイに対するジェスチャーオブジェクト(例えば、指、スタイラス)の接近の検出は、1または複数のUI要素を表示させるなど、1または複数の動作を実行させ得る。いくつかの実施形態において、指がディスプレイに接近したと判定されたディスプレイの近傍にUI要素が表示され得る。接近するジェスチャーオブジェクトに対して画像センサデータを監視することは、ユーザがスクリーンの前で検出された場合、または特定のアプリケーションが動作している、アプリケーションの特定の部分が動作しているなど、特定のコンテキストで連続して実行され得る。いくつかの実施形態において、ジェスチャーオブジェクトにより実行された特定の空中ジェスチャーは、ディスプレイ表面に接近するジェスチャーオブジェクトの検出により、1または複数のUI要素が表示され得る、または他の動作が実行されるモードをトリガし得る。
図41を参照すると、いくつかの実施形態において、デバイス4100は、以下のとおり、図43Aから図43B、図44Aから図44C、図45Aから図45B、図46Aから図46B、図47Aから図47B、および図48Aから図48Bに示すマルチプレーンジェスチャーなどの関連マルチプレーンジェスチャーを可能にし得る。タッチアナライザ4134は、タッチディスプレイコントローラ4124からタッチセンサデータ4130を受信する。タッチセンサデータ4130は、ディスプレイで実行されたタッチジェスチャー(例えば、図43Aの編集UI要素を選択)に関連付けられる。タッチアナライザ4134は、受信したタッチセンサデータ4130に基づいて、タッチメタデータ4144を判定する。タッチアナライザ4134は、受信したタッチセンサデータ4130に基づいて、タッチ位置情報を判定可能である。タッチアナライザ4134は、タッチメタデータ4144をホスト処理ユニット4150に送信する。いくつかの実施形態において、タッチアナライザ4134は、タッチアナライザ4134で受信したタッチセンサデータ4130の一部を、ホスト処理ユニット4150に送信できる。タッチアナライザ4134がリッドコントローラハブの一部である実施形態において、タッチアナライザ4134以外の、LCHのコンポーネントは、タッチメタデータ4144をホスト処理ユニット4150に送信できる。いくつかの実施形態において、タッチアナライザ4134は、複数のタッチ位置の位置を判定し得、タッチメタデータは、ディスプレイ4118への複数のタッチに関するタッチ位置情報を含み得る。ディスプレイへの複数のタッチの位置情報は、オペレーティングシステム4160またはアプリケーション4170にマルチ指タッチジェスチャーを検出可能にし得る。
ビジョン/撮像アナライザ4138は、カメラ4128から画像センサデータ4132を受信する。画像センサデータ4132は、ユーザにより実行された1または複数の空中ジェスチャーに関連付けられる(例えば、ユーザが図43Bに示す「描画」または「ペイント」空中ジェスチャーを実行)。ビジョン/撮像アナライザ4138は、受信した画像センサデータ4132に基づいて、画像メタデータ4148を判定する。ビジョン/撮像アナライザ4138は、画像センサデータ4132に基づいて、空中ジェスチャー位置情報を判定し得る。空中ジェスチャー位置情報は、画像センサデータ4132で検出されたジェスチャーオブジェクト(例えば、指、スタイラス)の位置を含み得る。ジェスチャーオブジェクトの位置は、1または複数のニューラルネットワークアクセラレータ(例えば、NNA327、3030)および/またはデジタル信号プロセッサ(例えば、DSP328)を利用して判定され得る。ビジョン/撮像アナライザ4138は、画像メタデータ4148をホスト処理ユニット4150に送信する。ビジョン/撮像アナライザ4138がリッドコントローラハブの一部である実施形態において、ビジョン/撮像アナライザ4138以外の、LCHのコンポーネントは、画像メタデータ4148をホスト処理ユニット4150に送信できる。いくつかの実施形態において、タッチアナライザ4134は、タッチセンサデータ4130の一部をホスト処理ユニット4150に送信できる。
ビジョン/撮像アナライザ4138は、画像センサデータに基づいて、ユーザ関与情報を判定し得る。ビジョン/撮像アナライザ4138は、ディスプレイに対するユーザの顔または頭部の向きを判定することでユーザ関与が判定され得る。顔または頭部の向き情報が、ユーザがディスプレイを見ていないことを示す場合に、ユーザはディスプレイに関与していないと判定される。いくつかの実施形態において、ユーザ関与情報を判定することは、ユーザがディスプレイの前に存在するかを判定し得る。いくつかの実施形態において、ユーザが存在するかを判定することは、ユーザがデバイス4100内に配置されたカメラの視野内に存在するかを判定することを含む。ビジョン/撮像アナライザ4138は、ユーザの存在を検出、またはユーザがディスプレイに関与しているかを、図23Aから図37および対応する説明での、本明細書に開示の、ユーザが存在することの検出および、複数のディスプレイシステムにおけるディスプレイ管理に関してユーザが関与しているかの検出に関して説明された手法の任意のものなどの本明細書に記載の手法のいずれかを介して判定し得る。例えば、ビジョン/撮像アナライザ4138は、視野内にユーザが存在するか存在しないか、およびディスプレイ4118に関与している、または非関与かを判定するために、NNA(例えば、NNA327、3030)を利用し得る。ビジョン/撮像アナライザ4138は、カメラ4128により提供された画像センサデータ4132において、人間の顔、および/または顔の向きを検出するため、機械学習アルゴリズム(例えば、ニューラルネットワーク)を利用し得る。画像メタデータは、検出された顔の位置を示す、ユーザ位置情報を含み得る。いくつかの実施形態において、ビジョン/撮像アナライザ4138は、画像センサデータ4132に基づいて、複数のユーザの存在を検出し、頭部または顔の向きを判定し、および/または関与情報を判定し得る。
いくつかの実施形態において、デバイスは、ユーザが短期間非関与であれば、空中認識モードにとどまり得る。これによりデバイスは、デバイスが空中ジェスチャー認識モードに留まるために、ユーザがスクリーンを見ているとする場合よりも、空中ジェスチャーが認識され、対応されるモードまたはコンテキストに、より長くとどまることができる。例えば、ユーザがラップトップで作業しており、ラップトップを空中ジェスチャー認識モードに移行させるUI要素を選択したシナリオを考える。ユーザは、スクリーンの前に存在し、コーヒーをすすったり、自身のスマートフォンを見たりなどすることにより、よそ見し得る。デバイスは、当該非関与の瞬間を可能としながら、空中ジェスチャーモードに留まり得る。ユーザ非関与が可能な期間は、予め構成され得、またはユーザにより定義され得、例えば、1秒、3秒、1分、5分、10分、または他の任意の時間の長さであり得る。別の実施形態において、デバイスは、ユーザがスクリーンを見ているかにかかわらず、ユーザが存在する限り、空中ジェスチャー認識モードに留まる。これは、ユーザが空中ジェスチャー認識モードにあるデバイスの前に存在しながら、ユーザに新聞を読む、本を読むなどに、不定の時間割くことを可能とするシナリオを可能とし得る。そのようなシナリオにおいて、デバイススクリーン上に、可聴警報を介してユーザに通知可能なシステム通知がポップアップすると、ユーザは見上げて、通知を読んで、スクリーンをタッチするのに前に手を伸ばす必要なく、その手を空中でスワイプすることで、それを消すことができる。
いくつかの実施形態において、ユーザ関与は、ディスプレイの前のユーザの存在検出に基づき得るが、ユーザに短時間非関与が可能となる。ユーザがスクリーンを見ているかを考慮してある。これにより、デバイス、オペレーティングシステム、またはアプリケーションは、ユーザが関与していると考えられるために、ユーザがスクリーンを見ているとする場合よりも、空中ジェスチャーが認識され、対応されるモードまたはコンテキストに、より長くとどまることができる。例えば、ユーザがラップトップで作業しており、ラップトップを、空中ジェスチャーを認識するモードに移行させるUI要素を選択したシナリオを考える。ユーザは、スクリーンの前に存在し、コーヒーをすすったり、新聞を読んだり、自身のスマートフォンを見たりなどすることにより、よそ見し得る。短い間から可能になる
ビジョン/撮像アナライザ4138が複数のユーザを検出するいくつかの実施形態において、デバイスは、ユーザをタッチジェスチャーまたは空中ジェスチャーに関連付け得る。この関連付けは、ビジョン/撮像アナライザ4138、タッチアナライザ4134、リッド4110における他のコンポーネント、またはそれらの組み合わせにより実行され得る。いくつかの実施形態において、ユーザをタッチジェスチャーまたは空中ジェスチャーに関連付けることは、ホスト処理ユニット4150など、デバイス4100のベース4140内の計算リソースにより実行され得る。複数の検出されたユーザの1人を、タッチジェスチャーまたは空中ジェスチャーに関連付けることは、タッチ位置情報、画像位置情報、および/またはユーザ位置情報に基づいて、どのユーザがジェスチャーに最も近いかを判定することを含み得る。1または複数のユーザに対するユーザ関与情報は、ビジョン/撮像アナライザ4138、またはリッド4110内の他のコンポーネントにより、ホスト処理ユニット4150に送信され得る。
デバイス4100上で動作するオペレーティングシステム4160またはアプリケーション4170は、タッチメタデータに基づき、1または複数の第1動作を実行し、その後、画像メタデータに基づき、1または複数の第2動作を実行し得る。タッチアナライザ4134でのタッチセンサデータ4130の受信に関連付けられた時間から、ビジョン/撮像アナライザ4138での画像センサデータ4132の受信に関連付けられた第2の時間までに、ユーザがディスプレイ4118に関与したとオペレーティングシステム4160またはアプリケーション4170が判定すると、1または複数の第2動作が実行され得る。いくつかの実施形態において、タッチセンサデータ4130の受信に関連付けられた時間は、タッチメタデータ4144がホスト処理ユニット150に送信された時間、タッチセンサデータ4130に基づき、ディスプレイ4118でタッチジェスチャーが生じたと判定された時間、またはタッチセンサデータ4130の処理に関連した他の時間であり得る。いくつかの実施形態において、画像センサデータ4132の受信に関連付けられた第2の時間は、画像メタデータ4148がホスト処理ユニット150に送信された時間、画像センサデータ4132に基づき、ディスプレイ4118で空中ジェスチャーが生じたと判定された時間、またはビジョン/撮像アナライザ4138で受信された画像センサデータ4132の処理に関連した他の時間であり得る。
オペレーティングシステム4160またはアプリケーション4170は、一連の関連マルチユーザマルチプレーンジェスチャーを可能にし得る。例えば、画像メタデータ4148が複数のユーザの存在を示す場合、ジェスチャーに関連付けられたユーザが、初期マルチプレーンジェスチャーからディスプレイに関与しているかに基づいて、動作が実行され得る。例えば、第1ユーザがディスプレイにタッチし、第2ユーザが後続の空中ジェスチャーを実行すると、オペレーティングシステム4160またはアプリケーション4170は、第1ユーザがディスプレイにタッチしてから、第2ユーザがディスプレイに関与していると判定された場合、空中ジェスチャーに関連付けられた1または複数の動作を実行し得る。同様に、オペレーティングシステム4160またはアプリケーション4170は、最初のタッチから、第1ユーザがディスプレイに関与していると判定された場合、第1ユーザにより行われた後続のタッチに応じて動作を実行し得る。いくつかの実施形態において、オペレーティングシステム4160またはアプリケーション4170は、タッチメタデータに基づき、第1動作を実行し、同時に、画像メタデータに基づき、第2動作を実行し得る。単一のユーザにより同時に提供されるタッチジェスチャーおよび空中ジェスチャーも認識され、対応され得る。
いくつかの実施形態において、デバイス4100は、1または複数のライダセンサ、レーダセンサ、および超音波センサであり得る、追加的なセンサ4154を含み得る。別の実施形態において、追加的なセンサ4154は、赤外線センサおよび光センサの1または複数をさらに含み得る。追加的なセンサは、追加的なセンサアナライザ4162に提供される、追加的なセンサデータ4158を生成し得る。追加的なセンサアナライザ4162は、追加的なセンサデータに基づいて、追加的なセンサメタデータを生成し得る。追加的なセンサアナライザ4162は、追加的なセンサデータ4166を1または複数のホスト処理ユニットに送信する。オペレーティングシステム4160、アプリケーション4170の1つ、または内蔵センサハブ4180は、追加的なセンサメタデータを利用し得る。いくつかの実施形態において、追加的なセンサアナライザ4162は、追加的なセンサデータ4158の一部を、ホスト処理ユニット4150に送信する。追加的なセンサメタデータは、空中ジェスチャーの位置を示す、追加的なセンサ位置情報を含み得る。
図44Aから図44Cは、関連マルチプレーンマルチユーザジェスチャーの第2の例を示す。図44Aから図44Cは、図43Aから図43Cに示すものと同様だが、タッチジェスチャーおよび空中ジェスチャーが2人のユーザにより実行されるシナリオを示す。図44Aにおいて第1ユーザは、ポイント4324における編集UI要素にタッチし、アプリケーションは空中ジェスチャーが認識される編集モードに移行する。図44Bから図44Cにおいて、第1ユーザの指4428と、第2ユーザの指4432はそれぞれ、イラストレーションを編集するための、タッチジェスチャーおよび空中ジェスチャーを提供する。
図45Aから図45Bは、マルチプレーンジェスチャーの第3の例を示す。ジェスチャーは、リッド4510、ベース4520、カメラ4504、およびディスプレイ4530を含むコンピューティングデバイス4500に適用されるものとして示される。デバイス4500は、コンピュータ支援描画(CAD)アプリケーションを実行している。図45Aにおいて、ユーザは、ディスプレイ4530上のポイント4524をタッチすることで、操作用のコーン4534を選択する。オブジェクト(例えば、コーン4534)を選択したことに応じて、CADアプリケーションは、選択されたオブジェクトが空中ジェスチャーを介して移動または他の方法で操作され得るモードに移行する。図45Bは、1または複数の空中ジェスチャーを介してコーン4534を操作するユーザの手4528を示す。オブジェクトを移動または操作する空中ジェスチャーは、CAD環境の表面から、オブジェクトを持ち上げるまたは浮かせるための、「掴む」ジェスチャー(例えば、1または複数の指を親指に向かってまとめる(が触れない))またはピンチジェスチャー、およびオブジェクトを回転させるための、ピンチした指または掴む姿勢の手をひねるまたは移動することを含み得る。ユーザがスクリーンに対して離れるようにまたは近づけるようにその指または手を動かすことで、CAD環境において、オブジェクトをそれぞれユーザに近づけ、またはさらに離れさせ得る。したがって、CADアプリケーションは、ディスプレイ4530の表面からの、ユーザの指、手、または他のジェスチャーオブジェクトの距離に基づいて動作を実行し得る。
図46Aから図46Bは、関連マルチプレーンジェスチャーの第4の例を示す。ジェスチャーは、リッド4610、ベース4620、カメラ4604、およびディスプレイ4630を含むコンピューティングデバイス4600に適用されるものとして示される。デバイス4600は、ビデオ会議アプリケーションを実行する。図46Aにおいて、ユーザは、ディスプレイ4630上のポイント4624へのタッチを介して、音量制御UI要素を選択する。これに応じて、ビデオ会議アプリケーションは、空中ジェスチャーを介して、音量が制御され得る、音量制御モードに移行する。図46Bにおいて、ユーザの指4628は、空中ジェスチャーを介して、音量スライダUI要素4632を制御する(例えば、ユーザの指4628の左または右への移動は、音量スライダUI要素を、左または右にスライドさせ、それにより、音量レベル設定を下げるまたは上げる)。調整された音量設定の承認として認識され得る空中ジェスチャーの例は、指4628を上または下にスワイプすること、またはユーザの拳に指4628を引っ込めることを含む。
図46Aから図46Bは、初期ジェスチャー(音量制御UI要素へのタッチ)に応じて提示される、ユーザインタフェース要素(音量制御スライダ)の例を示す。UI要素は、空中ジェスチャーを介して、インタラクト可能である。ディスプレイのタッチに応じて、空中ジェスチャーを介してインタラクト可能な様々な他のUI要素が提示され得る。いくつかの実施形態において、オペレーティングシステムまたはアプリケーションは、空中ジェスチャーが認識され、対応される、新たなユーザインタフェースを表示することを含むモードまたはコンテキストに移行し得る。オペレーティングシステムまたはアプリケーションは、ユーザがディスプレイに関与しなくなるまで、想定された空中ジェスチャーが受信されるまで、あるいはユーザがモードまたはコンテキストを脱する(例えば、オペレーティングシステムまたはアプリケーションが、ユーザがモードまたはコンテキストを脱することを希望していることを示すジェスチャーとして認識するタッチジェスチャーまたは空中ジェスチャーを提供することによる)、またはユーザが空中ジェスチャーモードまたはコンテキストから脱させるUI要素にタッチするまで、このモードまたはコンテキストに留まることができる。
空中ジェスチャーを介して、図46Aから図46Bに示すビデオ会議アプリケーションに対する音量設定など、アプリケーション設定に対するパラメータ値の調整が可能なアプリケーションにおいて、様々なタイプの空中ジェスチャーによりパラメータ値の調整が制御可能である。例えば、ディスプレイに向けて掌を掲げることで、音声がミュートされ得る。上向きの掌は、パラメータ値を増加させ得る。下向きの掌は、パラメータ値を減少させ得る。パラメータ値の選択として認識され得る空中ジェスチャーの例は、指をくねらせる、空中で指を「ダブルタップする」、または拳を握ることを含む。いくつかの実施形態において、オペレーティングシステムレベルパラメータの調整も、空中ジェスチャーを介して行われ得る。例えば、ユーザがオペレーティングシステムパラメータに関連付けられたアイコンをタッチすることに応じて、デバイスは、後続の空中ジェスチャーがオペレーティングシステムパラメータの値を調整可能なモードまたはコンテキストに移行できる。
図47Aから図47Bは、関連マルチプレーンジェスチャーの第5の例を示す。ジェスチャーは、リッド4710、ベース4720、カメラ4704、およびディスプレイ4730を含むコンピューティングデバイス4700に適用されるものとして示される。デバイス4700は、参加者が円グラフを共有する、ビデオ会議アプリケーションを実行している。図47Aにおいて、ユーザは、ポイント4728でディスプレイ4730をタッチすることで、円グラフの部分4724を選択する。これに応じて、ビデオ会議アプリケーションは、空中ジェスチャーを介してグラフが注釈付き可能となる、注釈モードに移行する。図47Bは、空中ジェスチャーを介して、「+10」という注釈を加え、矢印を部分4724から当該注釈に描くことで、グラフ部分4724に注釈を加えるユーザの指4732を示す。いくつかの実施形態において、アプリケーションが、ディスプレイ表面から第1の範囲の距離内でジェスチャーオブジェクトにより行われた空中ジェスチャーをディスプレイに行われた書き込みと解し、ジェスチャーオブジェクトによりディスプレイからこの距離範囲よりさらに遠くで行われた空中ジェスチャーを、注釈を生成するジェスチャーとして解さないことで、空中ジェスチャーで書くことが実行され得る。他のビデオ会議アプリケーション実施形態において、ユーザは、アプリケーションを、会議中に共有されるコンテンツが空中ジェスチャーで制御されるプレゼンテーションモードに移行させるUI要素をタッチし得る。例えば、右への空中スワイプは、プレゼンテーションの次のスライドへの進行を生じさせ得、空中ピンチまたはアンピンチジェスチャーは、アプリケーションを提示されたコンテンツに対してズームインまたはズームアウトさせ得る。
図48Aから図48Bは、関連マルチプレーンジェスチャーの第6の例を示す。ジェスチャーは、リッド4810、ベース4820、カメラ4804、およびディスプレイ4830を含むコンピューティングデバイス4800に適用されるものとして示される。デバイス4800は、オフィス生産性アプリケーションを実行し、複数の通知4824(例えば、テキスト通知、eメール通知、システム通知、会議通知、着信通話通知)が、ディスプレイ4830の右下に現れている。図48Aにおいて、ユーザは、ディスプレイ4830上のポイント4832で、指4828により、複数の通知4824から通知を選択する。それに応じて、オペレーティングシステムは、空中ジェスチャーを介して、通知が消される、または選択され得るモードに移行する。図48Bにおいて、指4828は、空中ジェスチャーを介して通知4824を選択する。これは、例えば、この通知を閾値時間の間指し、通知を消すために、「右スワイプ」ジェスチャーを行うことによる。ユーザは、同様にして、通知4836および4840を消すことができる。あるいは、ユーザは、例えば左スワイプ、上スワイプ、空中「タップ」ジェスチャーなどにより、選択された通知に関する情報をさらに見ることを指示し得る。通知に関するさらなる情報を見るためのインジケーションを提供することで、デバイスに、eメールを見るためにeメールアプリケーションを開かせ、通知コンテンツをさらに見せるためのポップアップウィンドウを表示させ、またはユーザが選択された通知に関するさらなる情報を見ることができるようにするための他の任意の動作を実行させ得る。
空中ジェスチャーがオペレーティングシステムまたはアプリケーションにより受け付けできる場合に、それに対する制御向上を実現することで、本明細書に記載の関連マルチプレーンジェスチャーは、コラボレーションアプリケーションの制御向上、ゲーミング体験の向上、およびより没入感の強いクリエイターツールを実現可能にし得る。上述のように、ユーザがデバイスを空中ジェスチャーが認識され、対応されるモードまたはコンテキストに移行させることができるようにするUI要素が提示され得る。これは、例えば、イラストレーションアプリケーションで有効となり得る。例えば、ユーザは、その利き手を用いて、スタイラスを制御してタッチジェスチャーを介してイラストレーションアプリケーションとインタラクトし、その反対の手を使用してUI要素をタッチして、ユーザが空中ジェスチャーを介して新たな色を選択可能なカラーホイールUI要素を出現させ得る。ユーザはその利き手でスタイラスを持ったまま、利き手ではない手による空中ジェスチャーを介して新たな色を選択し得る。これにより、その利き手ではない手がディスプレイの一部を遮蔽することなく、新たな色の選択が可能となる。他の多くのマルチプレーンジェスチャー使用状況があり得る。例えば、選択されると、ユーザに空中ジェスチャーを介してブラシ幅を選択可能とする、ブラシサイズUI要素が提示され得る。ブラシ幅は、ユーザがその指または手をスクリーンに近づけるように、またはさらに離すように動かすことで、またはその指または手を上または下に動かすことで、調整可能である。
図49は、モバイルコンピューティングデバイスに適用された組み合わせジェスチャーを判定し、組み合わせジェスチャーに基づき動作を実行する例示的方法である。方法4900は、ラップトップ(例えば、100、122、200、300、900、3800)などのモバイルコンピューティングデバイスにより実行可能である。方法要素4910は、モバイルコンピューティングデバイスのリッド内で実行され得、方法要素4930は、モバイルコンピューティングデバイスのベース内で実行され得る。4912において、タッチセンサデータがタッチディスプレイコントローラから受信される。4914において、画像センサデータがカメラから受信される。4916において、タッチセンサデータに基づいて、タッチメタデータが判定される。4918において、画像センサデータに基づいて、画像メタデータが判定される。4920において、タッチメタデータおよび画像メタデータがオペレーティングシステムに提供される。4932において、オペレーティングシステムまたはアプリケーションが、タッチメタデータおよび画像メタデータに基づいて、組み合わせジェスチャーを判定する。オペレーティングシステムおよびアプリケーションは、モバイルコンピューティングデバイスのベース内に配置された1または複数の処理ユニット上で実行される。4934において、オペレーティングシステムまたはアプリケーションは、組み合わせジェスチャーに基づいて、1または複数の動作を実行し得る。別の実施形態において、方法4900は、タッチセンサデータの一部および/または画像センサデータの一部をオペレーティングシステムに提供するなどの追加的な要素を含み得、オペレーティングシステムまたはアプリケーションは、タッチセンサデータおよび/または画像センサデータ当該一部にさらに基づいて、組み合わせジェスチャーを判定する。
図50は、一連のマルチプレーンジェスチャーの存在を判定し、マルチプレーンジェスチャーに基づいて動作を実行する例示的方法である。方法5000は、ラップトップ(例えば、100、122、200、300、900、3800)などのモバイルコンピューティングデバイスにより実行可能である。方法要素5010は、モバイルコンピューティングデバイスのリッド内で実行され得、方法要素5030は、モバイルコンピューティングデバイスのベース内で実行され得る。5012において、第1タッチセンサデータがタッチディスプレイコントローラから受信される。5014において、第1タッチセンサデータに基づいて、第1タッチメタデータが判定される。5016において、第1タッチメタデータがオペレーティングシステムに提供される。5018において、第1タッチセンサデータが受信された後に、モバイルコンピューティングデバイスのリッド内に配置されたカメラから画像センサデータが受信される。5020において、画像センサデータに基づいて、画像メタデータが判定される。5022において、画像メタデータがオペレーティングシステムに提供される。5032において、オペレーティングシステムまたはアプリケーションは、第1タッチメタデータに基づいて、1または複数の第1動作を実行する。オペレーティングシステムおよびアプリケーションは、モバイルコンピューティングデバイスのベース内に配置された1または複数の処理ユニット上で実行される。5034において、オペレーティングシステムまたはアプリケーションは、画像メタデータに基づいて、1または複数の第2動作を実行する。
別の実施形態において、方法5000は、画像センサデータに基づいて、モバイルコンピューティングデバイスのディスプレイに対する第1ユーザの関与を示す第1ユーザ関与情報を判定すること、および第1ユーザ関与情報をオペレーティングシステムに提供することなどの追加的な要素を含み得る。第1ユーザ関与情報が、第1タッチセンサデータの受信に関連付けられる第1時間から、画像センサデータの受信に関連付けられる第2時間までに、第1ユーザのディスプレイに対する関与を示す場合、オペレーティングシステムまたはアプリケーションは1または複数の第2動作を実行する。
以下の例は、本明細書に係る実施形態に関する。
例FA1は、モバイルコンピューティングデバイスのリッド内で、タッチディスプレイコントローラからタッチセンサデータを受信する段階と、カメラから画像センサデータを受信する段階と、上記タッチセンサデータに基づいてタッチメタデータを判定する段階と、上記画像センサデータに基づいて画像メタデータを判定する段階と、上記タッチメタデータおよび上記画像メタデータをオペレーティングシステムに提供する段階と、上記モバイルコンピューティングデバイスのベース内で、上記オペレーティングシステムまたはアプリケーションにより、上記タッチメタデータおよび上記画像メタデータに基づいて組み合わせジェスチャーを判定する段階であって、上記オペレーティングシステムおよび上記アプリケーションは、上記ベース内に配置された1または複数の処理ユニット上で実行される、判定する段階と、上記オペレーティングシステムまたは上記アプリケーションにより、上記組み合わせジェスチャーに基づいて1または複数の動作を実行する段階と、を含む方法である。
例FA2は、例FA1の方法を含み、上記画像メタデータは、空中ジェスチャー位置情報を含む。
例FA3は、例FA2の方法を含み、上記空中ジェスチャー位置情報は、上記モバイルコンピューティングデバイスのディスプレイからのジェスチャーオブジェクトの距離を示す距離情報を含み、上記1または複数の動作を実行する段階は、上記距離情報にさらに基づく。
例FA4は、例FA1の方法を含み、上記タッチメタデータはタッチ位置情報を含む。
例FA5は、例FA1の方法を含み、上記モバイルコンピューティングデバイスの上記リッド内で、上記オペレーティングシステムに上記タッチセンサデータの少なくとも一部を提供する段階をさらに含み、上記組み合わせジェスチャーを判定する段階は、上記タッチセンサデータの上記少なくとも一部にさらに基づく。
例FA6は、例FA1の方法を含み、上記モバイルコンピューティングデバイスの上記リッド内で、上記オペレーティングシステムに上記画像センサデータの少なくとも一部を提供する段階をさらに含み、上記組み合わせジェスチャーを判定する段階は、上記画像センサデータの上記少なくとも一部にさらに基づく。
例FA7は、例FA1の方法を含み、上記モバイルコンピューティングデバイスの上記リッド内で、上記タッチセンサデータと上記画像センサデータとが時間的に関連することを示す時間的関係情報を判定する段階と、上記オペレーティングシステムに上記時間的関係情報を提供する段階と、をさらに含み、上記組み合わせジェスチャーを判定する段階は、上記時間的関係情報にさらに基づく。
例FA8は、例FA1の方法を含み、上記モバイルコンピューティングデバイスの上記リッド内で、上記タッチセンサデータと上記画像センサデータとが空間的に関連することを示す空間的関係情報を判定する段階と、上記オペレーティングシステムに上記空間的関係情報を提供する段階とを、さらに含み、上記組み合わせジェスチャーを判定する段階は、上記空間的関係情報にさらに基づく。
例FA9は、例FA1の方法を含み、上記モバイルコンピューティングデバイスの上記リッド内で、ライダセンサ、レーダセンサ、および超音波センサのうちの1または複数からの追加的なセンサデータを受信する段階と、上記追加的なセンサデータに基づいて追加的なセンサメタデータを判定する段階と、上記1または複数の処理ユニットに上記追加的なセンサメタデータを提供する段階と、をさらに含み、上記組み合わせジェスチャーを判定する段階は、上記追加的なセンサメタデータにさらに基づく。
例FA10は、本明細書に上述の例FAのいずれか1つの方法を含み、例AA1からAA16、DE1からDE17、またはEA1からEA10のいずれか1つの方法の要素(これらの方法要素が本明細書に上述の例FAの方法要素と重複しない限り)をさらに含む。
例FB1は、リッドおよびベースを備えるモバイルコンピューティングデバイスであって、上記リッドは、タッチディスプレイと、カメラと、タッチディスプレイコントローラと、ビジョン/撮像アナライザ回路機構であって、上記カメラから画像センサデータを受信し、上記画像センサデータに基づいて画像メタデータを判定し、オペレーティングシステムに上記画像メタデータを送信する、ビジョン/撮像アナライザ回路機構と、タッチアナライザ回路機構であって、上記タッチディスプレイコントローラからタッチセンサデータを受信し、上記タッチセンサデータに基づいてタッチメタデータを判定し、上記オペレーティングシステムに上記タッチメタデータを送信する、タッチアナライザ回路機構と、を含み、上記ベースは、上記オペレーティングシステムおよびアプリケーションを実行する1または複数の処理ユニットを含み、上記オペレーティングシステムまたはアプリケーションは、上記タッチメタデータおよび上記画像メタデータに基づいて組み合わせジェスチャーを判定し、上記組み合わせジェスチャーに基づいて1または複数の動作を実行する。
例FB1.5は、例FB1のモバイルコンピューティングデバイスを含み、上記ビジョン/撮像アナライザ回路機構および上記タッチアナライザ回路機構は、リッドコントローラハブの一部である。
例FB2は、例FB1のモバイルコンピューティングデバイスを含み、上記画像メタデータは、空中ジェスチャー位置情報を含む。
例FB3は、例FB2のモバイルコンピューティングデバイスを含み、上記空中ジェスチャー位置情報は、上記タッチディスプレイからのジェスチャーオブジェクトの距離を示す距離情報を含み、上記1または複数の動作を実行することは、上記距離情報にさらに基づく。
例FB4は、例FB1のモバイルコンピューティングデバイスを含み、上記タッチメタデータはタッチジェスチャー位置情報を含む。
例FB5は、例FB1のモバイルコンピューティングデバイスを含み、上記タッチアナライザ回路機構は、上記オペレーティングシステムに上記タッチセンサデータの少なくとも一部をさらに提供し、上記組み合わせジェスチャーを判定することは、上記タッチセンサデータの上記少なくとも一部にさらに基づく。
例FB6は、例FB1のモバイルコンピューティングデバイスを含み、上記ビジョン/撮像アナライザ回路機構は、上記オペレーティングシステムに上記画像センサデータの少なくとも一部をさらに提供し、上記組み合わせジェスチャーを判定することは、上記画像センサデータの上記少なくとも一部にさらに基づく。
例FB7は、例FB1のモバイルコンピューティングデバイスを含み、上記組み合わせジェスチャーを判定することは、上記タッチメタデータおよび上記画像メタデータに基づいて、上記タッチセンサデータと上記画像センサデータとが時間的に関連するかにさらに基づく。
例FB8は、例FB1のモバイルコンピューティングデバイスを含み、上記タッチセンサデータと上記画像センサデータとが時間的に関連することを示す時間的関係情報を生成し、上記オペレーティングシステムを上記時間的関係情報に提供する上記ビジョン/撮像アナライザ回路機構および/または上記画像アナライザ回路機構をさらに含み、上記組み合わせジェスチャーを判定することは、上記時間的関係情報にさらに基づく。
例FB9は、例FB1のモバイルコンピューティングデバイスを含み、上記組み合わせジェスチャーを判定することは、上記タッチメタデータおよび上記画像メタデータに基づいて、上記タッチセンサデータと上記画像センサデータとが空間的に関連するかにさらに基づく。
例FB10は、例FB1のモバイルコンピューティングデバイスを含み、上記タッチセンサデータと上記画像センサデータとが空間的に関連することを示す空間的関係情報を生成し、上記オペレーティングシステムに上記空間的関係情報を提供する上記ビジョン/撮像アナライザ回路機構および/または上記画像アナライザ回路機構をさらに含み、上記組み合わせジェスチャーを判定することは、上記空間的関係情報にさらに基づく。
例FB11は、例FB1のモバイルコンピューティングデバイスを含み、上記リッド内で、ライダセンサ、レーダセンサ、および超音波音センサのうちの1または複数を含む1または複数の追加的なセンサと、追加的なセンサアナライザと、をさらに含み、上記追加的なセンサアナライザは、上記1または複数の追加的なセンサから追加的なセンサデータを受信し、上記追加的なセンサデータに基づいて追加的なセンサメタデータを判定し、上記1または複数の処理ユニットに上記追加的なセンサメタデータを送信し、上記組み合わせジェスチャーを判定することは、上記追加的なセンサメタデータにさらに基づく。
例FB12は、本明細書に上述の例FBのいずれか1つのモバイルコンピューティングデバイスを含み、例AB1からAB14、DA1からDA17、DB1からDB14、またはEC1からEC10のいずれかの特徴(これらの特徴が本明細書に上述の例FBの特徴と重複しない限り)をさらに含む。
例FC1は、モバイルコンピューティングデバイスのリッド内で、タッチディスプレイコントローラから第1タッチセンサデータを受信する段階と、上記第1タッチセンサデータに基づいて第1タッチメタデータを判定する段階と、上記第1タッチメタデータをオペレーティングシステムに提供する段階と、上記第1タッチセンサデータの受信後に上記リッド内に配置されたカメラから画像センサデータを受信する段階と、上記画像センサデータに基づいて画像メタデータを判定する段階と、上記画像メタデータを上記オペレーティングシステムに提供する段階と、上記モバイルコンピューティングデバイスのベース内で、上記オペレーティングシステムまたはアプリケーションは、上記モバイルコンピューティングデバイスの上記ベース内に配置された1または複数の処理ユニット上で実行され、上記第1タッチメタデータに基づいて1または複数の第1動作を実行する段階と、上記1または複数の第1動作の実行の後、上記画像メタデータに基づいて1または複数の第2動作を実行する段階と、を含む方法である。
例FC1.5は、例FC1のモバイルコンピューティングデバイスを含み、上記ビジョン/撮像アナライザ回路機構および上記タッチアナライザ回路機構は、リッドコントローラハブの一部である。
例FC2は、例FC1の方法を含み、上記モバイルコンピューティングデバイスの上記リッド内で、上記画像センサデータに基づいて、上記モバイルコンピューティングデバイスのディスプレイに対する第1ユーザの関与を示す第1ユーザ関与情報を判定する段階と、上記オペレーティングシステムに上記第1ユーザ関与情報を提供する段階と、を含み、上記第1ユーザ関与情報が、上記第1タッチセンサデータの受信に関連付けられる第1時間から、上記画像センサデータの受信に関連付けられる第2時間までに、上記第1ユーザの上記ディスプレイに対する関与を示す場合、上記オペレーティングシステムまたは上記アプリケーションは、上記1または複数の第2動作を実行する。
例FC3は、例FC1の方法を含み、上記モバイルコンピューティングデバイスの上記リッド内で、上記タッチディスプレイコントローラから第2タッチセンサデータを受信する段階と、上記第2タッチセンサデータに基づいて第2タッチメタデータを判定する段階と、上記画像センサデータに基づいて、上記モバイルコンピューティングデバイスのディスプレイに対する第1ユーザの関与を示す第1ユーザ関与情報を判定する段階と、上記オペレーティングシステムに上記第2タッチメタデータおよび上記第1ユーザ関与情報を提供する段階と、上記モバイルコンピューティングデバイスの上記ベース内で、上記第1ユーザ関与情報が、上記第1タッチセンサデータの受信に関連付けられる第1時間から、上記第2タッチセンサデータの受信に関連付けられる第3時間までに、上記第1ユーザの上記ディスプレイに対する関与を示す場合、上記オペレーティングシステムまたは上記アプリケーションは、上記第2タッチメタデータに基づいて1または複数の第3動作を実行する段階と、をさらに含む。
例FC4は、例FC3の方法を含み、上記第1ユーザ関与情報を判定する段階は、上記画像センサデータに基づいて上記カメラの視野において上記第1ユーザの存在を検出する段階と、上記第1ユーザの顔の向きを判定する段階と、上記顔の向きに基づいて、上記第1ユーザが上記モバイルコンピューティングデバイスのディスプレイを見ているかを判定する段階と、を含む。
例FC5は、例FC1の方法を含み、上記モバイルコンピューティングデバイスの上記リッド内で、上記画像センサデータに基づいて、上記カメラの視野において第1ユーザおよび第2ユーザの存在を判定する段階と、上記第1ユーザを上記第1タッチセンサデータに関連付ける段階と、上記第2ユーザを上記画像センサデータに関連付ける段階と、をさらに含む。
例FC6は、例FC4の方法を含み、上記モバイルコンピューティングデバイスの上記リッド内で、上記モバイルコンピューティングデバイスのディスプレイに対する上記第2ユーザの関与を示す第2ユーザ関与情報を判定する段階と、上記オペレーティングシステムに上記第2ユーザ関与情報を提供する段階と、さらに含み、上記第2ユーザ関与情報が、上記第1タッチセンサデータの受信に関連付けられる第1時間から、上記画像センサデータの受信に関連付けられる第2時間までに、第2ユーザの上記ディスプレイに対する関与を示す場合、上記オペレーティングシステムまたは上記アプリケーションは、上記1または複数の第2動作を実行する。
例FC7は、例FC1の方法を含み、上記モバイルコンピューティングデバイスの上記リッド内で、上記第1タッチセンサデータの受信後に、上記タッチディスプレイコントローラから第2タッチセンサデータを受信する段階と、上記第2タッチセンサデータに基づいて第2タッチメタデータを判定する段階と、第1ユーザが上記モバイルコンピューティングデバイスのディスプレイに関与しているかを示す第1ユーザ関与情報を判定する段階と、上記オペレーティングシステムに上記第2タッチメタデータおよび上記第1ユーザ関与情報を提供する段階と、上記モバイルコンピューティングデバイスの上記ベース内で、上記第1ユーザ関与情報が、上記第1タッチセンサデータの受信に関連付けられる第1時間から、上記第2タッチセンサデータの受信に関連付けられる第3時間までに、第1ユーザの上記ディスプレイに対する関与を示す場合、上記オペレーティングシステムまたは上記アプリケーションは、上記第2タッチメタデータに基づいて1または複数の第3動作を実行する段階と、をさらに含む。
例FC8は、例FC1からFC7のいずれかの方法を含み、上記1または複数の第2動作を実行する段階は、空中ジェスチャーを介してインタラクト可能なユーザインタフェースを表示させる段階を含む。
例FC9は、例FC1の方法を含み、上記モバイルコンピューティングデバイスの上記リッド内で、ライダセンサ、レーダセンサ、および超音波センサのうちの1または複数からの追加的なセンサデータを受信する段階と、上記追加的なセンサデータに基づいて追加的なセンサメタデータを判定する段階と、上記1または複数の処理ユニットに上記追加的なセンサメタデータを提供する段階と、をさらに含み、上記1または複数の第2動作を実行する段階は、上記追加的なセンサメタデータにさらに基づく。
例FC10は、本明細書に上述の例FCのいずれか1つの方法を含み、例AA1からAA16、DE1からDE17、またはEA1からEA10のいずれか1つの方法の要素(これらの方法要素が本明細書に上述の例FCの方法要素と重複しない限り)をさらに含む。
例FD1は、リッドおよびベースを備えるモバイルコンピューティングデバイスであって、上記リッドは、タッチディスプレイと、カメラと、タッチディスプレイコントローラと、ビジョン/撮像アナライザ回路機構であって、上記タッチディスプレイコントローラから第1タッチセンサデータを受信し、上記第1タッチセンサデータに基づいて第1タッチメタデータを判定し、オペレーティングシステムに上記第1タッチメタデータを提供する、ビジョン/撮像アナライザ回路機構と、タッチアナライザ回路機構であって、上記ビジョン/撮像アナライザ回路機構で上記第1タッチセンサデータが受信された後、上記カメラから画像センサデータを受信し、上記画像センサデータに基づいて画像メタデータを判定し、上記オペレーティングシステムに上記画像メタデータを提供する、タッチアナライザ回路機構と、を含み、上記ベースは、上記オペレーティングシステムおよびアプリケーションを実行する1または複数の処理ユニットを含み、上記オペレーティングシステムまたはアプリケーションは、上記第1タッチメタデータに基づいて1または複数の第1動作を実行し、上記1または複数の第1動作の実行の後、上記画像メタデータに基づいて1または複数の第2動作を実行する。
例FD2は、例FD1のモバイルコンピューティングデバイスを含み、上記ビジョン/撮像アナライザ回路機構はさらに、上記画像センサデータに基づいて、上記タッチディスプレイに対する第1ユーザの関与を示す第1ユーザ関与情報を判定し、上記オペレーティングシステムに上記第1ユーザ関与情報を提供し、上記第1ユーザ関与情報が、上記第1タッチセンサデータの受信に関連付けられる第1時間から、上記画像センサデータの受信に関連付けられる第2時間までに、上記第1ユーザの上記タッチディスプレイに対する関与を示す場合、上記オペレーティングシステムまたは上記アプリケーションは、上記1または複数の第2動作を実行する。
例FD3は、例FD1のモバイルコンピューティングデバイスを含み、上記タッチアナライザ回路機構はさらに、上記タッチディスプレイコントローラから第2タッチセンサデータを受信し、上記第2タッチセンサデータに基づいて第2タッチメタデータを判定し、上記ビジョン/撮像アナライザ回路機構はさらに、上記画像センサデータに基づいて、第1ユーザが上記タッチディスプレイに関与しているかを示す第1ユーザ関与情報を判定し、上記オペレーティングシステムに上記第2タッチメタデータおよび上記第1ユーザ関与情報を提供し、上記第1ユーザ関与情報が、上記第1タッチセンサデータの受信に関連付けられる第1時間から、上記第2タッチセンサデータの受信に関連付けられる第3時間までに、上記第1ユーザの上記タッチディスプレイに対する関与を示す場合、上記オペレーティングシステムまたは上記アプリケーションは、上記第2タッチメタデータに基づいて1または複数の第3動作をさらに実行する。
例FD4は、例FD1のモバイルコンピューティングデバイスを含み、上記第1ユーザ関与情報を判定することは、上記画像センサデータに基づいて上記カメラの視野において上記第1ユーザの存在を検出し、上記第1ユーザの顔の向きを判定し、上記顔の向きに基づいて、上記第1ユーザが上記タッチディスプレイを見ているかを判定することを含む。
例FD5は、例FD1のモバイルコンピューティングデバイスを含み、上記モバイルコンピューティングデバイスの上記リッド内で、上記画像センサデータに基づいて、上記カメラの視野において第1ユーザおよび第2ユーザの存在を判定し、上記第1ユーザを上記第1タッチセンサデータに関連付け、上記第2ユーザを上記画像センサデータに関連付けることをさらに含む。
例FD6は、例FD5のモバイルコンピューティングデバイスを含み、上記ビジョン/撮像アナライザ回路機構はさらに、上記モバイルコンピューティングデバイスの上記タッチディスプレイに対する上記第2ユーザの関与を示す第2ユーザ関与情報を判定し、上記オペレーティングシステムに上記第2ユーザ関与情報を提供し、上記第2ユーザ関与情報が、上記第1タッチセンサデータの受信に関連付けられる第1時間から、上記画像センサデータの受信に関連付けられる第2時間までに、上記第2ユーザの上記タッチディスプレイに対する関与を示す場合、上記オペレーティングシステムまたは上記アプリケーションは、上記1または複数の第2動作を実行する。
例FD7は、例FD6のモバイルコンピューティングデバイスを含み、上記タッチアナライザ回路機構は、上記第1タッチセンサデータの受信後に、上記タッチディスプレイコントローラから第2タッチセンサデータを受信し、上記第2タッチセンサデータに基づいて第2タッチメタデータを判定し、上記第1ユーザの上記タッチディスプレイに対する関与を示す第1ユーザ関与情報を判定し、上記オペレーティングシステムに上記第2タッチメタデータおよび上記第1ユーザ関与情報を提供し、上記モバイルコンピューティングデバイスの上記ベース内で、上記第1ユーザ関与情報が、上記第1タッチセンサデータの受信に関連付けられた上記第1時間から、上記第2タッチセンサデータの受信に関連付けられた第3時間までに、第1ユーザの上記タッチディスプレイに対する関与を示す場合、上記オペレーティングシステムまたは上記アプリケーションは、上記第2タッチメタデータに基づいて1または複数の第3動作を実行する。
例FD8は、例FD1からFD7のいずれかのモバイルコンピューティングデバイスを含み、上記1または複数の第2動作は、ユーザに空中ジェスチャーを促す上記タッチディスプレイにユーザインタフェースを表示させることを含む。
例FD9は、例FD1のモバイルコンピューティングデバイスを含み、上記リッド内で、ライダセンサ、レーダセンサ、および超音波音センサのうちの1または複数を含む1または複数の追加的なセンサと、追加的なセンサアナライザと、をさらに含み、上記追加的なセンサアナライザは、上記1または複数の追加的なセンサから追加的なセンサデータを受信し、上記追加的なセンサデータに基づいて追加的なセンサメタデータを判定し、上記1または複数の処理ユニットに上記追加的なセンサメタデータを提供し、上記1または複数の第2動作を実行する段階は、上記追加的なセンサメタデータにさらに基づく。
例FD10は、本明細書に上述の例FDのいずれか1つのモバイルコンピューティングデバイスを含み、例AB1からAB14、DA1からDA17、DB1からDB14、EC1からEC10のいずれかの特徴(これらの特徴が本明細書に上述の例FDの特徴と重複しない限り)をさらに含む。
例FE1は、回路機構を備える装置であって、上記回路機構は、上記装置の第1入力ポートでタッチセンサデータを受信し、上記タッチセンサデータに基づいてタッチメタデータを判定し、上記装置の第2入力ポートで画像センサデータを受信し、上記画像センサデータに基づいて画像メタデータを判定し、上記タッチセンサデータと上記画像センサデータとが時間的に関連することを示す時間的関係情報を生成し、上記タッチメタデータ、上記画像メタデータ、および上記時間的関係情報を上記装置の1または複数の出力ポートで提供し、上記装置は、モバイルコンピューティングデバイスのリッド内で使用される。
例FE1.5は、例FE1の装置であって、上記装置は、リッドコントローラハブである。
例FE2は、例FE1の装置であって、上記回路機構はさらに、上記タッチセンサデータと上記画像センサデータとが空間的に関連することを示す空間的関係情報を生成し、上記装置の上記出力ポートの1つで上記空間的関係情報を提供する。
例FE3は、例FE1の装置であって、上記回路機構はさらに、上記装置の第3入力ポートで追加的なセンサデータを受信し、上記追加的なセンサデータは、ライダセンサ、レーダセンサ、および超音波センサのうちの1または複数により提供され、上記追加的なセンサデータに基づいて追加的なセンサメタデータを判定し、上記装置の上記出力ポートのうちの上記1または複数で上記追加的なセンサメタデータを提供し、上記時間的関係を生成することは、上記タッチセンサデータおよび/または上記画像センサデータが上記追加的なセンサデータに時間的に関連すると判定することを含み、上記時間的関係情報は、上記タッチセンサデータおよび/または上記画像センサデータが上記追加的なセンサデータに時間的に関連することをさらに示す。
例FF1は、回路機構を備える装置であって、上記回路機構は、上記装置の第1入力ポートで第1タッチセンサデータを受信し、上記第1タッチセンサデータに基づいて第1タッチメタデータを判定し、上記装置の第2入力ポートで画像センサデータを受信し、上記画像センサデータに基づいて画像メタデータを判定し、上記画像センサデータに基づいて、タッチディスプレイに対する第1ユーザの関与を示す第1ユーザ関与情報を判定し、上記画像メタデータ、上記第1タッチメタデータ、および上記第1ユーザ関与情報を上記装置の1または複数の出力ポートで提供し、上記装置は、モバイルコンピューティングデバイスのリッド内で使用される。
例FF1.5は、は、例FF1の装置であって、上記装置は、リッドコントローラハブである。
例FF2は、例FF1の装置を備え、上記第1ユーザ関与情報を判定することは、上記画像センサデータに基づいてカメラの視野において上記第1ユーザの存在を検出し、上記第1ユーザの顔の向きを判定し、上記顔の向きに基づいて、上記第1ユーザが上記タッチディスプレイを見ているかを判定することを含む。
例FF3は、例FF1の装置を備え、上記回路機構はさらに、上記画像センサデータに基づいて、カメラの視野において第1ユーザおよび第2ユーザの存在を判定し、上記第1ユーザを上記第1タッチセンサデータに関連付け、上記第2ユーザを上記画像センサデータに関連付ける。
例FF4は、例FF3の装置を備え、上記回路機構はさらに、上記モバイルコンピューティングデバイスの上記タッチディスプレイに対する上記第2ユーザの関与を示す第2ユーザ関与情報を判定し、上記装置の上記出力ポートの1つで上記第2ユーザ関与情報を提供する。
例FF5は、例FF1の装置を備え、上記回路機構はさらに、上記装置の第3入力ポートで追加的なセンサデータを受信し、上記追加的なセンサデータは、ライダセンサ、レーダセンサ、および超音波センサのうちの1または複数により提供され、上記追加的なセンサデータに基づいて追加的なセンサメタデータを判定し、上記画像センサデータに基づいて、タッチディスプレイに対する第1ユーザの関与を示す第1ユーザ関与情報を判定し、上記装置の上記1または複数の出力ポートで上記追加的なセンサメタデータを提供し、上記装置は、モバイルコンピューティングデバイスのリッド内で使用される。
例FG1は、回路機構および時間的関係判定手段を備える装置であって、上記回路機構は、上記装置の第1入力ポートでタッチセンサデータを受信し、上記タッチセンサデータに基づいてタッチメタデータを判定し、上記装置の第2入力ポートで画像センサデータを受信し、上記画像センサデータに基づいて画像メタデータを判定し、上記タッチメタデータ、上記画像メタデータ、および時間的関係情報を上記装置の1または複数の出力ポートで提供し、上記時間的関係情報は、上記タッチセンサデータと上記画像センサデータとが時間的に関連することを示し、上記タッチメタデータ、上記画像メタデータ、および上記時間的関係情報を上記装置の1または複数の出力ポートで提供し、上記装置は、モバイルコンピューティングデバイスのリッド内で使用され、上記時間的関係判定手段は、上記時間的関係情報を判定する。
例FG2は、例FG1の装置を備え、上記回路機構はさらに、上記装置の上記出力ポートの1つで空間的関係情報を提供し、上記空間的関係情報は、上記タッチセンサデータと上記画像センサデータとが空間的に関連することを示し、上記装置は、上記空間的関係情報を判定する空間的関係判定手段をさらに含む。
例FH1は、回路機構およびユーザ関与判定手段を備える装置であって、上記回路機構は、上記装置の第1入力ポートで第1タッチセンサデータを受信し、上記第1タッチセンサデータに基づいて第1タッチメタデータを判定し、上記装置の第2入力ポートで画像センサデータを受信し、上記画像センサデータに基づいて画像メタデータを判定し、上記画像メタデータ、上記第1タッチメタデータ、および第1ユーザ関与情報を上記装置の1または複数の出力ポートで提供し、上記第1ユーザ関与情報は、上記画像センサデータに基づいて、タッチディスプレイに対する第1ユーザの関与を示し、上記装置は、モバイルコンピューティングデバイスのリッド内で使用され、上記ユーザ関与判定手段は、上記第1ユーザ関与情報を判定する。
例FI1は、命令を格納する1または複数の非一時的コンピュータ可読ストレージ媒体であって、上記命令は、実行されると、コンピューティングデバイスのリッドの1または複数の処理ユニットに、例FA1からFA9のうちのいずれか1つの方法を実行させる。
例FJ1は、例FA1からFA9のいずれか1つの方法を実行する1または複数の手段を含む装置である。
ユーザの存在による低電力タッチ
上述のように、LCHはリッドベースのコンポーネントを低電力状態にできる。例えば、モバイルコンピューティングデバイスのリッドが閉じたときに、ディスプレイの少なくとも一部が無効となるように、ディスプレイパイプラインコンポーネントが低電力状態にされ得る。LCHはさらに、タッチディスプレイコントローラと、タッチセンサデータの処理に関連したコンポーネントを、リッドディスプレイの前にユーザが存在しない、ユーザがディスプレイを見ていない、またはユーザがデバイスとインタラクトしていないなど様々な状況で、低電力状態にし得る。
リッドコントローラハブを有するモバイルコンピューティングデバイスのいくつかの実施形態において、低電力モードにおいて、タッチディスプレイコントローラ(サンプリングによるタッチセンサデータの生成、またはタッチディスプレイのスキャニングを担うコンポーネント)が消費する電力は、既存の実施形態から約50%減であり得る。既存のサプライヤによる13.3''FHD(フルHD(ハイデフニション))タッチディスプレイ用のアーキテクチャに基づき、タッチアイドル電力消費を50%低減することは、そのディスプレイのタッチアイドル電力消費を400mWから200mWに低減する。
表1は、既存のインセルタッチディスプレイに関する電力消費値を示す。通常動作時に、インセルディスプレイのロジック部分は、最大約0.89Wを消費する。これは、同等のオンセルディスプレイのロジック部分が消費する電力よりも、約450mW多い。インセルディスプレイのこの電力消費増は、ディスプレイがアイドルモードある際に発生する、継続的タッチスキャニングによるものである。記載のとおり、表1のインセルディスプレイが、そのアイドル状態(Idle_1、Idle_2)のいずれかにある場合、30または60Hzのレートで、タッチスキャン動作は実行中のままとなる。インセルディスプレイの動作状態は、タッチスキャン(サンプリング)と、タッチレポートレートを120Hzまで増加することで、よりスムーズなタッチ体験が実現されるが、ディスプレイリフレッシュレートも120Hzに増加し、これが電力消費増に帰結する、Operation_2状態を含む。タッチレポートレートは、タッチセンサデータまたはタッチメタデータがオペレーティングシステムにレポートされるレートである。ディスプレイリフレッシュレート、タッチスキャンレート、およびタッチレポートレートが全て60Hzに設定されるOperation_3状態は、ディスプレイパネル電力消費減に帰結するが、タッチ体験劣化にも帰結する。
ユーザの存在検出により、タッチセンサデータのサンプリングは、アイドルモードで停止し得、既存のインセルディスプレイで消費されるアイドルタッチ電力(最大200mW)の約半分がセーブできる。モバイルコンピューティングデバイスのデバイスリッドに組み込まれた入力センサ(例えば、カメラ、タッチディスプレイ、ライダセンサ、レーダセンサ、超音波センサ、マイクロホン)により生成されたセンサデータに基づき、ユーザの存在が検出されると、デバイスのタッチ機能が、低電力状態から起動され得る。タッチサンプリングまたはスキャニング動作が有効になり得(低電力状態で無効となっていた場合)、サンプリングは、アクティブサンプリングレート(例えば、60Hz以上)で発生し得る。いくつかの実施形態において、120Hzまたは240Hzなど、より高いアクティブスキャンレートが利用され得る。これらより高いスキャニングレートは、ゲーミングアプリケーションで利用され得る。
表1 既存のインセルディスプレイパネルについての電力消費およびディスプレイリフレッシュ、タッチスキャン、およびタッチレポートレート
Figure 2022034538000002
一般的に、ユーザの存在、ユーザ関与および/またはユーザインタラクションに基づくタッチコンポーネント電力消費削減は、以下のとおりに可能となる。タッチディスプレイコントローラ、およびタッチセンサデータを処理するコンポーネントなどのタッチコンポーネントは、ユーザが存在しない場合に低電力状態にされ得る。タッチディスプレイコントローラは、タッチセンサデータを生成するために、それがタッチディスプレイのスキャンまたはサンプリングを行うレートを低レートに(例えば、20Hz以下)下げることで、またはタッチディスプレイコントローラに供給される電力を下げることを介してタッチディスプレイコントローラを無効にすることで、低電力状態にされ得る。タッチセンサデータを処理するコンポーネントを低電力モードにすることは、コンポーネントに供給される電力を低減すること、またはコンポーネントまたはコンポーネントの、タッチセンサデータを処理する部分が動作しないコンポーネントのモードを有効することを含み得る。
ユーザの存在が検出されると、タッチディスプレイコントローラのタッチサンプリングレートは、60Hz以上(例えば、120Hz、240Hz)などのアクティブタッチサンプリングレートに増加され得る。リッド内に配置された、カメラ、ライダセンサ、レーダセンサ、超音波センサ、マイクロホンなどの1または複数の入力センサ、およびさらには、タッチディスプレイがまだ動作中であればタッチディスプレイにより生成されたセンサデータに基づき、ユーザの存在が検出され得る。例えば、カメラにより提供された画像センサデータ内にユーザを検出することで、またはユーザ、指、または他のオブジェクトを近接センサ(例えば、ライダセンサ、レーダセンサ、超音波センサ)の1つにより、ディスプレイの近傍で検出することで、タッチディスプレイでのタッチイベントの検出によりユーザの存在が判定され得る。タッチセンサデータを処理するタッチディスプレイコントローラまたはタッチアナライザによりタッチイベントが検出され得る。画像センサデータ内でのユーザの検出は、1または複数のNNA(例えば、276、327、3030)および/またはDSP(例えば、275、378)により実行され得る。タッチセンサデータは、タッチサンプリングレートで、タッチアナライザ(LCHの一部であり得る)に提供され得る。タッチメタデータは、タッチセンサデータに基づき生成され、タッチレポートレートでオペレーティングシステムにレポートされ得る。タッチレポートレートは、タッチメタデータおよび/またはタッチセンサデータがオペレーティングシステムに供給されるレートである。タッチレポートレートは、ユーザの存在検出に応じて増加され得る。いくつかの場合において、タッチサンプリングレートとタッチレポートレートとは同じであり得る。ディスプレイが低電力状態(例えば、ディスプレイが無効にされた、または20Hz以下などの低リフレッシュレートで動作していた)であれば、ユーザの存在の検出に応じて、ディスプレイのリフレッシュレートは増加し得る。タッチレポートレート、ディスプレイリフレッシュレート、またはその両方は、タッチサンプリングレートに一致させられ得る。モバイルコンピューティングデバイスのベースにおいて、オペレーティングシステムおよび1または複数のアプリケーションは、タッチメタデータおよび/またはタッチセンサデータに基づいて動作を実行し得る。
ユーザの存在が検出されると、ユーザの存在が維持されるか、ディスプレイに関与しているか、および/またはデバイスとインタラクトしているかに基づいて、その後ディスプレイリフレッシュレート、タッチサンプリングレート、およびタッチレポートレートが調整され得る。これら後続の調整は、追加的なタッチセンサデータ、および/またはベース入力デバイスセンサデータに基づき得る。ユーザ関与は、本明細書で上述したように判定され得る(例えば、ユーザの判定された頭部または顔の向きに基づき、ユーザがディスプレイを見ているかを判定)。ユーザのインタラクションのレベルは、ユーザが直近でいつデバイスと、タッチディスプレイにタッチする、物理的なまたは仮想キーボード上のキーをタイピングする、トラックパッドまたはタッチパッドにタッチする、またはデバイスに通信可能に結合されたマウスを動かすなどしてインタラクトしたかに基づいて判定され得る。ユーザが存在し、関与し、デバイスと積極的にインタラクトしていれば、高反応性のユーザ体験を提供するために、ディスプレイリフレッシュレート、タッチサンプリングレート、タッチレポートレートは全て高い値(例えば120Hz、240Hz)に設定され得る。ユーザがまだ存在しているが、そのインタラクションのレベルが減少するまたは非関与となれば、タッチサンプリングレートおよびタッチレポートはスケールダウンされ得る。ユーザは、ユーザがディスプレイから閾値時間(例えば、約1から5秒)眼をそらしていると、非関与であると判定され得る。ユーザが存在するがディスプレイに非関与であれば、タッチディスプレイコントローラが無効にされるか、またはタッチサンプリングレートが0Hzまで低減され得る。ユーザが存在しなくなると、タッチディスプレイコントローラがオフにされてもよい。さらに、ユーザが存在しなくなれば、ベースにおけるホスト処理ユニットが低電力状態にされ得る。ユーザ開始タスクが、ユーザが既に存在しないと判定された後にも動作している場合、処理ユニットを低電力状態にすることは、ユーザ開始タスクの実行が終了するまで延期できる。
ユーザの存在、ユーザ関与、およびユーザインタラクションのレベルの検出、およびディスプレイリフレッシュレート、タッチサンプリングレート、およびタッチレポートレートを変化させることは全て、リッドコントローラハブなど、コンピューティングデバイスのリッド内の1または複数のコンポーネント内で生じ得る。
図51は、ユーザの存在に基づいて、タッチ操作を調整する例示的方法を示す。方法5100は例えば、ラップトップ(例えば、100、122、200、300、900、3800)により実行され得る。5110で、デバイスがオンになること、またはモバイルデバイスのリッドが開くことに応じてディスプレイがオンになるなどの「ディスプレイオン」イベントが発生する。5120で、ディスプレイの前のユーザの存在が判定される。ユーザの存在検出は、例えば、タッチディスプレイ表面をタッチするユーザの指を検出する、ラップトップデバイスに内蔵された1または複数のカメラにより捕捉された画像データ内にユーザの存在を検出する、コンピューティングデバイスに組み込まれ、リッドコントローラハブアーキテクチャに内蔵されたマイクロホンが捕捉した音声内に、起動表現もしくは鍵表現を検出する、または、近接センサデータ(例えば、ライダセンサデータ、レーダセンサデータ、超音波センサデータ、光センサデータ)に基づいて、ユーザの頭部、指、もしくはデバイスの近傍にあるオブジェクトの近接性を検出することで実行され得る。ユーザの存在が検出されると、5130で通常タッチ操作が有効になる。通常のタッチ操作は、タッチサンプリングレートおよびタッチレポートレートを60Hz以上の値(例えば、120Hz、240Hz)に設定することに対応し得る。5140でユーザが検出されなければ、タッチ操作は、タッチサンプリングレートおよびタッチレポートレートが低い値(例えば20Hz以下)に設定される、またはタッチディスプレイコントローラおよびタッチ処理コンポーネントが無効になる、低電力状態にされる。
図52は、ユーザの存在、関与、およびインタラクションに基づき、タッチ操作を制御可能な例示的コンピューティングデバイスの簡略化されたブロック図である。コンピューティングデバイス5200は、リッド5210aと、ベース5240とを含む。リッド5210は、表示サブシステム5214と、内蔵ディスプレイパネル5218と、タッチディスプレイコントローラ5224と、リッドセンサ5233と、リッドコントローラハブ5238とを含む。ベース5240は、オペレーティングシステム5260および1または複数のアプリケーション5270を実行可能な1または複数のホスト処理ユニット5250を含む。ベース5240はさらに、ベース入力デバイス5280(例えば、キーボード、トラックパッド、タッチパッド、マウス)を含む。
コンピューティングデバイス5200は、本明細書に記載のコンピューティングデバイス(例えば、100、122、200、300、900、3800、4100)のいずれかであり得る。リッド5210は、本明細書に記載のリッド(例えば、120、123、220、301、920、1701、3810)のいずれかであり得る。内蔵ディスプレイパネル5218はタッチディスプレイであり、本明細書に記載のディスプレイパネル((例えば、145、280、380、926、2140、3842、4124)のいずれかであり得る。LCH5238は、本明細書に記載のLCH(例えば、155、260、305、954、1705、3834、4138)のいずれかであり得る。表示サブシステム5214は、本明細書に記載の表示サブシステム(例えば、3838)のいずれかであり得、タイミングコントローラ(例えば、150、400、355、944、1706、2100、3830、4124)とそれを構成するタイミングコントローラコンポーネント(例えば、フレームバッファ(例えば、830、2120)、フレーム処理スタックモジュール(例えば、822から826、2139から2128))、行ドライバ(例えば、882、2154、2158)、列ドライバ(例えば、884、2160)、ディスプレイドライバ(例えば、880、2130)、およびビデオデータレシーバ(例えば、812、2110)などの、ディスプレイ関連動作を実行する本明細書に記載の1または複数のコンポーネントを含み得る。タッチディスプレイコントローラ5224は、本明細書に記載のタッチディスプレイコントローラ(例えば、165、285、385、3830、4110)のいずれかであり得る。
タッチディスプレイコントローラ5224は、LCH5238に提供される、タッチセンサデータサンプル(例えば、タッチセンサデータ)5230を生成するために、タッチディスプレイ5218をスキャンまたはサンプリングする。リッドセンサ5233は、本明細書に記載のカメラ(例えば、160、270、346、932、2514、3014、4128)のいずれかであり得るカメラ5228と、本明細書に記載のマイクロホン(例えば、158、290、390、926)のいずれかであり得るマイクロホン5226とを含む。リッドセンサ5233は、ライダセンサ、レーダセンサ、超音波センサ、または光センサなどの1または複数の追加的なセンサ5290を任意で含み得る。
マイクロホン5226はオーディオセンサデータを生成し、カメラ5228は画像センサデータを生成、追加的なセンサ5290は追加的なリッドセンサデータを生成し、これら全ては、まとめてリッドセンサデータと称され得、LCH5238に提供される。LCH5238は、リッドセンサデータ5232に基づいてリッドセンサメタデータ5248を生成する。いくつかの実施形態において、リッドセンサメタデータ5248は、タッチアナライザ(例えば、4134)、ホストモジュール(例えば、176、261、362、1720)、オーディオモジュール(例えば、170、264、364、1730)、およびビジョン/撮像アナライザモジュールまたはビジョン/撮像集積回路(例えば、172、263、363、1740、2540A、2540B、3020、3026、4162)のうちの1または複数により生成され得る。LCH5238は、ホスト処理ユニット5250に送られる、リッドセンサメタデータ5248を生成する。いくつかの実施形態において、LCH5238はタッチセンサデータ5230の少なくとも一部、および/またはリッドセンサデータ5232の一部をホスト処理ユニット5250に送信できる。いくつかの実施形態において、LCH5238は、ライダセンサデータを処理するライダアナライザ、レーダセンサデータを処理するレーダアナライザ、および超音波センサデータを処理する超音波アナライザなど、追加的なアナライザを含み得る。
いくつかの実施形態において、ユーザの存在、ユーザ関与、またはユーザインタラクションのレベルを判定するために、1または複数のタイプセンサデータは使用され得る。例えば、ライダセンサデータ、レーダセンサデータ、または超音波センサデータのうちの1または複数を使用して、ユーザの存在が検出され得、オブジェクト(例えば、顔、指、ジェスチャーオブジェクト)がディスプレイ4118の近傍内かを判定され得る。別の実施形態において、ユーザの存在は、画像センサデータ内にユーザの存在を検出するため(例えば顔起動)、1または複数のNNA(例えば、276、327、3030)および/またはDSP(例えば、275、378)を使用することで検出され得る。さらに別の実施形態において、ユーザの存在は、画像センサデータ内に認証ユーザの顔を検出することに基づいて判定される(例えば、フェースID)。同様に、ユーザの頭部または顔の向きは、画像センサデータを処理するため、1または複数のNNA(例えば、276、327、3030)および/またはDSP(例えば、275、378)を使用することで検出され得る。ユーザの存在または頭部/顔の向きは、例えば、画像センサデータおよびライダセンサデータなど、NNAおよび/またはDSPに供給される2つ以上のタイプのセンサデータを提供することで判定され得る。ユーザがデバイス5200とインタラクトしていたか、またはデバイス5200とのユーザインタラクションのレベルの判定は、ディスプレイへのタッチを示すタッチセンサデータ、物理的なまたは仮想キーボードの打鍵、トラックパッドまたはタッチパッドへのタッチ、またはデバイスに通信可能に結合されたマウスの移動を示すベース入力デバイスセンサデータ5284など、デバイスとのユーザの物理的なインタラクションを捕捉するセンサにより生成された1または複数のセンサデータタイプに基づき得る。
いくつかの実施形態において、デバイスとのユーザインタラクションのレベルは、タッチセンサデータ5230、リッドセンサデータ5232、およびベース入力デバイスセンサデータ5284のうちの1または複数に基づいて、ユーザが直近でいつデバイスとインタラクトしたかに基づいて判定され得る。ユーザが積極的にデバイスとインタラクトしていることを反映する直近のユーザインタラクション以降に、ユーザがある期間内(例えば、1/2、1、または2秒以内)にデバイスと直近でインタラクトした場合(例えば、スクリーンをタッチ、仮想または物理的なキーボードのキーをタイプ、マウスを移動)、ディスプレイリフレッシュレート、タッチサンプリングレート、およびタッチレポートレートは、デバイス4100が高反応ユーザ体験を提供可能となるレベル(例えば、120Hzまたは240Hz)に設定可能である。いくつかの実施形態において、この高反応モードにおいて、ディスプレイリフレッシュレート、タッチサンプリングレート、およびタッチレポートレートは、その最大値に設定可能で、タッチメタデータは、スムーズなタッチ体験を提供するため、調整されたタッチセンサデータ(例えば、3965)を含み得る。いくつかの実施形態において、デバイス4100は、反応の良いユーザ体験を維持するために、デバイスリソースが利用可能となるように、予定されたタスクを延期し得る。
ユーザが存在し関与しているが、インタラクションのレベルが低い場合、デバイスは、ディスプレイリフレッシュレート、タッチサンプリングレート、およびタッチレポートレートのうちの1または複数をより低アクティブレベル(例えば、60Hz)まで低減できる。これにより、ユーザの低度のインタラクションに高反応でありながら、省電力となる。いくつかの実施形態において、ユーザは、ユーザが直近の直前インタラクション以降の第1の期間内に、デバイスと直近でインタラクトした場合に、高レベルでインタラクトしていると判定され得、ユーザが直近の直前インタラクション以降に第1の期間より長くデバイスと直近でインタラクトした場合に、低レベルのインタラクションで関与していると判定される。ユーザが高レベルのインタラクションでインタラクトしている場合、タッチサンプリングレートおよびタッチレポートレートはより高レート(例えば、120Hz、240Hz)に設定され得る。ユーザがデバイスと、低レベルのインタラクションでインタラクトしている場合、タッチサンプリングレートおよびタッチレポートレートは低レートに設定できる(例えば、60Hz)。
いくつかの実施形態において、デバイスは、3以上のユーザインタラクションレベル間を区別し得る。例えば、直近の直前インタラクション以降の、デバイスとの直近のユーザインタラクションが、第1期間内であれば、タッチサンプリングおよびタッチレポートレートは高レベル(例えば、120Hz、240Hz)に設定され得る。直近の直前インタラクション以降の、デバイスとの直近のユーザインタラクションが、第1期間よりも長い第2期間内であれば、タッチサンプリングおよびタッチレポートレートは中レベル(例えば、60Hz)に設定され得る。直近の直前インタラクション以降の、デバイスとの直近のユーザインタラクションが、第2期間よりも長い第3期間内であれば、タッチサンプリングおよびタッチレポートレートは低レベル(例えば、20Hz以下)に設定され得る。
ユーザが存在するが非関与であれば(例えば、ユーザがラップトップの前にいるが、雑誌の記事、本、レポートなどを読んでいる場合)、タッチサンプリングレートおよびタッチレポートレートはゼロに設定され得る、またはタッチディスプレイコントローラおよび/またはタッチセンサデータを処理するコンポーネントが無効にされ得る。しかし、ホスト処理ユニットは、アクティブレベルで動作し続け得、予定されたタスクが継続して実行され得る。
ユーザが存在しない場合(例えば、デバイスのリッドが閉じられた、またはユーザが単純に立ち去ったことによる)、デバイスは、タッチサンプリングレートおよびタッチレポートレートがゼロに設定される、またはタッチセンサデータを処理するタッチディスプレイコントローラおよび/またはコンポーネントが無効になるスタンバイモードに移行し得る。ディスプレイは無効にされ得、ホスト処理ユニットは低電力状態にされ得る。デバイスはスタンバイ状態においてロックされ得る。
いくつかの実施形態において、処理ユニットが低電力状態になり、デバイスがスタンバイ状態に移行する前に、デバイスは、あらゆる実行中のユーザ開始タスクが終了可能で、ユーザ開始タスクが実行中に実行される予定の他の任意のタスクがデバイスがスタンバイ状態に移行する前に実行可能となる、静状態となり得る。
ユーザの存在を検出すると、LCH5238はタッチサンプリングレートおよびディスプレイリフレッシュレートを調整させ得る。LCH5238は、表示サブシステム5214に、同期信号5234(例えば、180、226、370)を介してディスプレイリフレッシュレートを調整させ得、タッチサンプリングレートを、そのタッチディスプレイコントローラ5224との接続を通じて調整させ得る。
図53は、ユーザの存在、関与、およびインタラクションに基づき、タッチ操作を制御する例示的方法である。方法5300は、ラップトップのリッド内のリッドコントローラハブにより実行され得る。5310において、リッド入力センサデータがリッド内に配置された1または複数のリッド入力センサから受信される。5320において、リッド入力センサデータに基づいて、リッド内に配置されたタッチディスプレイの前のユーザの存在が判定される。5330において、ユーザが存在すると判定したことに応じて、タッチディスプレイコントローラのタッチサンプリングレートの増加を生じさせる。5340において、タッチセンサデータがタッチディスプレイコントローラからタッチサンプリングレートで受信される。5350において、タッチセンサデータに基づいて、タッチセンサメタデータが判定される。5360において、タッチメタデータは、タッチレポートレートで、モバイルコンピューティングデバイスのベース内に配置された1または複数のホストプロセッサに提供される。別の実施形態において、方法5300は、追加的な要素を含み得る。例えば、方法5300はさらに、1または複数のリッド入力センサから追加的なリッド入力センサデータを受信し、追加的な入力センサデータに基づいてユーザが存在しないと判定し、ユーザが存在しないと判定したことに応じて、タッチディスプレイコントローラのタッチサンプリングレートの低減を生じ得る。
以下の例は、本明細書に係る実施形態に関する。
例GA1は、モバイルコンピューティングデバイスのリッド内で、上記リッド内に配置された1または複数のリッド入力センサからリッド入力センサデータを受信する段階と、上記リッド入力センサデータに基づいて、上記リッド内に配置されたタッチディスプレイの前にユーザが存在すると判定する段階と、上記ユーザが存在するという判定に応じて、タッチディスプレイコントローラのタッチサンプリングレートの増加を生じさせる段階と、上記タッチサンプリングレートで上記タッチディスプレイコントローラからタッチセンサデータを受信する段階と、上記タッチセンサデータに基づいてタッチメタデータを判定する段階と、タッチレポートレートで上記モバイルコンピューティングデバイスのベース内に配置された1または複数のホストプロセッサに上記タッチメタデータを提供する段階と、を含む方法である。
例GA2は、例1の方法を含み、上記タッチセンサデータは第2タッチセンサデータであり、上記リッド入力センサデータは、上記タッチディスプレイコントローラにより提供された第1タッチセンサデータをさらに含む。
例GA3は、例1の方法を含み、1または複数のリッド入力センサは、カメラを含む。
例GA4は、例3の方法を含み、1または複数のリッド入力センサは、ライダセンサ、レーダセンサ、および超音波センサのうちの1または複数をさらに含む。
例GA5は、例1の方法を含み、上記ベース内で、オペレーティングシステムにより、上記タッチセンサデータに基づいて1または複数の動作を実行する段階をさらに含み、上記オペレーティングシステムは、上記ベース内に配置された1または複数の処理ユニットを実行する。
例GA6は、例1の方法を含み、上記リッド内で、上記ユーザが存在するという判定に応じて、上記タッチレポートレートを増加させる段階をさらに含む。
例GA7は、例1の方法を含み、上記リッド内で、上記ユーザが存在するという判定に応じて、上記タッチディスプレイのディスプレイリフレッシュレートの増加を生じさせる段階をさらに含む。
例GA8は、例1の方法を含み、上記タッチレポートレートは、上記タッチサンプリングレートと同じである。
例GA9は、例1の方法を含み、上記リッド内で、上記ユーザが存在するという判定に応じて、上記タッチディスプレイのディスプレイリフレッシュレートの増加を生じさせる段階をさらに含み、上記タッチサンプリングレートと、上記ディスプレイリフレッシュレートと、上記タッチサンプリングレートとは同じである。
例GA10は、例1の方法を含み、上記タッチサンプリングレート、上記タッチレポートレート、および上記タッチディスプレイのディスプレイリフレッシュレートのうちの少なくとも2つは異なる。
例GA11は、例1の方法を含み、上記タッチサンプリングレート、上記タッチレポートレート、および上記タッチディスプレイのディスプレイリフレッシュレートは、全て互いに異なる。
例GA12は、例1の方法を含み、上記リッド内で、上記1または複数のリッド入力センサから追加的なリッド入力センサデータを受信する段階と、上記追加的な入力リッドセンサデータに基づいて、上記ユーザが存在しないと判定する段階と、上記ユーザが存在しないという判定に応じて、上記タッチディスプレイコントローラのタッチサンプリングレートの低減を生じさせる段階と、をさらに含む。
例GA13は、例12の方法を含み、上記ユーザが存在しないという判定に応じて、上記タッチレポートレートを低減させる段階をさらに含む。
例GA14は、例12の方法を含み、上記ユーザが存在しないという判定に応じて、上記タッチディスプレイのディスプレイリフレッシュレートを低減させる段階をさらに含む。
例GA15は、例1の方法を含み、上記リッド内で、1または複数のリッド入力センサから追加的なリッド入力センサデータを受信する段階と、上記追加的なリッド入力センサデータに基づいて、上記ユーザが上記タッチディスプレイに関与していないと判定する段階と、上記ユーザが上記タッチディスプレイに関与していないという判定に応じて、上記タッチサンプリングレートを低減および/または上記タッチレポートレートの低減を生じさせる段階と、をさらに含む。
例GA16は、例15の方法を含み、上記タッチサンプリングレートはゼロに低減され、上記タッチレポートレートはゼロに低減される。
例GA17は、例1の方法を含み、上記ベース内で、1または複数の処理ユニットに対するユーザ開始タスクを実行する段階と、上記リッド内で、上記1または複数のリッド入力センサから追加的なリッド入力センサデータを受信する段階と、上記追加的なリッド入力センサデータに基づいて、上記ユーザが上記タッチディスプレイに関与していないと判定する段階と、上記ユーザが上記タッチディスプレイに関与していないという判定に応じて、上記タッチサンプリングレートの低減および/または上記タッチレポートレートの低減を生じさせる段階と、上記ベース内で、上記1または複数の処理ユニットを低電力状態にする前に上記ユーザ開始タスクが完成することを許可する段階と、をさらに含む。
例GA18は、例1の方法を含み、上記リッド内で、上記1または複数のリッド入力センサから追加的なリッド入力センサデータを受信する段階と、上記追加的なリッド入力センサデータに基づいて、上記ユーザの上記タッチディスプレイに対する関与を判定する段階と、上記タッチセンサデータおよび上記リッド入力センサデータのうちの1または複数に基づいて、上記ユーザが上記モバイルコンピューティングデバイスとインタラクトしているかを判定する段階と、上記ユーザが上記タッチディスプレイに関与し、上記ユーザが上記デバイスとインタラクトしている場合、上記タッチサンプリングレートを上記タッチディスプレイコントローラの最大タッチサンプリングレートに設定する段階と、をさらに含む。
例GA19は、例18の方法を含み、調整されたタッチセンサデータを生成するため、上記タッチセンサデータを調整する段階をさらに含み、上記タッチメタデータは上記調整されたタッチセンサデータを含む。
例GA20は、例18の方法を含み、上記ユーザの上記タッチディスプレイに対する関与を判定する段階は、上記ユーザの顔の向きを判定する段階と、上記顔の向きに基づいて、上記ユーザが上記タッチディスプレイを見ているかを判定する段階と、を含む。
例GA21は、例1の方法を含み、上記リッド内で、上記1または複数のリッド入力センサから追加的なリッド入力センサデータを受信する段階と、上記追加的なリッド入力センサデータに基づいて、上記ユーザの上記タッチディスプレイに対する関与を判定する段階と、上記タッチセンサデータおよび上記追加的なリッド入力センサデータのうちの1または複数に基づいて、直近でいつ、上記ユーザが上記モバイルコンピューティングデバイスとインタラクトしたかを判定する段階と、上記ユーザが上記タッチディスプレイに関与している場合、以前のインタラクションから第2期間よりも短い第1期間内に上記ユーザが上記モバイルコンピューティングデバイスとインタラクトした場合は上記タッチサンプリングレートを第1タッチサンプリングレートに設定する段階と、上記第1期間内に上記ユーザが上記デバイスとインタラクトしていない場合、上記第2期間内に上記ユーザが上記デバイスとインタラクトした場合は上記タッチサンプリングレートを第2タッチサンプリングレートに設定する段階と、をさらに含み、上記第1タッチサンプリングレートは上記第2タッチサンプリングレートよりも大きい。
例GA22は、例1の方法を含み、1または複数のリッド入力センサから追加的なリッド入力センサデータを受信する段階と、上記追加的なリッド入力センサデータに基づいて、上記ユーザの上記タッチディスプレイに対する関与を判定する段階と、上記タッチセンサデータおよび上記追加的なリッド入力センサデータのうちの1または複数に基づいて、直近でいつ、上記ユーザが上記モバイルコンピューティングデバイスとインタラクトしたかを判定する段階と、上記ユーザが上記タッチディスプレイに関与している場合、以前のインタラクションから第1期間内に上記ユーザが上記モバイルコンピューティングデバイスとインタラクトした場合は上記タッチサンプリングレートを第1タッチサンプリングレートに設定する段階と、上記第1期間は第2期間よりも短く、上記第2期間は第3期間よりも短く、上記第1期間内に上記ユーザが上記モバイルコンピューティングデバイスとインタラクトしていない場合、上記以前のインタラクションから上記第2期間内に上記ユーザが上記モバイルコンピューティングデバイスとインタラクトした場合は上記タッチサンプリングレートを第2タッチサンプリングレートに設定する段階と、上記第2期間内に上記ユーザが上記モバイルコンピューティングデバイスとインタラクトしていない場合、上記以前のインタラクションから上記第3期間内に上記ユーザが上記デバイスとインタラクトした場合は上記タッチサンプリングレートを第3タッチサンプリングレートに設定する段階と、をさらに含み、上記第1タッチサンプリングレートは上記第2タッチサンプリングレートよりも大きく、上記第2タッチサンプリングレートは上記第3タッチサンプリングレートよりも大きい。
例GA23は、例18から例22のいずれか1つの方法を含み、1または複数のベース入力デバイスに関連付けられたベース入力デバイスセンサデータを受信する段階をさらに含み、直近でいつ、上記ユーザが上記モバイルコンピューティングデバイスとインタラクトしたかを判定する段階は、上記ベース入力デバイスセンサデータにさらに基づく。
例GA24は、例23の方法を含み、1または複数のベース入力デバイスは、キーボード、トラックパッド、タッチパッド、およびマウスのうちの1または複数を含む。
例GA25は、本明細書に上述の例GAのいずれか1つの方法を含み、例AA1からAA16、DE1からDE17、EA1からEA10またはFA1からFA9のいずれか1つの方法の要素(これらの方法要素が本明細書に上述の例GAの方法要素と重複しない限り)をさらに含む。
例GB1は、1または複数のホスト処理ユニットを含むベースと、タッチディスプレイ、タッチディスプレイコントローラ、1または複数のリッド入力センサ、および回路機構を含むリッドと、を備えるモバイルコンピューティングデバイスであって、上記回路機構は、上記1または複数のリッド入力センサからリッド入力センサデータを受信し、上記リッド入力センサデータに基づいて、上記タッチディスプレイの前にユーザが存在すると判定し、上記ユーザが存在するという判定に応じて、上記タッチディスプレイコントローラのタッチサンプリングレートの増加を生じさせ、上記タッチサンプリングレートで上記タッチディスプレイコントローラからタッチセンサデータを受信し、上記タッチセンサデータに基づいてタッチメタデータを判定し、タッチレポートレートで上記1または複数のホスト処理ユニットに上記タッチメタデータを提供する。
例GB2は、例GB1のモバイルコンピューティングデバイスを含み、上記タッチセンサデータは第2タッチセンサデータであり、上記リッド入力センサデータは、上記タッチディスプレイコントローラにより提供された第1タッチセンサデータをさらに含む。
例GB3は、例GB1のモバイルコンピューティングデバイスを含み、1または複数のリッド入力センサは、カメラを含む。
例GB4は、例GB1のモバイルコンピューティングデバイスを含み、1または複数のリッド入力センサは、ライダセンサ、レーダセンサ、および超音波センサのうちの1または複数をさらに含む。
例GB5は、例GB1のモバイルコンピューティングデバイスを含み、上記1または複数のホスト処理ユニットは、上記タッチセンサデータに基づいて1または複数の動作を実行するため、オペレーティングシステムを実行する。
例GB6は、例GB1のモバイルコンピューティングデバイスを含み、上記回路機構はさらに、上記ユーザが存在するという判定に応じて、上記タッチレポートレートを増加させる。
例GB7は、例GB1のモバイルコンピューティングデバイスを含み、上記回路機構はさらに、上記ユーザが存在するという判定に応じて、上記タッチディスプレイのディスプレイリフレッシュレートの増加を生じさせる。
例GB8は、例GB1のモバイルコンピューティングデバイスを含み、上記タッチレポートレートは、上記タッチサンプリングレートと同じである。
例GB9は、例GB1のモバイルコンピューティングデバイスを含み、上記回路機構はさらに、上記ユーザが存在するという判定に応じて、上記タッチディスプレイのディスプレイリフレッシュレートの増加を生じさせ、上記タッチサンプリングレートと、上記ディスプレイリフレッシュレートと、上記タッチサンプリングレートとは同じである。
例GB10は、例GB1のモバイルコンピューティングデバイスを含み、上記タッチサンプリングレート、上記タッチレポートレート、および上記タッチディスプレイのディスプレイリフレッシュレートのうちの少なくとも2つは異なる。
例GB11は、例GB1のモバイルコンピューティングデバイスを含み、上記タッチサンプリングレート、上記タッチレポートレート、および上記タッチディスプレイのディスプレイリフレッシュレートは、全て互いに異なる。
例GB12は、例GB1のモバイルコンピューティングデバイスを含み、上記回路機構はさらに、上記1または複数のリッド入力センサから追加的なリッド入力センサデータを受信し、上記追加的なリッド入力センサデータに基づいて、上記ユーザが存在しないと判定し、上記ユーザが存在しないという判定に応じて、上記タッチディスプレイコントローラのタッチサンプリングレートの低減を生じさせる。
例GB13は、例GB12のモバイルコンピューティングデバイスを含み、上記回路機構はさらに、上記ユーザが存在しないという判定に応じて、上記タッチレポートレートを低減させる。
例GB14は、例GB12のモバイルコンピューティングデバイスを含み、上記回路機構はさらに、上記ユーザが存在しないという判定に応じて、上記タッチディスプレイのディスプレイリフレッシュレートを低減させる。
例GB15は、例GB1のモバイルコンピューティングデバイスを含み、上記回路機構はさらに、上記1または複数のリッド入力センサから追加的なリッド入力センサデータを受信し、上記追加的なリッド入力センサデータに基づいて、上記ユーザが上記タッチディスプレイに関与していないと判定し、上記ユーザが上記タッチディスプレイに関与していないという判定に応じて、上記タッチサンプリングレートを低減および/または上記タッチレポートレートの低減を生じさせる。
例GB16は、例GB15のモバイルコンピューティングデバイスを含み、上記タッチサンプリングレートはゼロに低減され、上記タッチレポートレートはゼロに低減される。
例GB17は、例GB1のモバイルコンピューティングデバイスを含み、上記1または複数のホスト処理ユニットは、ユーザ開始タスクの実行を開始し、上記回路機構はさらに、上記1または複数のリッド入力センサから追加的なリッド入力センサデータを受信し、上記追加的なリッド入力センサデータに基づいて、上記ユーザが上記タッチディスプレイに関与していないと判定し、上記ユーザが上記タッチディスプレイに関与していないという判定に応じて、上記タッチサンプリングレートの低減および/または上記タッチレポートレートの低減を生じさせ、上記1または複数のホスト処理ユニットは、低電力状態にされる前に上記ユーザ開始タスクが完成することを許可する。
例GB18は、例GB1のモバイルコンピューティングデバイスを含み、上記回路機構はさらに、上記1または複数のリッド入力センサから追加的なリッド入力センサデータを受信し、上記追加的なリッド入力センサデータに基づいて、上記ユーザの上記タッチディスプレイに対する関与を判定し、上記タッチセンサデータおよび上記リッド入力センサデータのうちの1または複数に基づいて、上記ユーザが上記モバイルコンピューティングデバイスとインタラクトしているかを判定し、上記ユーザが上記タッチディスプレイに関与し、上記ユーザが上記モバイルコンピューティングデバイスとインタラクトしている場合、上記タッチサンプリングレートを上記タッチディスプレイコントローラの最大タッチサンプリングレートに設定する。
例GB19は、例GB18のモバイルコンピューティングデバイスを含み、上記回路機構はさらに、調整されたタッチセンサデータを生成するため、上記タッチセンサデータを調整し、上記タッチメタデータは上記調整されたタッチセンサデータを含む。
例GB20は、例GB18のモバイルコンピューティングデバイスを含み、上記ユーザの上記タッチディスプレイに対する関与を判定することは、上記ユーザの顔の向きを判定することと、上記顔の向きに基づいて、上記ユーザが上記タッチディスプレイを見ているかを判定することとを含む。
例GB21は、例GB1のモバイルコンピューティングデバイスを含み、上記回路機構はさらに、上記1または複数のリッド入力センサから追加的なリッド入力センサデータを受信し、上記追加的なリッド入力センサデータに基づいて、上記ユーザの上記タッチディスプレイに対する関与を判定し、上記タッチセンサデータおよび上記追加的なリッド入力センサデータのうちの1または複数に基づいて、直近でいつ、上記ユーザが上記モバイルコンピューティングデバイスとインタラクトしたかを判定し、上記ユーザが上記タッチディスプレイに関与している場合、以前のインタラクションから第2期間よりも短い第1期間内に上記ユーザが上記モバイルコンピューティングデバイスとインタラクトした場合は上記タッチサンプリングレートを第1タッチサンプリングレートに設定し、上記第1期間内に上記ユーザが上記モバイルコンピューティングデバイスとインタラクトしていない場合、上記第2期間内に上記ユーザが上記モバイルコンピューティングデバイスとインタラクトした場合は上記タッチサンプリングレートを第2タッチサンプリングレートに設定し、上記第1タッチサンプリングレートは上記第2タッチサンプリングレートよりも大きい。
例GB22は、例GB1のモバイルコンピューティングデバイスを含み、上記回路機構はさらに、上記1または複数のリッド入力センサから追加的なリッド入力センサデータを受信し、上記追加的なリッド入力センサデータに基づいて、上記ユーザの上記タッチディスプレイに対する関与を判定し、上記タッチセンサデータおよび上記追加的なリッド入力センサデータのうちの1または複数に基づいて、直近でいつ、上記ユーザが上記モバイルコンピューティングデバイスとインタラクトしたかを判定し、上記ユーザが上記タッチディスプレイに関与している場合、以前のインタラクションから第1期間内に上記ユーザが上記モバイルコンピューティングデバイスとインタラクトした場合は上記タッチサンプリングレートを第1タッチサンプリングレートに設定し、上記第1期間は第2期間よりも短く、上記第2期間は第3期間よりも短く、上記第1期間内に上記ユーザが上記モバイルコンピューティングデバイスとインタラクトしていない場合、上記以前のインタラクションから上記第2期間内に上記ユーザが上記モバイルコンピューティングデバイスとインタラクトした場合は上記タッチサンプリングレートを第2タッチサンプリングレートに設定し、上記第2期間内に上記ユーザが上記モバイルコンピューティングデバイスとインタラクトしていない場合、上記以前のインタラクションから上記第3期間内に上記ユーザが上記モバイルコンピューティングデバイスとインタラクトした場合は上記タッチサンプリングレートを第3タッチサンプリングレートに設定し、上記第1タッチサンプリングレートは上記第2タッチサンプリングレートよりも大きく、上記第2タッチサンプリングレートは上記第3タッチサンプリングレートよりも大きい。
例GB23は、例GB19からGB22のいずれか1つのモバイルコンピューティングデバイスを含み、上記回路機構はさらに、1または複数のベース入力デバイスに関連付けられたベース入力デバイスセンサデータを受信し、直近でいつ、上記ユーザが上記モバイルコンピューティングデバイスとインタラクトしたかの判定は、上記ベース入力デバイスセンサデータにさらに基づく。
例GB24は、例GB24のモバイルコンピューティングデバイスを含み、1または複数のベース入力デバイスは、キーボード、トラックパッド、タッチパッド、およびマウスのうちの1または複数を含む。
例GB25は、本明細書に上述の例GBのいずれか1つのモバイルコンピューティングデバイスを含み、例AB1からAB14、DA1からDA17、DB1からDB14、EC1からEC10、FB1からFB10、またはFD1からFD9のいずれかの特徴(これらの特徴が本明細書に上述の例FBの特徴と重複しない限り)をさらに含む。
例GC0は、回路機構を備える装置であって、上記回路機構は、1または複数のリッド入力センサからリッド入力センサデータを受信し、上記リッド入力センサデータに基づいて、タッチディスプレイの前にユーザが存在すると判定し、上記ユーザが存在するという判定に応じて、タッチディスプレイコントローラのタッチサンプリングレートの増加を生じさせ、上記タッチディスプレイコントローラから上記タッチサンプリングレートでタッチセンサデータを受信し、上記タッチセンサデータに基づいてタッチメタデータを判定し、タッチレポートレートで1または複数のホスト処理ユニットに上記タッチメタデータを提供する。
例GC1は、例GC0の装置を含み、1または複数のリッド入力センサは、カメラを含む。
例GC2は、例GC0の装置を含み、1または複数のリッド入力センサは、ライダセンサ、レーダセンサ、および超音波センサのうちの1または複数をさらに含む。
例GC3は、例GC0の装置を含み、上記回路機構はさらに、上記ユーザが存在するという判定に応じて、上記タッチレポートレートを増加させる。
例GC4は、例GC0の装置を含み、上記回路機構はさらに、上記ユーザが存在するという判定に応じて、上記タッチディスプレイのディスプレイリフレッシュレートの増加を生じさせる。
例GC5は、例GC0の装置を含み、上記タッチレポートレートは、上記タッチサンプリングレートと同じである。
例GC6は、例GC0の装置を含み、上記回路機構はさらに、上記ユーザが存在するという判定に応じて、上記タッチディスプレイのディスプレイリフレッシュレートの増加を生じさせ、上記タッチサンプリングレートと、上記ディスプレイリフレッシュレートと、上記タッチサンプリングレートとは同じである。
例GC7は、例GC0の装置を含み、上記タッチサンプリングレート、上記タッチレポートレート、および上記タッチディスプレイのディスプレイリフレッシュレートのうちの少なくとも2つは異なる。
例GC8は、例GC0の装置を含み、上記タッチサンプリングレート、上記タッチレポートレート、および上記タッチディスプレイのディスプレイリフレッシュレートは、全て互いに異なる。
例GC9は、例GC0の装置を含み、上記回路機構はさらに、上記1または複数のリッド入力センサから追加的なリッド入力センサデータを受信し、上記追加的なリッド入力センサデータに基づいて、上記ユーザが存在しないと判定し、上記ユーザが存在しないという判定に応じて、上記タッチディスプレイコントローラのタッチサンプリングレートの低減を生じさせる。
例GC10は、例GC9の装置を含み、上記回路機構はさらに、上記ユーザが存在しないという判定に応じて、上記タッチレポートレートを低減させる。請求項58の装置は、上記回路機構はさらに、上記ユーザが存在しないという判定に応じて、上記タッチディスプレイのディスプレイリフレッシュレートを低減させる。
例GC11は、例GC0の装置を含み、上記回路機構はさらに、上記1または複数のリッド入力センサから追加的なリッド入力センサデータを受信し、上記追加的なリッド入力センサデータに基づいて、上記ユーザが上記タッチディスプレイに関与していないと判定し、上記ユーザが上記タッチディスプレイに関与していないという判定に応じて、上記タッチサンプリングレートを低減および/または上記タッチレポートレートの低減を生じさせる。
例GC12は、例GC11の装置を含み、上記タッチサンプリングレートはゼロに低減され、上記タッチレポートレートはゼロに低減される。
例GC13は、例GC11の装置を含み、上記回路機構はさらに、上記1または複数のリッド入力センサから追加的なリッド入力センサデータを受信し、上記追加的なリッド入力センサデータに基づいて、上記ユーザの上記タッチディスプレイに対する関与を判定し、上記タッチセンサデータおよび上記リッド入力センサデータのうちの1または複数に基づいて、上記ユーザがモバイルコンピューティングデバイスとインタラクトしているかを判定し、上記ユーザが上記タッチディスプレイに関与し、上記ユーザが上記モバイルコンピューティングデバイスとインタラクトしている場合、上記タッチサンプリングレートを上記タッチディスプレイコントローラの最大タッチサンプリングレートに設定する。
例GC14は、例GC11の装置を含み、上記回路機構はさらに、調整されたタッチセンサデータを生成するため、上記タッチセンサデータを調整し、上記タッチメタデータは上記調整されたタッチセンサデータを含む。
例GC15は、例GC11の装置を含み、上記ユーザの上記タッチディスプレイに対する関与を判定することは、上記ユーザの顔の向きを判定することと、上記顔の向きに基づいて、上記ユーザが上記タッチディスプレイを見ているかを判定することとを含む。
例GC16は、例GC0の装置を含み、上記回路機構はさらに、上記1または複数のリッド入力センサから追加的なリッド入力センサデータを受信し、上記追加的なリッド入力センサデータに基づいて、上記ユーザの上記タッチディスプレイに対する関与を判定し、上記タッチセンサデータおよび上記追加的なリッド入力センサデータのうちの1または複数に基づいて、直近でいつ、上記ユーザがモバイルコンピューティングデバイスとインタラクトしたかを判定し、上記ユーザが上記タッチディスプレイに関与している場合、以前のインタラクションから第2期間よりも短い第1期間内に上記ユーザが上記モバイルコンピューティングデバイスとインタラクトした場合は上記タッチサンプリングレートを第1タッチサンプリングレートに設定し、上記第1期間内に上記ユーザが上記モバイルコンピューティングデバイスとインタラクトしていない場合、上記第2期間内に上記ユーザが上記モバイルコンピューティングデバイスとインタラクトした場合は上記タッチサンプリングレートを第2タッチサンプリングレートに設定し、上記第1タッチサンプリングレートは上記第2タッチサンプリングレートよりも大きい。
例GC17は、例GC0の装置を含み、上記回路機構はさらに、上記1または複数のリッド入力センサから追加的なリッド入力センサデータを受信し、上記追加的なリッド入力センサデータに基づいて、上記ユーザの上記タッチディスプレイに対する関与を判定し、上記タッチセンサデータおよび上記追加的なリッド入力センサデータのうちの1または複数に基づいて、直近でいつ、上記ユーザがモバイルコンピューティングデバイスとインタラクトしたかを判定し、上記ユーザが上記タッチディスプレイに関与している場合、以前のインタラクションから第1期間内に上記ユーザが上記モバイルコンピューティングデバイスとインタラクトした場合は上記タッチサンプリングレートを第1タッチサンプリングレートに設定し、上記第1期間は第2期間よりも短く、上記第2期間は第3期間よりも短く、上記第1期間内に上記ユーザが上記モバイルコンピューティングデバイスとインタラクトしていない場合、上記以前のインタラクションから上記第2期間内に上記ユーザが上記モバイルコンピューティングデバイスとインタラクトした場合は上記タッチサンプリングレートを第2タッチサンプリングレートに設定し、上記第2期間内に上記ユーザが上記モバイルコンピューティングデバイスとインタラクトしていない場合、上記以前のインタラクションから上記第3期間内に上記ユーザが上記モバイルコンピューティングデバイスとインタラクトした場合は上記タッチサンプリングレートを第3タッチサンプリングレートに設定し、上記第1タッチサンプリングレートは上記第2タッチサンプリングレートよりも大きく、上記第2タッチサンプリングレートは上記第3タッチサンプリングレートよりも大きい。
例GC18は、例GC13からGC17のいずれか1つの装置を含み、上記回路機構はさらに、1または複数のベース入力デバイスに関連付けられたベース入力デバイスセンサデータを受信し、直近でいつ、上記ユーザが上記モバイルコンピューティングデバイスとインタラクトしたかの判定は、上記ベース入力デバイスセンサデータにさらに基づく。
例GC18は、例GC18の装置を含み、1または複数のベース入力デバイスは、キーボード、トラックパッド、タッチパッド、およびマウスのうちの1または複数を含む。
例GD1は、命令を格納する1または複数の非一時的コンピュータ可読ストレージ媒体であって、上記命令は、実行されると、コンピューティングデバイスのリッドの1または複数の処理ユニットに、例GA1からGA24のいずれか1つの方法を実行させる。
例GE1は、請求項GA1からGA24のいずれか一項に記載の方法を実行する1または複数の手段を備える装置である。
図54は、リッドコントローラハブを含む例示的モバイルコンピューティングデバイスのベース内のコンピューティングデバイスコンポーネントのブロック図である。一般的に、図54に示すコンポーネントは、リッドコントローラハブ内にあるものを含む図示された他のコンポーネントと通信可能であるが、図示簡略化のため、全ての接続が示されているわけではない。コンポーネント5400は、第1プロセッサ5402および第2プロセッサ5404を含むマルチプロセッサシステムを備え、ポイントツーポイント(P-P)インターコネクトを含むものとして示されている。例えば、プロセッサ5402のポイントツーポイント(P-P)インタフェース5406は、ポイントツーポイント相互接続5405を介してプロセッサ5404のポイントツーポイントインタフェース5407に結合される。図54に示す任意または全部のポイントツーポイントインターコネクトは、代わりにマルチドロップバスとして実装可能であり、図54に示す任意または全部のバスをポイントツーポイントインターコネクトで置換し得ることが理解されよう。
図54に示すとおり、プロセッサ5402および5404はマルチコアプロセッサである。プロセッサ5402はプロセッサコア5408および5409を含み、プロセッサ5404はプロセッサコア5410および5411を含む。プロセッサコア5408から5411は、以下で図54との関連で説明するのと同様に、または他の方法で、コンピュータ実行可能命令を実行可能である。
プロセッサ5402および5404は、それぞれ少なくとも1つの共有キャッシュメモリ5412および5414をさらに含む。共有キャッシュ5412および5414は、プロセッサコア5408から5409および5410から5411など、プロセッサの1または複数のコンポーネントによって利用されるデータ(例えば、命令)を格納し得る。共有キャッシュ5412および5414は、デバイスのためのメモリ階層の一部であり得る。例えば、共有キャッシュ5412は、プロセッサ5402のコンポーネントによるデータへのより迅速なアクセスを可能にするため、メモリ5416にも格納されたデータをローカルに格納し得る。いくつかの実施形態において、共有キャッシュ5412および5414は、レベル1(L1)、レベル2(L2)、レベル3(L3)、レベル4(L4)などの複数のキャッシュ層、および/またはラストレベルキャッシュ(LLC)などの他のキャッシュまたはキャッシュ層を含み得る。
2つのプロセッサが示されているが、デバイスは、リッドコントローラハブ内にあるものを含む、任意の数のプロセッサまたは他の計算リソースを含み得る。さらに、プロセッサは、任意の数のプロセッサコアを含み得る。プロセッサは、中央処理ユニット、コントローラ、グラフィックプロセッサ、アクセラレータ(グラフィックアクセラレータ、デジタル信号プロセッサ(DSP)、またはAIアクセラレータ)など)などの様々な形態を取り得る。デバイス内のプロセッサは、当該デバイス内の他のプロセッサと同じであっても異なっていてもよい。いくつかの実施形態において、デバイスは、第1プロセッサ、アクセラレータ、FPGA、または他の任意のプロセッサと異種または非対称である1または複数のプロセッサを含み得る。システム内の処理要素間には、アーキテクチャ、マイクロアーキテクチャ、熱、電力消費特性などを含む特長の基準の範囲という点で各種差異があり得る。これらの差異は、システム内のプロセッサ間の非対称性および異種性として効果的に現れ得る。いくつかの実施形態において、プロセッサ5402および5404は、マルチチップパッケージ内にある。本明細書で使用される場合、「プロセッサユニット」および「処理ユニット」という用語は、任意のプロセッサ、プロセッサコア、コンポーネント、モジュール、エンジン、回路機構または本明細書に記載された他の任意の処理要素を指し得る。プロセッサユニットまたは処理ユニットは、ハードウェア、ソフトウェア、ファームウェア、またはこれらの可能な任意の組み合わせで実装され得る。リッドコントローラハブは、1または複数の処理ユニットを含み得る。
プロセッサ5402および5404は、メモリコントローラロジック(MC)5420および5422をさらに含む。図54に示すように、MC5420および5422は、プロセッサ5402および5404にそれぞれ結合されたメモリ5416および5418を制御する。メモリ5416および5418は、揮発性メモリ(例えば、ダイナミックランダムアクセスメモリ(DRAM)、スタティックランダムアクセスメモリ(SRAM))または不揮発性メモリ(例えば、フラッシュメモリ、ソリッドステートドライブ、カルコゲニドベースの相変化不揮発性メモリ)などの様々なタイプのメモリを含み得る。MC5420および5422はプロセッサ5402および5404に一体化されたものとして示されているが、代替の実施形態では、MCはプロセッサの外部のロジックであってよく、およびメモリ階層の1または複数の層を含んでよい。
プロセッサ5402および5404は、P-P相互接続5432および5434を介して入力/出力(I/O)サブシステム5430に結合される。ポイントツーポイント相互接続5432は、プロセッサ5402のポイントツーポイントインタフェース5436をI/Oサブシステム5430のポイントツーポイントインタフェース5438に接続し、ポイントツーポイント相互接続5434は、プロセッサ5404のポイントツーポイントインタフェース5440をI/Oサブシステム5430のポイントツーポイントインタフェース5442に接続する。入力/出力サブシステム5430は、I/Oサブシステム5430を高性能グラフィックモジュールであり得るグラフィックモジュール5452に結合するため、インタフェース5450をさらに含む。I/Oサブシステム5430とグラフィックモジュール5452とは、バス5454を介して結合される。これに代わり、バス5454は、ポイントツーポイントインターコネクト相互接続であり得る。
入力/出力サブシステム5430は、インタフェース5462を介して第1バス5460にさらに結合される。第1バス5460は、ペリフェラルコンポーネントインターコネクト(PCI)バス、PCI Expressバス、別の第3世代I/O相互接続バス、または任意の他のタイプのバスであってもよい。
様々なI/Oデバイス5464が第1バス5460に結合され得る。バスブリッジ5470が第1バス5460を第2バス5480に結合し得る。いくつかの実施形態において、第2バス5480は、ローピンカウント(LPC)バスであってよい。例えば、キーボード/マウス5482、オーディオI/Oデバイス5488、およびコンピュータ実行可能命令(コード)5492を格納するためのハードディスクドライブ、ソリッドステートドライブ、または他のストレージデバイスなどのストレージデバイス5490を含む、様々なデバイスが第2のバス5480に結合され得る。コード5492は、本明細書に記載の技術を実行するためのコンピュータ実行可能命令を含んでよい。第2バス5480に結合可能な追加的なコンポーネントとしては、1または複数の通信規格(例えば、IEEE5402.11規格およびその補足事項)を使用して、1または複数の有線または無線通信リンク(例えば、ワイヤ、ケーブル、イーサネット(登録商標)接続、無線周波数(RF)チャネル、赤外線チャネル、Wi-Fi(登録商標)チャネル)を介して、デバイスと1または複数の有線または無線ネットワーク5486(例えばWi-Fi(登録商標)、セルラまたは衛星ネットワーク)との間の通信を提供し得る、通信デバイス(1または複数)またはユニット(1または複数)5484が挙げられる。
デバイスは、フラッシュメモリカード(例えば、SD(セキュアデジタル)カード)、メモリスティック、加入者識別モジュール(SIM)カード)などの取り外し可能メモリを含み得る。(キャッシュ5412および5414、メモリ5416および5418、ストレージデバイス5490、およびリッドコントローラハブ内のメモリを含む)コンピューティングデバイス内のメモリは、データおよび/またはオペレーティングシステム5494またはアプリケーションプログラム5496を実行するためのコンピュータ実行可能命令を格納し得る。データの例としては、リッドコントローラハブから受信されたウェブページ、テキストメッセージ、画像、音楽ファイル、ビデオデータ、センサデータもしくは他の任意のデータ、または1または複数の有線または無線ネットワークを介してデバイスにより1または複数のネットワークサーバまたは他のデバイスと送受信する、またはデバイスによる使用のための他のデータセットが挙げられる。デバイスは、外部ハードドライブまたはクラウドベースのストレージなどの外部メモリ(不図示)へのアクセスも有し得る。
オペレーティングシステム5494は、図54に示すコンポーネントの割り当ておよび使用を制御し、1または複数のアプリケーションプログラム5496をサポートし得る。アプリケーションプログラム5496は、共通のモバイルコンピューティングデバイスアプリケーション(例えば、電子メールアプリケーション、カレンダ、連絡先管理ソフト、ウェブブラウザ、メッセージングアプリケーション)ならびに他のコンピューティングアプリケーションを含み得る。
デバイスは、タッチスクリーン、マイクロホン、カメラ(平面視または立体視)、トラックボール、タッチパッド、トラックパッド、マウス、キーボード、近接センサ、光センサ、圧力センサ、赤外線センサ、心電図(ECG)センサ、PPG(フォトプレチスモグラム)センサ、皮膚電気反射センサなどの様々な入力デバイス、および1または複数のスピーカまたはディスプレイなどの1または複数の出力デバイスをサポートし得る。入力または出力デバイスのいずれも、デバイスの内部にあっても、外部にあっても、またはデバイスに取り外し可能に取り付けられていてもよい。外部入力および出力デバイスは、有線または無線接続を介してデバイスと通信し得る。
さらに、コンピューティングデバイスは、1または複数のナチュラルユーザインタフェース(NUI)を提供し得る。例えば、オペレーティングシステム5494、アプリケーション5496、またはリッドコントローラハブは、ユーザが音声コマンドを介してデバイスを動作可能とする音声ユーザインタフェースの一部として音声認識を含み得る。さらに、デバイスは、ユーザを体、手、または顔のジェスチャーを介してデバイスとインタラクト可能とする入力デバイスおよびコンポーネントを含み得る。
デバイスは、1または複数の通信コンポーネント5484をさらに含み得る。コンポーネント5484は、デバイスと外部デバイストの間の通信をサポートするため、1または複数のアンテナに結合された無線通信コンポーネントを含み得る。アンテナは、ベース、リッド、またはデバイスの他の部分に配置され得る。無線通信コンポーネントは、近距離通信通信(NFC)、IEEE1002.11(Wi-Fi(登録商標))変形、WiMax、Bluetooth(登録商標)、Zigbee(登録商標)、4Gロング・ターム・イボリューション(LTE)、符号分割多重アクセス(CDMA)、ユニバーサル・モバイル・テレコミュニケーション・システム(UMTS)およびグローバル・システム・フォー・モバイル・テレコミュニケーション(GSM(登録商標))などの様々な無線通信プロトコルおよび技術をサポートし得る。さらに、無線モデムが、単一のセルラネットワーク内、セルラネットワーク間、またはモバイルコンピューティングデバイスと公衆交換電話網(PSTN)との間の、データおよび音声通信のための1または複数のセルラネットワークとの通信をサポートし得る。
デバイスは、物理的なコネクタ、電力源(再充電可能バッテリなど)、GPSレシーバなどの衛星ナビゲーションシステムレシーバ、ジャイロスコープ、加速度計、およびコンパスを含む、少なくとも1つの入力/出力ポート(例えば、USB、IEEE1394(FireWire(登録商標))、イーサネット(登録商標)および/またはRSから232ポートであり得る)をさらに含み得る。GPSレシーバは、GPSアンテナに結合され得る。デバイスは、追加的な機能を可能にするため、1または複数の追加的なレシーバ、トランスミッタおよび/またはトランシーバに結合された1または複数の追加的なアンテナをさらに含み得る。
図54は、1つの例示的コンピューティングデバイスアーキテクチャを示す。本明細書に記載の技術を実装するため、代替のアーキテクチャに基づくコンピューティングデバイスが使用され得る。例えば、個別の集積回路に配置されているプロセッサ5402および5404、およびグラフィックモジュール5452に代えて、コンピューティングデバイスは、図54に示すコンポーネントのうちの1または複数を組み込むSoC(システム・オン・チップ)集積回路を含み得る。一例において、SoCは、複数のプロセッサコア、キャッシュメモリ、ディスプレイドライバ、GPU、複数のI/Oコントローラ、AIアクセラレータ、画像処理ユニットドライバ、I/Oコントローラ、AIアクセラレータ、画像プロセッサユニットを含み得る。さらに、コンピューティングデバイスは、図54に示すものとは異なるバスまたはポイントツーポイント構成を介して要素を接続し得る。さらに、代替の実施形態では、示されたコンポーネントが除かれ、他のコンポーネントが追加され得ることから、図54に図示されたコンポーネントは必須でも包括的なものでもない。
図55は、リッドコントローラハブを実装する一部としてコンピュータ実行可能命令を実行するための例示的処理ユニット5500のブロック図である。処理ユニット5500は、マイクロプロセッサ、組み込みプロセッサ、デジタル信号プロセッサ(DSP)、ネットワークプロセッサ、またはアクセラレータなどの、任意のタイプのプロセッサまたはプロセッサコアであってよい。処理ユニット5500は、シングルスレッドコアであってよく、あるいは、コアごとに、2以上のハードウェアスレッドコンテキスト(または「ロジカルプロセッサ」)を含み得るという点で、マルチスレッド化されたコアであってよい。
図55はまた、プロセッサ5500に結合されたメモリ5510を示す。メモリ5510は、本明細書に記載の任意のメモリ、または当業者にとって既知の他の任意のメモリであってよい。メモリ5510は、処理ユニット5500によって実行可能なコンピュータ実行可能命令5515(コード)を格納してよい。
プロセッサコアは、メモリ5510から命令を受信するフロントエンドロジック5520を含む。命令は、1または複数のデコーダ5530によって処理されてよい。デコーダ5530は、その出力として、予め定義されたフォーマットで固定幅のマイクロオペレーションのようなマイクロオペレーションを生成してよく、あるいは、他の複数の命令、マイクロ命令、または元のコード命令を反映する制御信号を生成してよい。フロントエンドロジック5520はさらに、概して複数のリソースおよびキューに対し、実行のための変換命令に対応する動作を割り当てるレジスタリネーミングロジック5535およびスケジューリングロジック5540を含んでよい。
処理ユニット5500は、1または複数の実行ユニット(EU)5565-1から5565-Nを有する、実行ロジック5550をさらに含む。いくつかのプロセッサコア実施形態は、特定の複数の機能または複数の機能セット専用の複数の実行ユニットを含んでよい。複数の他の実施形態は、1つの実行ユニットのみ、または特定の機能を実行し得る1つの実行ユニットを含んでよい。実行ロジック5550は、複数のコード命令によって指定される複数の動作を実行する。複数のコード命令によって指定される複数の動作の実行完了後、バックエンドロジック5570が退避ロジック5575を使用して複数の命令を退避する。いくつかの実施形態において、処理ユニット5500は、アウトオブオーダ実行を可能にするが、複数の命令のインオーダ退避を要求する。退避ロジック5575は、当業者に既知の様々な形態を取り得る(例えば、複数のリオーダバッファなど)。
処理ユニット5500は、命令の実行中、少なくともデコーダ5530によって生成される出力の観点において、レジスタリネーミングロジック5535によって利用される複数のハードウェアレジスタおよびテーブル、および実行ロジック5550によって変更される任意の複数のレジスタ(不図示)に変換される。図55に示されないが、プロセッサは、処理ユニット5500を備える集積チップ上に複数の他の要素を含んでよい。例えば、プロセッサは、メモリ制御ロジック、1または複数のグラフィックモジュール、I/O制御ロジック、および/または1または複数のキャッシュなどの追加的な要素を含んでよい。
本明細書の任意の実施形態に使用される場合、「モジュール」という用語は、本開示に従った1または複数の動作を実行するために、ハードウェアコンポーネントまたはデバイス、プロセッサ上で動作するソフトウェアまたはファームウェア、またはこれらの組み合わせで実装され得るロジックを指す。ソフトウェアは、ソフトウェアパッケージ、コード、命令、命令セットおよび/または非一時的コンピュータ可読ストレージ媒体に記録されたデータとして具現化されてよい。ファームウェアは、メモリデバイス内でハードコード(例えば、不揮発性)されたコード、命令または命令セットおよび/またはデータとして具現化されてよい。本明細書の任意の実施形態に使用される場合、「回路機構」という用語は、例えば、ハードワイヤード回路機構、1または複数の個別の命令処理コアを含むコンピュータプロセッサなどのプログラマブル回路機構、ステートマシン回路機構、および/またはプログラマブル回路機構により実行される命令を格納したファームウェアを単独で、または任意の組み合わせで含み得る。本明細書に記載のモジュールは、1または複数のデバイスの一部を形成する回路機構として、集合的にまたは個別に具現化され得る。したがって、任意のモジュールが、連続的アイテムセット生成回路機構、エントロピーベースの離散化回路機構などのような回路機構として実装され得る。方法を実行するためにプログラムされたと言及されるコンピュータデバイスは、ソフトウェア、ハードウェア、ファームウェアまたはそれらの組み合わせを介して方法を実行するためにプログラムされ得る。
いくつかの実施形態において、リッドコントローラハブは、リッドコントローラハブの一部として本明細書に記載されたコンポーネント(モジュール、ポート、コントローラ、ドライバ、タイミング、ブロック、アクセラレータ、プロセッサなど)を含むパッケージ化された集積回路である。リッドコントローラハブコンポーネントは、専用回路機構、ファームウェアまたはソフトウェア、またはそれらの組み合わせを動作させるプログラマブル回路機構として実装され得る。したがって、モジュールは代替的に「回路機構」(例えば、「画像前処理回路機構」)とも称され得る。モジュールはさらに代替的に「エンジン」(例えば、「セキュリティエンジン」、「ホストエンジン」、「ビジョン/撮像エンジン」、「オーディオエンジン」)とも称され得、「エンジン」はハードウェアの組み合わせ、ソフトウェア、ファームウェアまたはそれらの組み合わせとして実装され得る。さらに、リッドコントローラハブモジュール(例えば、オーディオモジュール、ビジョン/撮像モジュール)は、他のモジュールと組み合わせられ得、個別のモジュールは個別のモジュールに分割できる。
請求項および明細書における参照符号の使用は、請求項および明細書の理解を助けることを意図し、限定的なものを意図していない。
開示された方法はいずれも、コンピュータ実行可能命令またはコンピュータプログラム製品として実装され得る。そのような命令は、コンピュータ実行可能命令を実行可能なコンピュータまたは1または複数のプロセッサに開示の方法のいずれかを実行させ得る。一般的に、本明細書で使用される場合、「コンピュータ」という用語は、本明細書に記載または言及されたいずれかのコンピューティングデバイスまたはシステム、または他の任意のコンピューティングデバイスを指す。したがって、「コンピュータ実行可能命令」という用語は、本明細書に記載または言及されたいずれかのコンピューティングデバイス、または他の任意のコンピューティングデバイスによって実行可能な命令を指す。
コンピュータ実行可能命令またはコンピュータプログラム製品、ならびに開示の技術の実装時に作成され使用された任意のデータは、光学媒体ディスク(例えば、DVD、CD)、揮発性メモリコンポーネント(例えば、DRAM、SRAM)、または不揮発性メモリコンポーネント(例えば、フラッシュメモリ、ソリッドステートドライブ、カルコゲニドベースの相変化不揮発性メモリ)などの1または複数の有形または非一時的コンピュータ可読ストレージ媒体に格納され得る。コンピュータ可読ストレージ媒体は、ソリッドステートドライブ、USBフラッシュドライブ、およびメモリモジュールなどのコンピュータ可読ストレージデバイス内に含まれ得る。あるいは、コンピュータ実行可能命令は、開示された方法の全部または一部を実行するためのハードワイヤードロジックを含む特定ハードウェアコンポーネントにより、またはコンピュータ可読ストレージ媒体およびハードウェアコンポーネントの任意の組み合わせにより実行され得る。
コンピュータ実行可能命令は、例えば、ウェブブラウザまたは他のソフトウェアアプリケーション(リモートコンピューティングアプリケーションなど)を介してアクセスされた専用ソフトウェアアプリケーションまたはソフトウェアアプリケーションの一部であり得る。そのようなソフトウェアは、例えば、単一のコンピューティングデバイスにより、または1または複数のネットワーク接続されたコンピュータを使用してネットワーク環境において読み出され、実行され得る。さらに、開示された技術は、いずれの特定のコンピュータ言語またはプログラムにも限定されないことが理解されよう。例えば、開示された技術は、C++、Java(登録商標)、Perl、Python、JavaScript(登録商標)、Adobeフラッシュ、または他の任意の適切なプログラミング言語で記述されたソフトウェアにより実装され得る。同様に、開示された技術は、いずれの特定のコンピュータまたはハードウェアのタイプにも限定されない。
さらに、いずれのソフトウェアベースの実施形態(例えば、コンピュータにいずれかの開示された方法を実行させるためのコンピュータ実行可能命令を含む)も、適切な通信手段を介してアップロード、ダウンロード、または遠隔アクセスし得る。そのような適切な通信手段としては、例えば、インターネット、ワールド・ワイド・ウェブ、イントラネット、ケーブル(光ファイバケーブルを含む)、磁気通信、電磁気通信(RF、マイクロ波、および赤外線通信を含む)、電子通信、または他のそのような通信手段が挙げられる。
本出願および請求項に使用される場合、「および/または」という用語によってつながれた項目のリストは、リストされた項目の任意の組み合わせを意味し得る。例えば、「A、Bおよび/またはC」という表現は、A、B、C、AおよびB、AおよびC、BおよびC、またはA、B、およびCを意味し得る。さらに、本出願および請求項に使用される場合、「のうちの少なくとも1つ」という用語によってつながれた項目のリストは、リストされた用語の任意の組み合わせを意味し得る。例えば、「A、B、またはCのうちの少なくとも1つ」という表現は、A、B、C、AおよびB、AおよびC、BおよびC、またはA、B、およびCを意味し得る。さらに、本出願および請求項に使用される場合、「の1または複数」という用語によってつながれた項目のリストは、リストされた用語の任意の組み合わせを意味し得る。例えば、「A、BおよびCの1または複数」という表現は、A、B、C、AおよびB、AおよびC、BおよびC、またはA、B、およびCを意味し得る。さらに、本出願および請求項に使用される場合、「少なくとも2つ」という表現は、リストされた用語の任意の2つを意味し得る。例えば、「A、B、またはCの少なくとも2つ」という表現は、AおよびB、BおよびC、またはAおよびCであり得る。さらに、本出願および請求項に使用される場合、「互いに全て異なる」という表現は、リストされた項目がそれぞれ互いに異なることを意味する。例えば、「A、B、Cは互いに全て異なる」は、A、B、およびCがそれぞれ異なる値(例えば、Aは20Hz、Bは60Hz、およびCは120Hz)を有することを意味し得る。
さらに、「最適化する(optimize)」、「最適化(optimization)」、「最適化している(optimizing)」という単語および関連する用語は、システム、コンポーネント、またはプロセスの電力消費、レイテンシまたは他の性能または挙動特性における相対的改善を指す技術用語であり、システム、コンポーネント、またはプロセスが電力消費、レイテンシ、または性能または挙動特性の「最適な(optimal)」状態が達成されるほど完全に改善されたことを示すものではない。
開示された方法、装置、およびシステムは、いかなる形にも限定的に解釈されるものではない。むしろ、本開示は、単独で、および互いに様々な組み合わせおよび下位組み合わせで、様々な開示された実施形態の全ての新規且つ非自明な特徴および態様を対象とする。開示された方法、装置、およびシステムは、任意の特定の態様または特徴またはそれらの組み合わせに限定されず、開示された実施形態は、任意の1または複数の特定の効果が存在し、または問題が解決されることを必要としない。
本開示の装置または方法を参照して本明細書で提示された動作論理、科学的原則または他の論理的記載は、理解を促す目的で提供されており、範囲を限定することを意図していない。添付の請求項の装置および方法は、そのような動作論理により記載された方法で機能するこれらの装置および方法に限定されない。
開示された方法の一部の動作は、提示の便宜上、特定の順序で記載されているが、特定の順番が本明細書に記載の特定の文言によって必要となる場合を除いて、この記載の仕方は再配置を包含することが理解されよう。例えば、順序立てて記載された動作は、場合によっては再配置または同時に実行され得る。さらに、簡潔さのために、添付の図面は、開示された方法が他の方法と連動して使用可能な様々な手法を示していない場合がある。

Claims (25)

  1. タッチディスプレイコントローラからタッチセンサデータを受信する段階と、
    ディスプレイリフレッシュ通知の受信に応じて、
    前記タッチセンサデータに基づいて、調整されたタッチセンサデータを生成する段階と、
    前記調整されたタッチセンサデータをオペレーティングシステムに送信する段階と、
    を含む方法であって、
    前記タッチセンサデータを受信する段階と、前記調整されたタッチセンサデータを生成する段階と、前記調整されたタッチセンサデータを送信する段階とは、モバイルコンピューティングデバイスのリッド内で実行され、前記オペレーティングシステムは、前記モバイルコンピューティングデバイスのベース内に配置された1または複数の処理ユニットの上で実行される、
    方法。
  2. 前記タッチセンサデータは、タッチ位置データを含み、前記調整されたタッチセンサデータを生成する段階は、前記タッチ位置データに基づいて、調整されたタッチ位置データを生成する段階を含み、前記調整されたタッチセンサデータは、前記調整されたタッチ位置データを含む、請求項1に記載の方法。
  3. 前記タッチセンサデータは、タッチ強度データを含み、前記調整されたタッチセンサデータを生成する段階は、前記タッチ強度データに基づいて、調整されたタッチ強度データを生成する段階を含み、前記調整されたタッチセンサデータは、前記調整されたタッチ強度データを含む、請求項1または2に記載の方法。
  4. 前記調整されたタッチセンサデータを生成する段階は、前記タッチセンサデータを平滑化する段階を含む、請求項1から3のいずれか一項に記載の方法。
  5. 以前のタッチセンサデータを受信する段階と、
    前記ディスプレイリフレッシュ通知より前の以前のディスプレイリフレッシュ通知を受信する段階と、
    をさらに含み、前記以前のタッチセンサデータは、前記以前のディスプレイリフレッシュ通知の受信より前に受信され、前記調整されたタッチセンサデータを生成する段階は、前記タッチセンサデータを前記以前のタッチセンサデータで平均化する段階を含む、請求項1から4のいずれか一項に記載の方法。
  6. 表示サブシステムに、ディスプレイのリフレッシュレートを変更するよう通知する段階をさらに含む、請求項1から5のいずれか一項に記載の方法。
  7. 前記オペレーティングシステムまたは前記モバイルコンピューティングデバイス上で実行されるアプリケーションにより、前記調整されたタッチセンサデータに基づいてフレーム情報を生成する段階と、
    前記フレーム情報に基づいて新たなフレームを生成する段階と、
    前記新たなフレームを表示するため、ディスプレイをリフレッシュする段階と、
    さらに含む、請求項1から6のいずれか一項に記載の方法。
  8. タッチディスプレイコントローラからタッチセンサデータを受信し、
    ディスプレイリフレッシュ通知を受信し、
    前記ディスプレイリフレッシュ通知の受信に応じて、
    前記タッチセンサデータに基づいて、調整されたタッチセンサデータを生成し、
    前記調整されたタッチセンサデータをホスト処理ユニットに送信する、
    ように回路機構を備える装置であって、
    前記装置は、モバイルコンピューティングデバイスのリッド内で使用される、
    装置。
  9. 前記タッチセンサデータは、タッチ位置データを含み、前記調整されたタッチセンサデータを生成することは、前記タッチ位置データに基づいて、調整されたタッチ位置データを生成することを含み、前記調整されたタッチセンサデータは、前記調整されたタッチ位置データを含む、請求項8に記載の装置。
  10. 前記タッチセンサデータは、タッチ強度データを含み、前記調整されたタッチセンサデータを生成することは、前記タッチ強度データに基づいて、調整されたタッチ強度データを生成することを含み、前記調整されたタッチセンサデータは、前記調整されたタッチ強度データを含む、請求項8または9に記載の装置。
  11. 前記調整されたタッチセンサデータを生成することは、前記タッチセンサデータを前回のディスプレイリフレッシュよりも前に受信されたタッチセンサデータで平均化することを含む、請求項8から10のいずれか一項に記載の装置。
  12. 前記回路機構はさらに、表示サブシステムに、ディスプレイのリフレッシュレートを増加させるよう通知する、請求項8から11のいずれか一項に記載の装置。
  13. 前記回路機構はさらに、表示サブシステムに、ディスプレイのリフレッシュレートを最大リフレッシュレートまで増加させるよう通知する、請求項8から12のいずれか一項に記載の装置。
  14. 前記回路機構はさらに、前記タッチセンサデータの受信に応じて、前記表示サブシステムに通知する、請求項12または13に記載の装置。
  15. オペレーティングシステムを実行する1または複数のホスト処理ユニットを含むベースと、
    前記ベースに回転可能に結合されたリッドであって、
    タッチディスプレイと、
    タッチディスプレイコントローラと、
    前記タッチディスプレイをリフレッシュする表示サブシステムと、
    回路機構であって、
    前記タッチディスプレイコントローラからタッチセンサデータを受信し、
    前記表示サブシステムからディスプレイリフレッシュ通知を受信し、
    前記ディスプレイリフレッシュ通知の受信に応じて、
    前記タッチセンサデータに基づいて、調整されたタッチセンサデータを生成し、
    前記調整されたタッチセンサデータを前記オペレーティングシステムに送信する、回路機構と、
    を含むリッドと、
    を備えるモバイルコンピューティングデバイス。
  16. 前記タッチセンサデータは、タッチ位置データを含み、前記調整されたタッチセンサデータを生成することは、前記タッチ位置データに基づいて、調整されたタッチ位置データを生成することを含み、前記調整されたタッチセンサデータは、前記調整されたタッチ位置データを含む、請求項15に記載のモバイルコンピューティングデバイス。
  17. 前記タッチセンサデータは、タッチ強度データを含み、前記調整されたタッチセンサデータを生成することは、前記タッチ強度データに基づいて、調整されたタッチ強度データを生成することを含み、前記調整されたタッチセンサデータは、前記調整されたタッチ強度データを含む、請求項15または16に記載のモバイルコンピューティングデバイス。
  18. 前記回路機構はさらに、
    以前のタッチセンサデータを受信し、
    前記ディスプレイリフレッシュ通知より前の以前のディスプレイリフレッシュ通知を受信し、前記以前のタッチセンサデータは、前記以前のディスプレイリフレッシュ通知の受信より前に受信され、前記調整されたタッチセンサデータを生成することは、前記タッチセンサデータを前記以前のタッチセンサデータで平均化することを含む、請求項15から17のいずれか一項に記載のモバイルコンピューティングデバイス。
  19. 前記回路機構はさらに、前記表示サブシステムに、ディスプレイのリフレッシュレートを変更するよう通知する、請求項15から18のいずれか一項に記載のモバイルコンピューティングデバイス。
  20. 前記回路機構はさらに、前記タッチセンサデータの受信に応じて、前記表示サブシステムに通知する、請求項15から19のいずれか一項に記載のモバイルコンピューティングデバイス。
  21. 前記表示サブシステムはタイミングコントローラを含む、請求項15から20のいずれか一項に記載のモバイルコンピューティングデバイス。
  22. 前記1または複数のホスト処理ユニットは、アプリケーションを実行し、前記オペレーティングシステムは、前記調整されたタッチセンサデータを前記アプリケーションに提供する、請求項15から21のいずれか一項に記載のモバイルコンピューティングデバイス。
  23. 前記オペレーティングシステムまたは前記アプリケーションは、前記調整されたタッチセンサデータに基づいてフレーム情報を生成し、前記オペレーティングシステムは、前記フレーム情報に基づいて新たなフレームを生成し、前記表示サブシステムはさらに、
    前記ベースからビデオデータを受信し、
    前記タッチディスプレイを前記新たなフレームでリフレッシュさせる、請求項22に記載のモバイルコンピューティングデバイス。
  24. オペレーティングシステムを実行する1または複数のホスト処理ユニットを含むベースと、
    前記ベースに回転可能に結合されたリッドであって、
    タッチディスプレイと、
    タッチディスプレイコントローラと、
    前記タッチディスプレイをリフレッシュする表示サブシステムと、
    前記タッチディスプレイコントローラから受信されたタッチセンサデータを調整し、前記タッチディスプレイのリフレッシュレートと同期して、前記オペレーティングシステムに前記調整されたタッチセンサデータを送信するためのタッチセンサデータ調整手段と、
    を含むリッドと、
    を備えるモバイルコンピューティングデバイス。
  25. 前記1または複数のホスト処理ユニットは、アプリケーションを実行し、前記オペレーティングシステムまたは前記アプリケーションは、前記調整されたタッチセンサデータに基づいてフレーム情報を生成し、前記オペレーティングシステムは、前記フレーム情報に基づいて新たなフレームを生成し、前記表示サブシステムはさらに、
    前記ベースからビデオデータを受信し、
    前記タッチディスプレイを前記新たなフレームでリフレッシュさせる、請求項24に記載のモバイルコンピューティングデバイス。
JP2021131913A 2020-08-18 2021-08-13 タッチ体験向上のためのリッドコントローラハブアーキテクチャ Pending JP2022034538A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US202063067071P 2020-08-18 2020-08-18
US63/067,071 2020-08-18
US17/134,396 2020-12-26
US17/134,396 US11789565B2 (en) 2020-08-18 2020-12-26 Lid controller hub architecture for improved touch experiences

Publications (1)

Publication Number Publication Date
JP2022034538A true JP2022034538A (ja) 2022-03-03

Family

ID=76942931

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021131913A Pending JP2022034538A (ja) 2020-08-18 2021-08-13 タッチ体験向上のためのリッドコントローラハブアーキテクチャ

Country Status (5)

Country Link
US (1) US11789565B2 (ja)
EP (1) EP3958101A1 (ja)
JP (1) JP2022034538A (ja)
KR (1) KR20220022465A (ja)
CN (1) CN114077320A (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11481022B2 (en) * 2017-08-18 2022-10-25 Hewlett-Packard Development Company, L.P. Motion based power states
US11662695B2 (en) 2019-10-11 2023-05-30 Dell Products L.P. Information handling system infrared proximity detection with distance reduction detection
US11435447B2 (en) 2019-10-11 2022-09-06 Dell Products L.P. Information handling system proximity sensor with mechanically adjusted field of view
US11435475B2 (en) 2019-10-11 2022-09-06 Dell Products L.P. Information handling system infrared proximity detection with frequency domain modulation
US11513813B2 (en) 2020-01-31 2022-11-29 Dell Products L.P. Information handling system notification presentation based upon user presence detection
US11334146B2 (en) * 2020-01-31 2022-05-17 Dell Products L.P. Information handling system peripheral enhanced user presence detection
US11663343B2 (en) 2020-01-31 2023-05-30 Dell Products L.P. Information handling system adaptive user presence detection
US11244654B2 (en) * 2020-06-19 2022-02-08 Intel Corporation Display control apparatus and method for a display based on information indicating presence or engagement of the user of the display
US20230176643A1 (en) * 2020-06-23 2023-06-08 Hewlett-Packard Development Company, L.P. Touch based computing devices
TW202203048A (zh) * 2020-07-10 2022-01-16 日商索尼半導體解決方案公司 通信裝置及通信方法、以及程式
US11782149B2 (en) * 2021-01-08 2023-10-10 Google Llc Systems and methods for managing motion detection of an electronic device, and associated electronic devices
CN115390687A (zh) * 2021-05-21 2022-11-25 荣耀终端有限公司 一种显示屏控制方法及电子设备
EP4099130A1 (en) 2021-06-04 2022-12-07 INTEL Corporation Power management of a processor and a platform in active state and low power state
CN113570033B (zh) * 2021-06-18 2023-04-07 北京百度网讯科技有限公司 神经网络处理单元、神经网络的处理方法及其装置
US11783799B2 (en) * 2021-06-29 2023-10-10 Ati Technologies Ulc Display engine initiated prefetch to system cache to tolerate memory long blackout
US11714473B2 (en) * 2021-06-30 2023-08-01 Synaptics Incorporated Closure detection for foldable devices
US20230115702A1 (en) * 2021-10-10 2023-04-13 Dell Products L.P. System Event Classification for a Multi-Way Information Handling System Architecture
CN116339658A (zh) * 2021-12-23 2023-06-27 联想(北京)有限公司 电子设备
US20230282151A1 (en) * 2022-03-02 2023-09-07 Intel Corporation Dynamic allocation of display pipes to external displays
US20240272748A1 (en) * 2022-04-21 2024-08-15 Nanjing Boe Display Technology Co., Ltd Display control method, display device and readable storage medium
US12087254B2 (en) * 2022-09-07 2024-09-10 Lenovo (Singapore) Pte. Ltd. Computing devices, computer-readable medium, and methods for reducing power consumption during video rendering
US20240152198A1 (en) * 2022-11-03 2024-05-09 Lenovo (Singapore) Pte. Ltd. Method and system for indicating system state in camera-under-display configurations
JP7488383B1 (ja) * 2023-02-15 2024-05-21 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、及び制御方法

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001350549A (ja) 2000-06-08 2001-12-21 Hitachi Ltd 表示画面の省電力制御方法、記録媒体
US8681098B2 (en) 2008-04-24 2014-03-25 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
EP2247999A1 (en) 2008-01-25 2010-11-10 Sensitive Object Touch-sensitive panel
US20100079508A1 (en) 2008-09-30 2010-04-01 Andrew Hodge Electronic devices with gaze detection capabilities
CN101754466B (zh) * 2008-12-10 2012-09-05 运软网络科技(上海)有限公司 移动虚拟化的基础设施以及基础平台
JP4615053B2 (ja) 2009-03-04 2011-01-19 株式会社ナナオ 表示システム、表示制御装置及びコンピュータプログラム
US8386800B2 (en) 2009-12-04 2013-02-26 Cryptography Research, Inc. Verifiable, leak-resistant encryption and decryption
US9335793B2 (en) 2011-01-31 2016-05-10 Apple Inc. Cover attachment with flexible display
US8806235B2 (en) 2011-06-14 2014-08-12 International Business Machines Corporation Display management for multi-screen computing environments
US9323379B2 (en) 2011-12-09 2016-04-26 Microchip Technology Germany Gmbh Electronic device with a user interface that has more than two degrees of freedom, the user interface comprising a touch-sensitive surface and contact-free detection means
US9158383B2 (en) 2012-03-02 2015-10-13 Microsoft Technology Licensing, Llc Force concentrator
US9093050B1 (en) 2012-03-21 2015-07-28 Amazon Technologies, Inc. Determining when to delay sending updates to a display device
KR101349406B1 (ko) 2012-05-15 2014-01-09 엘지이노텍 주식회사 디스플레이장치 및 이의 절전 방법
US9317721B2 (en) 2012-10-31 2016-04-19 Google Inc. Privacy aware camera and device status indicator system
US9927902B2 (en) 2013-01-06 2018-03-27 Intel Corporation Method, apparatus, and system for distributed pre-processing of touch data and display region control
US9465276B2 (en) 2013-07-06 2016-10-11 Karl S Jonsson Webcam privacy shield
US9601085B2 (en) 2013-09-20 2017-03-21 Synaptics Incorporated Device and method for synchronizing display and touch controller with host polling
US9727134B2 (en) 2013-10-29 2017-08-08 Dell Products, Lp System and method for display power management for dual screen display device
US20150215535A1 (en) 2014-01-24 2015-07-30 Kazuki Takahashi Restriction System
US20150242038A1 (en) * 2014-02-24 2015-08-27 Toshiba Global Commerce Solutions Holdings Corporation Filter module to direct audio feedback to a plurality of touch monitors
US9354744B2 (en) 2014-06-09 2016-05-31 Sony Corporation Adaptive touch panel synchronization
JP6324923B2 (ja) * 2015-04-24 2018-05-16 株式会社ニフコ 車両用収納装置
KR101760092B1 (ko) 2016-05-09 2017-07-21 주식회사에스에이티 하드웨어 보안모듈을 이용한 cctv 보안강화 장치 및 그 방법
CN106020871A (zh) * 2016-05-11 2016-10-12 青岛海信移动通信技术股份有限公司 一种移动设备的屏幕启动方法和装置
US10687184B2 (en) 2016-05-13 2020-06-16 Google Llc Systems, methods, and devices for utilizing radar-based touch interfaces
US10474277B2 (en) * 2016-05-31 2019-11-12 Apple Inc. Position-based stylus communication
US10042421B2 (en) 2016-08-24 2018-08-07 Disney Enterprises, Inc. System and method of latency-aware rendering of a focal area of an animation
US10311548B2 (en) 2017-09-05 2019-06-04 Microsoft Technology Licensing, Llc Scaling render targets to a higher rendering resolution to display higher quality video frames
US10817018B1 (en) * 2019-04-29 2020-10-27 Apple Inc. Electronic devices with ambient light sensors and emissive displays
CN110502153B (zh) 2019-08-30 2022-11-11 Oppo(重庆)智能科技有限公司 触摸屏报点率的调整方法、触摸屏、电子设备及存储介质
US11733761B2 (en) 2019-11-11 2023-08-22 Intel Corporation Methods and apparatus to manage power and performance of computing devices based on user presence

Also Published As

Publication number Publication date
EP3958101A1 (en) 2022-02-23
US11789565B2 (en) 2023-10-17
CN114077320A (zh) 2022-02-22
KR20220022465A (ko) 2022-02-25
US20210132769A1 (en) 2021-05-06

Similar Documents

Publication Publication Date Title
JP2022034538A (ja) タッチ体験向上のためのリッドコントローラハブアーキテクチャ
EP3958161A1 (en) Lid controller hub
CN110045908B (zh) 一种控制方法和电子设备
WO2021227770A1 (zh) 应用窗口显示方法和电子设备
EP4064690A1 (en) Technologies for video conferencing
US9842549B2 (en) System and method for coordinating image capture in a camera hidden behind a display device
KR101951729B1 (ko) 터치 데이터의 분산된 전처리와 디스플레이 영역 제어를 위한 방법, 장치, 및 시스템
US20180329523A1 (en) Automatic selection of a wireless connectivity protocol for an input device
TWI516099B (zh) 用以降低平台電力之帶有延遲期間的視訊串流之手勢前置處理技術
CN108900770A (zh) 一种控制摄像头旋转的方法、装置、智能手表及移动终端
US10474324B2 (en) Uninterruptable overlay on a display
US20220114126A1 (en) Technologies for a controller hub with a usb camera
US20210096802A1 (en) Device manager that utilizes physical position of display devices
CN116343716A (zh) 用于显示器上的低功率选择性帧更新的技术
CN115562771B (zh) 应用窗口管理方法、电子设备和计算机可读取存储介质
WO2022213831A1 (zh) 一种控件显示方法及相关设备
US20220114985A1 (en) Technologies for selective frame update on a display
WO2022247614A1 (zh) 一种多界面显示的方法和电子设备
WO2022228043A1 (zh) 显示方法、电子设备、存储介质和程序产品
WO2022143094A1 (zh) 一种窗口页面的交互方法、装置、电子设备以及可读存储介质
WO2023061054A1 (zh) 非接触式手势控制方法和电子设备
WO2023231893A1 (zh) 光标显示的方法及电子设备
WO2023098417A1 (zh) 一种界面显示方法以及装置
CN118055185A (zh) 页面显示方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240806