TW202319888A - 用以選擇在智慧型眼鏡中的攝影機的視野之使用者介面 - Google Patents
用以選擇在智慧型眼鏡中的攝影機的視野之使用者介面 Download PDFInfo
- Publication number
- TW202319888A TW202319888A TW111128169A TW111128169A TW202319888A TW 202319888 A TW202319888 A TW 202319888A TW 111128169 A TW111128169 A TW 111128169A TW 111128169 A TW111128169 A TW 111128169A TW 202319888 A TW202319888 A TW 202319888A
- Authority
- TW
- Taiwan
- Prior art keywords
- user
- interest
- view
- field
- camera
- Prior art date
Links
- 239000004984 smart glass Substances 0.000 title claims description 91
- 238000000034 method Methods 0.000 claims abstract description 42
- 230000015654 memory Effects 0.000 claims abstract description 31
- 210000001747 pupil Anatomy 0.000 claims description 14
- 210000003128 head Anatomy 0.000 claims description 11
- 230000000007 visual effect Effects 0.000 claims description 7
- 239000004973 liquid crystal related substance Substances 0.000 claims description 4
- 238000004891 communication Methods 0.000 description 17
- 238000004590 computer program Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 239000011521 glass Substances 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000013500 data storage Methods 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3629—Guidance using speech or audio output, e.g. text-to-speech
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02C—SPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
- G02C11/00—Non-optical adjuncts; Attachment thereof
- G02C11/10—Electronic devices other than hearing aids
-
- G—PHYSICS
- G02—OPTICS
- G02C—SPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
- G02C7/00—Optical parts
- G02C7/10—Filters, e.g. for facilitating adaptation of the eyes to the dark; Sunglasses
- G02C7/101—Filters, e.g. for facilitating adaptation of the eyes to the dark; Sunglasses having an electro-optical light valve
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1686—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/044—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/235—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/759—Region-based matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/60—Static or dynamic means for assisting the user to position a body part for biometric acquisition
- G06V40/67—Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/695—Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0141—Head-up displays characterised by optical features characterised by the informative content of the display
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02C—SPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
- G02C7/00—Optical parts
- G02C7/16—Shades; shields; Obturators, e.g. with pinhole, with slot
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/021—Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Signal Processing (AREA)
- Optics & Photonics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Acoustics & Sound (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Automation & Control Theory (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Game Theory and Decision Science (AREA)
- Business, Economics & Management (AREA)
- Computational Linguistics (AREA)
- Otolaryngology (AREA)
- User Interface Of Digital Computer (AREA)
- Studio Devices (AREA)
Abstract
一種用於沈浸式實境應用的可穿戴裝置被提出。所述可穿戴裝置包含接目鏡以提供一前影像給一使用者、一第一向前看攝影機,其被安裝在框架上並且具有一視野、一處理器,其被配置以識別在所述前影像之內的一所關注區域、以及一介面裝置,其用以向所述使用者指出所述第一向前看攝影機的一視野與所關注區域失準。所述裝置的使用方法、儲存指令的記憶體以及用以執行所述指令以使得所述裝置執行所述使用方法的處理器亦被提出。
Description
本揭露內容有關於在包含用於記錄影像及視訊的一或多個攝影機的智慧型眼鏡裝置中的使用者介面。更明確地說,本揭露內容有關用於利用眼睛追蹤工具以在一使用者視野中識別一所關注區域之方法,並且提供非侵入性回授給所述使用者以使得所述使用者的所關注區域和在所述智慧型眼鏡中的所述一或多個攝影機的視野一致。
相關申請案之交互參照
本揭露內容是相關並且根據第35號美國法典§119(e)來主張Sapna SHROFF等人的2021年7月29日申請的名稱為具有利用眼睛追蹤的所關注區域偵測的智慧型眼鏡裝置的美國臨時專利申請案號63/227,231、名稱為具有姿勢為基礎的所關注區域偵測的智慧型眼鏡裝置的美國臨時專利申請案號63/227,238、名稱為具有經由部分的眼鏡遮光的所關注區域校正的智慧型眼鏡裝置的美國臨時專利申請案號63/227,240、以及2022年7月7日申請的名稱為用以選擇在智慧型眼鏡中的攝影機的視野之使用者介面的美國非臨時專利申請案號17/859,808的優先權,所述美國申請案的內容茲在此為了所有目的以其整體被納入作為參考。
現今許多電子設備包含(內嵌在一可穿戴架構之內的)一或多個攝影機,而使用者可啟動其來收集照片或視訊。然而,在許多情況中,使用者收集的影像及視訊並不匹配在收集時的所述使用者的視野的所關注區域。這是因為所述一或多個攝影機的角度及視野一般不同於所述使用者的角度及視野而發生。在某些類型的電子設備中,此不一致可以藉由在一顯示器上提供所述一或多個攝影機配件的視野的直接回授給所述使用者來解決。所述使用者接著可人工地修改攝影機位置以及光學配置(放大、孔徑大小、與類似者),以使得其和一所關注區域一致。然而,此方法需要一顯示器的使用(此在某些設備中可能不是可供利用的)、以及所述使用者的集中注意力以修正所述不一致。在某些具有一顯示器的設備中,仍然可能期望的是利用其中的資源於最大化使用者的享受,而不是用於硬體調整。
在一第一實施例中,一種裝置包含:一框架,其包含一接目鏡以提供一前影像給一使用者、一第一向前看攝影機,其被安裝在所述框架上;一處理器,其被配置以識別在所述使用者的視野之內的一所關注區域、以及一介面裝置,其用以向所述使用者指出所述第一向前看攝影機的視野與所述所關注區域失準。
在一第二實施例中,一種電腦實施方法包含:從一智慧型眼鏡的一使用者接收在由所述使用者所觀看的一前影像之內的一所關注物體的一指示、比較以所述所關注物體為中心的一所關注區域與被安裝在所述智慧型眼鏡的一框架上的一第一向前看攝影機的一視野、以及根據在所述所關注區域以及所述第一向前看攝影機的視野之間的相對位置以經由一安裝在所述智慧型眼鏡上的介面致動器來提供一回授給所述使用者。
在一第三實施例中,一種用於一智慧型眼鏡中的一攝影機介面之電腦實施方法包含識別在定中心於所述使用者的一所關注物體的一所關注區域以及安裝在所述智慧型眼鏡上的一第一攝影機的視野之間的不匹配。所述電腦實施方法包含在不通知所述使用者下自動地更新所述第一攝影機的一位置、方向或其它設定、或是選擇在所述智慧型眼鏡上的一第二攝影機,其相對於所述所關注區域更佳地定位。
在另一實施例中,一種系統包含一或多個處理器以及一儲存指令的記憶體,當所述指令藉由所述一或多個處理器執行時,其使得所述系統執行一方法。所述方法包含從一智慧型眼鏡的一使用者接收在所述使用者的一視野之內的一所關注物體的一指示、比較以所述所關注物體為中心的一所關注區域與被安裝在所述智慧型眼鏡的一框架上的一第一向前看攝影機的一視野、以及根據在所述所關注區域以及所述第一向前看攝影機的視野之間的相對位置以經由一安裝在所述智慧型眼鏡上的介面致動器來提供一回授給所述使用者,所述回授打算使得所述使用者調整相對於所述所關注物體的一頭部位置。
在又一實施例中,一種系統包含一用以儲存指令的第一裝置、以及一第二裝置,其用以執行所述指令並且使得所述系統執行一方法。所述方法包含從一智慧型眼鏡的一使用者接收在所述使用者的一視野之內的一所關注物體的一指示、比較以所述所關注物體為中心的一所關注區域與被安裝在所述智慧型眼鏡的一框架上的一第一向前看攝影機的一視野、以及根據在所述所關注區域以及所述第一向前看攝影機的視野之間的相對位置以經由一安裝在所述智慧型眼鏡上的介面致動器來提供一回授給所述使用者。
在圖式中,除非另有明確陳述,否則具有相同或類似的元件符號的元件是共用相同或類似的特點。
在以下詳細說明中,許多特定細節被闡述以提供本揭露內容的完整理解。然而,對於一般熟習此項技術者而言將會明顯的是,本揭露內容的實施例可在無這些特定細節中的某些細節下實施。在其它實例中,眾所周知的結構及技術並未詳細地展示,以免模糊本揭露內容。如同在此所揭露的實施例應該被視為如下在此的圖式中描繪的特點以及其它實施例的範疇之內。
傳統攝影機或成像系統容許使用者能夠觀看正從所述攝影機的觀點捕捉的對象或場景。某些方法包含取景器、接目鏡、帶有預覽的顯示器、以及串流直播。然而,在其中攝影機並不具有取景器、顯示器、或是其它此種手段來看到正從所述攝影機的觀點捕捉的對象或場景的系統則對於使用者呈現有關所述攝影機視野的非所要不確定性。儘管觸發藉由所述攝影機進行拍攝是可能的,但是當觸發捕捉之前沒有回授以校正所述攝影機視野時,在捕捉之際的正被捕捉的確切場景或觀點可能是使用者未知的。
為了解決以上發生在具有視訊攝影機配件的可穿戴裝置的技術領域中的問題,如同在此所揭露的實施例容許使用者瞭解到將藉由所述攝影機涵蓋的視野。在某些實施例中,一種系統包含具有一內建或附接攝影機的一智慧型眼鏡。所述系統可具有、或是可不具有顯示器以供使用者使用。即使一顯示器存在,其可能無法利用於所述攝影機視野、或者其可能較佳的是專用於其它用途。
此外,為了解決以上發生在具有視訊攝影機配件的可穿戴裝置(例如,"智慧型眼鏡")的技術領域中的問題,如同在此所揭露的實施例容許使用者瞭解到將藉由所述攝影機涵蓋的視野。在某些實施例中,一種系統包含具有一內建或附接攝影機的一智慧型眼鏡。
如同在此揭露的一種智慧型眼鏡裝置包含一框架,其包含接目鏡以提供一視野給一使用者、一向前看攝影機,其被安裝在所述框架上、一感測裝置,其面對所述使用者以用於追蹤所述使用者的一瞳孔位置、一處理電路,其被配置以識別在所述使用者的視野之內的一所關注區域(ROI)、以及一介面裝置,其用以向所述使用者指出所述向前看攝影機的一視野與所述所關注區域失準。在某些實施例中,一記憶體可儲存指令,當所述指令藉由所述處理器執行時,其使得所述智慧型眼鏡執行在一種和本揭露內容一致的方法中的一或多個步驟。所述記憶體亦可儲存資料,例如針對於所述向前看攝影機相對於所述使用者視野的位置及方位的校準資料。
如同在此所揭露的實施例使用眼睛追蹤工具以識別在透過如同以上所揭露的一智慧型眼鏡觀看的一場景中的一所關注區域。此外,如同在此所揭露的實施例解讀使用者姿勢以識別在透過如同以上所揭露的一智慧型眼鏡觀看的一場景中的一所關注區域。在某些實施例中,一種系統被設計成使得所述攝影機捕捉所述場景,其包含來自所述使用者的某些範例手姿勢。包含手姿勢的幀透過一姿勢識別系統來檢查,以辨認由使用者呈現適當姿勢的時點,並且根據來自所述使用者的手姿勢的解讀以識別所關注區域。
圖1描繪根據某些實施例的一架構10,其包含一或多個可穿戴裝置100-1(例如,智慧型眼鏡)以及100-2(例如,智慧型手錶)(在以下整體被稱為"可穿戴裝置100"),其耦接至彼此、至一行動裝置110、至一遠端伺服器130、以及至一資料庫152。智慧型眼鏡100-1可被配置以用於AR/VR應用,並且行動裝置110可以是一智慧型手機,其全部都可經由無線通訊來和彼此通訊,並且交換一第一資料組103-1。資料組103-1可包含經錄下視訊、音訊、或是某種其它檔案或串流媒體。可穿戴裝置100的使用者101也是行動裝置110的擁有者、或是和行動裝置110相關。在某些實施例中,所述智慧型眼鏡可經由所述網路來和所述遠端伺服器、所述資料庫、或是任何其它客戶裝置(例如,一不同使用者的一智慧型手機、與類似者)直接通訊。所述行動裝置可經由一網路150來和一遠端伺服器以及一資料庫通訊地耦接,並且彼此發送/共用資訊、檔案、與類似者,例如資料組103-2及資料組103-3(在以下整體被稱為"資料組103")。網路150例如可包含區域網路(LAN)、廣域網路(WAN)、網際網路、與類似者中的任一或多個。再者,所述網路可包含但不限於以下的網路拓樸中的任一或多個,其包含匯流排網路、星狀網路、環狀網路、網狀網路、星狀匯流排網路、樹狀或階層式網路、與類似者。
智慧型眼鏡100-1可包含一框架105,其包含接目鏡107以提供一前影像給使用者101。一攝影機115(例如,向前看)被安裝在框架105上。一面對所述使用者的感測裝置128被配置以追蹤所述使用者的一瞳孔位置。處理器112被配置以識別使用者101的一所關注區域(ROI)。一介面裝置129向使用者101指出攝影機115的一FOV與所述ROI失準。在某些實施例中,智慧型眼鏡100-1可藉由施加例如是物體識別或場景理解的演算法來自動地識別在所述ROI以及攝影機115的視野(FOV)之間的失準。在攝影機115的FOV以及所述ROI之間的靜態偏移的情形中,使用者校準可被實施以施加一應變片在用於所述使用者的顯示器中。在某些實施例中,智慧型眼鏡100-1亦可包含一觸覺致動器125以為了VR/AR應用來重建立觸碰感給所述使用者、以及一揚聲器127以向使用者101傳達語音或聲音信號,其指出調整一注視方向以用於改善攝影機115的FOV。例如,在某些實施例中,觸覺致動器125可包含一振動構件以向所述使用者指出在一所要方向上輕推其頭部位置以對準向前看攝影機115的FOV與所述ROI(例如,在所述使用者的左太陽穴上施加一振動以將所述使用者的注視稍微移向左邊、依此類推)。
在某些實施例中,智慧型眼鏡100-1可包含多個感測器121,例如IMU、陀螺儀、麥克風、以及被配置為用於所述使用者的觸碰介面的電容式感測器。其它觸控感測器可包含一壓力感測器、一溫度計、與類似者。
此外,可穿戴裝置100或是行動裝置110可包含一儲存指令的記憶體電路120、以及一處理器電路112,其被配置以執行所述指令以使得智慧型眼鏡100-1至少部分地執行在和本揭露內容一致的方法中的某些步驟。記憶體電路120亦可儲存資料,例如用於攝影機115相對於所述使用者的FOV的位置及方位的校準資料。在某些實施例中,智慧型眼鏡100-1、行動裝置110、伺服器130、及/或資料庫152可進一步包含一通訊模組118,其致能所述裝置能夠經由網路150以和遠端伺服器130無線地通訊。智慧型眼鏡100-1因此可從遠端伺服器130下載一多媒體線上內容(例如,資料組103-1),以至少部分地執行在如同在此所揭露的方法中的某些操作。在某些實施例中,記憶體120可包含指令以使得處理器112接收及結合來自感測器121的信號、避免誤測、以及當從一使用者介面接收到一輸入信號時,而更佳評估使用者的意圖及命令。
在某些實施例中,智慧型手錶或腕帶裝置100-2可包含觸動及運動感測器,其捕捉使用者101的手姿勢。所述手姿勢可用以根據使用者101的一ROI來增加、擴大、搖攝、或移位攝影機115中的一或多個的FOV。在某些實施例中,處理器112可被配置以識別如同由可穿戴裝置100中的感測器的任一個提供的所述使用者的手姿勢,並且依此調整攝影機115的FOV。
圖2A至圖2C描繪根據某些實施例的由穿戴一智慧型眼鏡200的使用者所觀看的一場景210。一使用者注視(例如,注視向量229A)可利用一眼睛追蹤機構228來識別。例如,使用者可能正看向畫框(例如,ROI 238)。在某些實施例中,所述ROI 238的中心被選擇為注視向量229A的輻輳點。如圖所示,根據某些實施例,注視向量229A與一第一向前看攝影機215-1或是一第二向前看攝影機215-2(在以下整體被稱為“向前看攝影機215”)的FOV對準,其在此利用一具有虛線的方框來加以展示。在某些實施例中,在一記憶體中所儲存的一先前校準設定可容許所述系統能夠估計所期望定界框,來捕捉在ROI 238之內的一所關注物體。
當注視向量229B位在向前看攝影機215-1的FOV之外時,所述系統可提供回授給所述使用者,其指出ROI 238在向前看攝影機215中之一的FOV之外。此指示例如可利用智慧型眼鏡200的使用者可聽見的來自一麥克風227的音訊提示、或是在所述眼鏡的右側上的觸覺、或是某種其它手段來提供。在接收此回授時,所述使用者接著可選擇移動其帶有接目鏡207及向前看攝影機215的頭部,藉此將ROI 238帶入向前看攝影機215的視野。當所述視線以及向前看攝影機215中的至少一個的FOV重疊或是同心時,所述系統可給予一“綠燈”通知來指出ROI 238已經被傳遞至所述捕捉系統。
根據某些實施例,針對於一智慧型眼鏡的一使用者來選擇ROI 238。在某些實施例中,所述系統可捕捉/觸發定格畫面捕捉或是視訊捕捉。在某些實施例中,所述系統可施加最佳化技術至所關注區域(例如,曝光最佳化、攝影機聚焦最佳化、與類似者)、或是受益於所關注區域資訊的某種其它模組/事件。
圖3描繪根據某些實施例的在一智慧型眼鏡300的一接目鏡307中的一視覺指示器350,以幫助使用者根據一所關注區域來調整一第一向前看攝影機315-1的FOV 338以用於影像捕捉。所述場景310亦可藉由一第二向前看攝影機315-2來捕捉(在以下,第一及第二向前看攝影機315-1及315-2將會在以下被稱為“攝影機315”)。事實上,在某些實施例中,所述系統可能識別出注視向量329指示在FOV 338之外的一物體。為了做成此,所述系統可包含一眼睛追蹤感測器328。於是,所述系統可向所述使用者指出將其頭部在一給定方向上稍微移動(例如,向右且稍微向上移動)、或是可判斷第二向前看攝影機315-2的FOV更佳地與所述使用者的ROI對準。於是,所述系統可開啟第二向前看攝影機315-2,而關閉第一向前看攝影機315-1。
圖4描繪根據某些實施例的在一智慧型眼鏡400中的向前看攝影機415-1及415-2(在以下整體被稱為“向前看攝影機415”)、以及在向前看攝影機415中的至少一個的FOV 438上的一干擾410。智慧型眼鏡400包含接目鏡407。例如,干擾410可能是所述使用者穿戴的帽子的帽舌,其不慎地妨礙到FOV 438。在某些實施例中,所述系統可自動地從所述影像裁掉干擾410,並且告知所述使用者已經使用自動裁剪。於是,在此種配置中,一處理器412可識別所述干擾並且經由一揚聲器427來警告所述使用者一帽子或是“一外來物體”妨礙到FOV 438。
在某些實施例中,所述使用者事實上可能已經利用攝影機415-1收集多個包含干擾410的影像。於是,所述影像可經由一無線資料傳輸而被上載到一行動裝置(參考行動裝置110及資料組103-1)。在行動裝置110中的一處理器上執行的一演算法可識別干擾410,並且經由麥克風427來提供語音報告至智慧型眼鏡400。
在某些實施例中,利用一眼睛追蹤感測器428所判斷的一注視向量429可能已經從第一向前看攝影機415-1選擇FOV 438。明顯的是,眼睛追蹤感測器428可能並未識別或甚至感測到干擾410,其亦可能阻擋第二向前看攝影機415-2的FOV的一部分。響應於來自揚聲器427的通訊,使用者可調整所述帽子、或是將其完全移開。一旦FOV 438沒有干擾410後,所述系統可發出一清除通知,其向所述使用者指出現在可利用向前看攝影機415的任一個來拍攝照片。
圖5描繪根據某些實施例的具有一眼鏡遮光功能的一智慧型眼鏡500。在某些實施例中,具有偏振構件(例如,線性偏振器、半波板以及或是四分之一波板、與類似者)的主動液晶可被切換成對於通過所述眼鏡的透鏡或接目鏡的光為或多或少透射的。於是,一透明狀態501A(高通透性)以及一遮光狀態501B(低通透性,“太陽眼鏡”狀態)可被提供給接目鏡507。橫跨接目鏡507來空間地調變此性質可被利用以提供回授給所述使用者有關於所述攝影機視野與所述使用者所觀看的前影像的相對位置。
在某些實施例中,接目鏡507的每一個包含一致動器,其被配置以修改所述接目鏡的至少一部分的光學通透性。智慧型眼鏡亦包含一安裝在框架505上的攝影機515。攝影機515往前面向所述使用者的FOV。在某些實施例中,智慧型眼鏡500亦包含一處理器512,其被配置以比較攝影機515的FOV與所述使用者所觀看的前影像。處理器512可被配置以藉由調整所述接目鏡507的至少一部分的光學通透性,來向所述使用者指出所述攝影機的FOV缺少所述使用者所觀看的前影像的一部分。一記憶體520儲存指令,當所述指令藉由處理器512執行時,其使得智慧型眼鏡500執行如同在此所揭露的方法中的步驟。
圖6A至圖6B描繪根據某些實施例的橫跨接目鏡607的一部分垂直透明狀態601A以及一部分水平透明狀態601B(在以下整體被稱為“透明狀態601”)、以及一部分垂直遮光狀態602A以及一部分水平遮光狀態602B(在以下整體被稱為“遮光狀態602”)的空間調變的例子。智慧型眼鏡600可包含一或兩個向前看攝影機615-1及615-2(在以下整體被稱為“攝影機615”)。攝影機615的任一個或是兩者都可在任何時點作用,以確保考慮到使用者ROI的前影像的更佳捕捉。為了充分利用智慧型眼鏡600的電力使用,所述系統可被配置以在任何給定時間只保持攝影機615中之一處於‘啟動’。於是,一適當設計液晶可被配置以用一局部方式在每一個接目鏡607之內切換。在所展示的例子中,接目鏡607的垂直的區段可被遮光,並且做成較多或較少透射的,以提供回授給所述使用者。所述回授可指出攝影機615中之一作用中的FOV。例如,當接目鏡607的遮光601A提供在由所述使用者所觀看的前影像的中間處的一透明垂直條帶時,此可以是所述攝影機FOV在水平方向上適當地居中的一指示。同樣地,沿著接目鏡607向左或右移位所述部分透明狀態601A可給予所述使用者一清楚指示為作用中的攝影機615中之一的視錐在水平的方向上為失準,並且在收集一影像或視訊之前,頭部姿勢可能需要藉由分別向左或右移動來調整、或是使用者應該啟動攝影機615中的另一個。
以一種類似方式,一橫跨使用者視野的中間的透明水平條帶601B可以是攝影機615中之一的視野在垂直方向上適當地居中的一指示。水平條帶601B在上面及下面藉由半透明或“遮光”條帶602B來劃界。同樣地,沿著接目鏡向上或下移位所述透明條帶601B可給予所述使用者一清楚指示為攝影機615中之一的視野在垂直方向上為失準,並且在收集一影像或視訊之前,所述頭部姿勢可能需要調整。
於是,具有此種局部透射切換狀態的接目鏡607可被利用以提供所述使用者有關於安裝在智慧型眼鏡600上的攝影機615所見的某種廣泛程度的回授。在某些實施例中,一眼睛追蹤感測器628可被用來識別所述使用者的一ROI,在此情形中,遮光601依此被調整。
或者是,某些實施例在照片/視訊捕捉模式中可包含側邊以及頂端/底部條,使用者將會自動地理解所述攝影機正如何框出,甚至在無部分地遮光在所述接目鏡中的顯示下也是如此。
圖7A至圖7B描繪根據某些實施例的一智慧型眼鏡700,其具有兩個在單一透射狀態中面對一場景的接目鏡707。由智慧型眼鏡700的使用者所觀看的一整個場景710的視野738藉由被安裝在智慧型眼鏡700的一框架705上的一攝影機715來捕捉。於是,如同在此所揭露的實施例幫助使用者在捕捉時刻具有所述場景的攝影機視界748的範圍的概念,而不需要展示所述攝影機的觀點的取景器/顯示器,即如同在以下所展示。
在某些實施例中,接目鏡707具有一局部可切換透射性質,因而在所述接目鏡的外側邊緣的一(垂直)部分根據某些實施例處於一較暗透射狀態701B(參考智慧型眼鏡700)。而一較透明部分701A與部分738(例如,攝影機715的視野)重疊。於是,部分701A將會出現在畫面中,而部分701B將會從所述攝影機捕捉而被裁掉。在某些實施例中,所述部分701A的位置及大小可根據所述攝影機相對於所述接目鏡的位置及方位而被校準至所述攝影機的觀點。因此,使用者可被通知所述視圖的清楚可見部分將會藉由所述攝影機來捕捉。
當攝影機的FOV 738覆蓋使用者的ROI時,所述使用者可啟動影像收集。當攝影機的FOV 738並未涵蓋使用者的ROI時,所述使用者可移動頭部以調整攝影機的FOV 738。在其中智慧型眼鏡700包含超過一攝影機715,並且攝影機的FOV 738無法涵蓋使用者的ROI的狀況中,使用者可選擇一不同攝影機以用於影像捕捉,並且在收集影像之前,所述系統可向所述使用者指出所選攝影機的視野的大小及位置。
圖8是描繪在根據某些實施例的一種用於匹配一所關注區域與在一智慧型眼鏡中的一攝影機的一視野之方法800中的步驟的流程圖(例如,智慧型眼鏡100-1、200、300、400、500、600及700、以及攝影機115、215、315、415、515、615及715)。除了所述攝影機,所述智慧型眼鏡亦可包含一眼睛追蹤感測器、一儲存指令的記憶體、以及一處理器,其被配置以執行所述指令以至少部分地執行在方法800中的一或多個步驟(例如,感測裝置128、228、328及428、記憶體120及520、以及處理器112及512)。一種和本揭露內容一致的方法可包含在方法800中的步驟中的至少一個、或是在方法800中的兩個或多個用不同順序、同時、準同時、或是在時間上重疊地來執行的步驟。
步驟802包含從一智慧型眼鏡的一使用者接收一指令,其指出在所述使用者的一視野之內的一所關注物體。在某些實施例中,步驟802包含追蹤所述使用者的一瞳孔的一位置、以及根據所述使用者的瞳孔的位置來識別所關注物體。在某些實施例中,步驟802包含接收針對於一智慧型眼鏡的一使用者的一眼睛位置,所述眼睛位置指出所關注物體在所述使用者的視野之內的一位置。在某些實施例中,步驟802包含根據所述使用者的兩個瞳孔的位置來判斷所述使用者的一注視方向。在某些實施例中,步驟802包含接收所述使用者的兩個瞳孔的位置,並且判斷一注視方向包括判斷所述使用者的兩個瞳孔的位置的一輻輳。在某些實施例中,步驟802可包含在所述智慧型眼鏡的所述接目鏡中顯示指出所述注視方向的兩條會聚線,其會聚在所述使用者的明顯的所關注物體上,其描繪給所述使用者針對於所述攝影機影像的新裁剪為何。在某些實施例中,步驟802包含判斷所述所關注區域具有所述第一向前看攝影機的視野中一以所述所關注物體為中心的區域。在某些實施例中,所述智慧型眼鏡包含一第二向前看攝影機,並且步驟802進一步包含當所述所關注區域與所述第一向前看攝影機的視野失準時,而從所述使用者接收一指令以啟動所述第二向前看攝影機。
步驟804包含比較以所述所關注物體為中心的一所關注區域與被安裝在所述智慧型眼鏡的一框架上的一第一向前看攝影機的一視野。
步驟806包含根據在所述所關注區域以及所述第一向前看攝影機的視野之間的相對位置,以經由一安裝在所述智慧型眼鏡裝置上的介面致動器來提供一回授給所述使用者。在某些實施例中,所述智慧型眼鏡包含一第二向前看攝影機,並且步驟806包含判斷所述所關注區域以及所述第二向前看攝影機的一視野的相對位置。在某些實施例中,所述智慧型眼鏡包含一揚聲器,並且步驟806包含提供一指令給所述使用者以在一給定方向上移動所述智慧型眼鏡。在某些實施例中,所述智慧型眼鏡包含一發光器,並且步驟806包含利用所述發光器來指出一方向以移動所述使用者的注視。
硬體概觀
圖9是描繪根據某些實施例的一範例的電腦系統900的方塊圖,圖1的頭戴式裝置100以及方法800可利用其來實施。在某些特點中,電腦系統900可利用硬體或是軟體及硬體的組合,而被實施在一專用伺服器中、或是整合到另一實體中、或是被分散橫跨多個實體。電腦系統900可包含一桌上型電腦、一膝上型電腦、一平板電腦、一平板手機、一智慧型手機、一功能型手機、一伺服器電腦、或者是其它。一伺服器電腦可位在遠端的一資料中心中、或是經本地儲存。
電腦系統900包含一匯流排908或是其它用於通訊資訊的通訊機構、以及和匯流排908耦接以用於處理資訊的一處理器902(例如,處理器112)。例如,所述電腦系統900可利用一或多個處理器902來實施。處理器902可以是一通用微處理器、一微控制器、一數位信號處理器(DSP)、一特殊應用積體電路(ASIC)、一現場可程式化閘陣列(FPGA)、一可程式化邏輯裝置(PLD)、一控制器、一狀態機、閘控邏輯、離散硬體構件、或是任何其它可執行資訊的計算或其它處理的適當實體。
除了硬體,電腦系統900亦可包含產生用於所論述的電腦程式的一執行環境的碼,例如構成處理器韌體、一協定堆疊、一資料庫管理系統、一作業系統、或是前述一或多個組合的碼,其被儲存在內含的一記憶體904(例如,記憶體120)中,例如一隨機存取記憶體(RAM)、一快閃記憶體、一唯讀記憶體(ROM)、一可程式化唯讀記憶體(PROM)、一可抹除PROM(EPROM)、暫存器、一硬碟、一隨身碟、一CD-ROM、一DVD、或是任何其它適當的儲存裝置,其和匯流排908耦接以用於儲存資訊及指令以藉由處理器902來執行。所述處理器902以及所述記憶體904可輔以特殊用途邏輯電路、或是被納入在特殊用途邏輯電路中。
所述指令可被儲存在所述記憶體904中,並且被實施在一或多個電腦程式產品中,例如被編碼在一電腦可讀取媒體上的一或多個模組的電腦程式指令,以用於藉由所述電腦系統900執行、或是控制所述電腦系統900的操作,並且根據任何具有此項技術中的技能者眾所週知的方法,其包含但不限於電腦語言,例如資料導向語言(例如,SQL、dBase)、系統語言(例如,C、Objective-C、C++、組合語言)、建築語言(例如,Java、.NET)、以及應用程式語言(例如,PHP、Ruby、Perl、Python)。指令亦可用例如陣列語言、切面導向的語言、組合語言、編輯語言、命令行介面語言、編譯語言、並行語言、波形括號語言、資料流程語言、資料結構語言、宣告式語言、深奧語言、擴展語言、第四代語言、函數式語言、互動模式語言、解譯語言、迭代語言、基於列表語言、小語言、基於邏輯語言、機器語言、巨集語言、元程式設計語言、多範式語言、數值分析、非基於英語語言、物件導向的基於類別語言、物件導向的基於原型的語言、越位規則的語言、程序式語言、反射式語言、基於規則語言、腳本語言、基於堆疊的語言、同步語言、語法處理語言、視覺化語言、wirth語言、以及基於xml語言的電腦語言來實施。記憶體904亦可在將藉由處理器902執行的指令的執行期間,被使用於儲存臨時變數或是其它中間資訊。
如同在此論述的電腦程式並不一定對應於一檔案系統中的一檔案。一程式可被儲存在一檔案的一部分中,所述檔案保有其它程式或資料(例如,一或多個腳本被儲存在一標記式語言文件中)、在專用於所論述的程式的單一檔案中、或是在多個協調檔案中(例如,儲存一或多個模組、子程式或是碼部分的檔案)。一電腦程式可被配置以在一電腦上或是在多個電腦上執行,所述多個電腦位在一位置、或是被分散在橫跨多個位置並且藉由一通訊網路互連。在此說明書中所述的程序及邏輯流程可藉由一或多個可程式化的處理器來執行,其執行一或多個電腦程式以藉由在輸入資料上運算並且產生輸出來執行功能。
電腦系統900進一步包含一例如磁碟片或光碟的資料儲存裝置906,其和匯流排908耦接以用於儲存資訊及指令。電腦系統900可經由輸入/輸出模組910來耦接至各種裝置。輸入/輸出模組910可以是任意的輸入/輸出模組。範例的輸入/輸出模組910包含例如USB埠的資料埠。所述輸入/輸出模組910被配置以連接至一通訊模組912。範例的通訊模組912包含連網介面卡,例如乙太網路卡及數據機。在某些特點中,輸入/輸出模組910被配置以連接至複數個裝置,例如一輸入裝置914及/或一輸出裝置916。範例的輸入裝置914包含一鍵盤以及一指向裝置(例如,一滑鼠或是一軌跡球),一消費者可藉由其來提供輸入至所述電腦系統900。其它種類的輸入裝置914也可被利用以提供和一消費者的互動,例如一觸覺輸入裝置、視覺輸入裝置、音訊輸入裝置、或是人機介面裝置。例如,被提供給所述消費者的回授可以是任意形式的感覺回授,例如視覺回授、聽覺回授、或是觸覺回授;並且來自所述消費者的輸入可用任意形式來接收,其包含聲波、語音、觸覺、或是腦波輸入。範例的輸出裝置916包含顯示裝置,例如LCD(液晶顯示器)螢幕,以用於顯示資訊給所述消費者。
根據本揭露內容之一特點,可穿戴裝置100可至少部分利用一電腦系統900,響應於處理器902執行內含在記憶體904中的一或多個序列的一或多個指令來實施。此種指令可從例如資料儲存裝置906的另一機器可讀取媒體被讀入記憶體904。主要內含在記憶體904中的指令序列的執行使得處理器902執行在此所述的程序步驟。在一多重處理配置中的一或多個處理器亦可被採用以執行主要內含在記憶體904中的指令序列。在替代特點中,硬佈線電路可被用來取代或是結合軟體指令,以實施本揭露內容的各種特點。因此,本揭露內容的特點並不限於硬體電路及軟體的任何特定的組合。
在此說明書中所述標的之各種特點可被實施在一計算系統中,其包含一例如資料伺服器的後端構件、或是包含一例如應用程式伺服器的中介軟體構件、或是包含一前端構件,例如具有一圖形消費者介面或一網路瀏覽器的一客戶電腦,消費者可透過其來和在此說明書中所述標的之實施方式互動、或是一或多個此種後端、中介軟體、或是前端構件的任意組合。所述系統的構件可藉由任意形式或媒體的數位資料通訊(例如通訊網路)來互連。所述通訊網路例如可包含LAN、WAN、網際網路、與類似者中的任一或多個。再者,所述通訊網路(例如,網路150)可包含但不限於例如以下的網路拓樸中的任一或多個,包含匯流排網路、星狀網路、環狀網路、網狀網路、星狀匯流排網路、樹狀或階層式網路、或類似者。所述通訊模組例如可以是數據機或乙太網路卡。
電腦系統900可包含客戶及伺服器。客戶及伺服器大致是在彼此的遠端,並且通常透過一通訊網路來互動。客戶及伺服器的關係藉由電腦程式在所述個別電腦上執行,因而彼此具有一客戶-伺服器關係而發生。電腦系統900例如且非限制地可以是桌上型電腦、膝上型電腦、或是平板電腦。電腦系統900亦可內嵌在另一裝置中,例如且非限制的是行動電話、PDA、行動音訊播放器、全球定位系統(GPS)接收器、電玩遊戲主機、及/或電視機上盒。
如同在此所用的術語“機器可讀取儲存媒體”或是“電腦可讀取媒體”是指參與提供指令至處理器902以用於執行的任一或多個媒體。此種媒體可具有許多形式,其包含但不限於非揮發性媒體、揮發性媒體、以及傳送媒體。非揮發性媒體例如包含光碟或是磁碟片,例如資料儲存裝置906。揮發性媒體包含動態記憶體,例如是記憶體904。傳送媒體包含同軸電纜、銅導線、以及光纖,包含形成匯流排908的導線。常見的機器可讀取媒體的形式例如包含軟碟片、軟性磁碟片、硬碟、磁帶、任何其它磁性媒體、CD-ROM、DVD、任何其它光學媒體、打孔卡、紙帶、任何其它具有孔洞圖案的實體媒體、RAM、PROM、EPROM、快閃EPROM、任何其它記憶體晶片或卡匣、或是任何其它電腦可讀取的媒體。所述機器可讀取儲存媒體可以是機器可讀取儲存裝置、機器可讀取儲存基板、記憶體裝置、影響機器可讀取的傳播信號的物質組成物、或是其中的一或多種組合。
為了描繪硬體及軟體的可交換性,例如各種舉例說明的區塊、模組、構件、方法、操作、指令、以及演算法的項目已經大致就其功能方面來敘述。此種功能是否被實施為硬體、軟體、或是硬體及軟體的組合依據在整體系統上所施加的特定應用及設計限制而定。本領域技術人員可對於每一個特定應用,用不同方式來實施所述功能。
如同在此所用的,在一系列項目後的措辭“中的至少一個”(其具有所述術語“及”或是“或”來分開所述項目的任一個)是整體修飾所述表列,而不是所述表列的每一個構件(例如,每一個項目)。所述措辭“中的至少一個”並不需要至少一項目的選擇;而是,所述措辭容許表示包含所述項目的任一個的至少一個、及/或所述項目的任意組合的至少一個、及/或所述項目的每一個的至少一個。例如,所述措辭“A、B及C中的至少一個”或是“A、B或C中的至少一個”分別是指只有A、只有B、或是只有C;A、B及C的任意組合;及/或A、B及C的每一個中的至少一個。
所述字詞“範例的”在此是被使用來表示“作為例子、實例、或是例證”。任何在此被敘述為“範例的”實施例並不一定被解釋為相對其它實施例較佳或有利的。例如一特點、所述特點、另一特點、某些特點、一或多個特點、一實施方式、所述實施方式、另一實施方式、某些實施方式、一或多個實施方式、一實施例、所述實施例、另一實施例、某些實施例、一或多個實施例、一配置、所述配置、另一配置、某些配置、一或多個配置、標的技術、所述揭露內容、本揭露內容、以及其之其它變化與類似者的措辭是為了便利性而已,因而並不意指有關此種措辭的揭露內容對於所述標的技術而言是重要的、或是此種揭露內容適用所述標的技術的所有配置。有關此種措辭的揭露內容可適用所有配置、或是一或多個配置。有關此種措辭的揭露內容可適用一或多個例子。例如一特點或某些特點的措辭可指一或多個特點並且反之亦然,而且此類似地適用於其它先前措辭。
除非有明確地陳述,否則以單數對於一元件的參照並不欲表示“一個而且只有一個”,而是表示“一或多個”。所述術語“某些”是指一或多個。加底線及/或斜體的標題及子標題只是為了便利而被使用,並非限制所述標的技術,並且不是指與所述標的技術的說明解釋有關。例如第一及第二與類似者的關係術語可被用來區別一實體或動作與另一實體或動作,而無一定需要或暗指在此種實體或動作之間的任何實際的此種關係或順序。在此整個揭露內容所述的各種配置的元件的所有已知或是之後為所述技術中具有通常技能者已知的結構及功能的等同物都明確地被納入在此作為參考,並且打算由所述標的技術所涵蓋。再者,在此揭露的都並不打算是貢獻給社會大眾,不論此種揭露內容是否明確地在以上說明中闡述。請求項元件都不欲根據第35號美國法典第112條第六段的規定來解釋,除非所述元件是明確利用所述措辭“用於…的手段”來闡述、或是在一方法請求項的情形中,所述元件利用所述措辭“用於…的步驟”來闡述。
儘管此說明書包含許多細節,但是這些不應該被解釋為在可被描述範疇上的限制,但是作為所述標的之特定實施方式的說明。在此說明書中,在個別實施例的上下文中描述的某些特點亦可組合地被實施在單一實施例中。相反地,在單一實施例的上下文中描述的各種特點亦可在多個實施例中個別地或用任何適當次組合來實施。再者,儘管特點可能在以上被描述為以某種組合來作動,並且甚至最初被敘述為此,但是來自一所述組合的一或多個特點在某些情形中可從所述組合刪除,因而所述組合可針對於一次組合、或是一次組合的變化。
此說明書之標的已經就特定特點來敘述,但是其它特點可被實施並且是在以下請求項的範疇之內。例如,儘管在圖式中的操作是以一特定順序來描繪,但此不應該被理解為需要此種操作以所示的特定順序或是按照順序來執行、或是所有描繪的操作都被執行,以達成所期望結果。在所述請求項中闡述的動作可用一不同順序來執行,並且仍然達成所期望的結果。舉例而言,在所附圖式中描繪的方法並不一定需要所示的特定順序或是依序順序,以達成所期望結果。在某些情況中,多工作業以及平行處理可能是有利的。再者,在上述特點中的各種系統構件的分開不應該被理解為在所有特點中都需要此種分開,因而應瞭解的是所述程式構件及系統一般可一起被整合在單一軟體產品中、或是被封裝成多個軟體產品。
所述名稱、背景、圖式簡單說明、摘要以及圖式藉此被納入本揭露內容,並且被提供作為本揭露內容的舉例說明的例子,而非限制性的說明。所主張的是理解到它們將不會被用來限制所述請求項的範疇或意義。此外,在所述詳細說明中,可看出的是所述說明提供舉例說明例子,並且所述各種特點在各種實施方式中為了使本揭露內容流暢之目的而被分組在一起。揭露內容的方法並不欲被解釋為反映所述標的需要比明確在每一個請求項中所闡述的更多特點的意圖。而是,如同所述請求項反映的,發明標的是在於少於單一所揭露的配置或操作的所有特點。所述請求項藉此納入所述詳細說明中,其中每一個請求項獨立為一個別敘述的標的。
所述請求項並不欲受限於在此所述特點,而是欲被授予和所述語言的請求項一致的完整範疇,並且欲涵蓋所有合法等同物。然而,並無請求項欲包含無法滿足可適用專利法規的要求標的,它們也不應該以此種方式被解釋。
10:架構
100:可穿戴裝置
100-1:智慧型眼鏡
100-2:智慧型手錶
101:使用者
103:資料組
103-1:第一資料組
103-2:資料組
103-3:資料組
105:框架
107:接目鏡
110:行動裝置
112:處理器
115:攝影機
118:通訊模組
120:記憶體電路
121:感測器
125:觸覺致動器
127:揚聲器
128:感測裝置
129:介面裝置
130:遠端伺服器
150:網路
152:資料庫
200:智慧型眼鏡
207:接目鏡
210:場景
215:向前看攝影機
215-1:第一向前看攝影機
215-2:第二向前看攝影機
227:麥克風
228:眼睛追蹤機構
229A:注視向量
229B:注視向量
238:所關注區域(ROI)
300:智慧型眼鏡
307:接目鏡
310:場景
315:向前看攝影機
315-1:第一向前看攝影機
315-2:第二向前看攝影機
328:眼睛追蹤感測器
329:注視向量
338:視野(FOV)
350:視覺指示器
400:智慧型眼鏡
407:接目鏡
410:干擾
412:處理器
415:向前看攝影機
415-1:第一向前看攝影機
415-2:第二向前看攝影機
427:揚聲器
428:眼睛追蹤感測器
429:注視向量
438:視野(FOV)
500:智慧型眼鏡
501A:透明狀態
501B:遮光狀態
505:框架
507:接目鏡
512:處理器
515:攝影機
520:記憶體
600:智慧型眼鏡
601:透明狀態
601A:部分垂直透明狀態
601B:部分水平的透明狀態
602:遮光狀態
602A:部分垂直遮光狀態
602B:部分水平遮光狀態
607:接目鏡
615:攝影機
615-1:向前看攝影機
615-2:向前看攝影機
628:眼睛追蹤感測器
700:智慧型眼鏡
701A:較透明部分
701B:較暗透射狀態
705:框架
707:接目鏡
710:場景
715:攝影機
738:視野(FOV)
748:攝影機視界
800:方法
802:步驟
804:步驟
806:步驟
900:電腦系統
902:處理器
904:記憶體
906:資料儲存裝置
908:匯流排
910:輸入/輸出模組
912:通訊模組
914:輸入裝置
916:輸出裝置
[圖1]描繪根據某些實施例的一架構,其包含一或多個耦接至彼此、耦接至一行動裝置、一遠端伺服器以及一資料庫的可穿戴裝置。
[圖2A]至[圖2C]描繪根據某些實施例的由穿戴一智慧型眼鏡的一使用者所觀看的一場景。
[圖3]描繪根據某些實施例的在一智慧型眼鏡的接目鏡中的一視覺指示器,以幫助使用者根據一所關注區域來調整一攝影機視野以用於影像捕捉。
[圖4]描繪根據某些實施例的在一智慧型眼鏡中的向前看攝影機、以及在所述向前看攝影機中之一的一視野上的干擾。
[圖5]描繪根據某些實施例的一具有眼鏡遮光功能的智慧型眼鏡。
[圖6A]至[圖6B]描繪根據某些實施例的橫跨所述接目鏡的透明狀態及遮光狀態的一空間調變的例子。
[圖7A]至[圖7B]描繪根據某些實施例的一智慧型眼鏡,其具有兩個在單一透射狀態中面對一場景的接目鏡。
[圖8]是描繪在根據某些實施例的一種用於匹配一所關注區域與在一智慧型眼鏡中的一攝影機的一視野之方法中的步驟的流程圖。
[圖9]是描繪根據某些實施例的一範例電腦系統的方塊圖,而一頭戴式裝置以及用於其之利用的方法可利用所述電腦系統來加以實施。
在圖式中,除非另有明確陳述,否則具有相同或類似的元件符號的元件共用相同或類似特點。
10:架構
100-1:智慧型眼鏡
100-2:智慧型手錶
101:使用者
103-1:第一資料組
103-2:資料組
103-3:資料組
105:框架
107:接目鏡
110:行動裝置
112:處理器
115:攝影機
118:通訊模組
120:記憶體電路
121:感測器
125:觸覺致動器
127:揚聲器
128:感測裝置
129:介面裝置
130:遠端伺服器
150:網路
152:資料庫
Claims (20)
- 一種裝置,其包括: 框架,其包含接目鏡以提供前影像給使用者; 第一向前看攝影機,其被安裝在所述框架上; 處理器,其被配置以識別在所述前影像之內的所關注區域;以及 介面裝置,其用以向所述使用者指出所述第一向前看攝影機的視野與所述所關注區域失準。
- 如請求項1之裝置,其進一步包括面對所述使用者以用於追蹤所述使用者的瞳孔位置的感測裝置,其中所述處理器根據所述使用者的所述瞳孔位置來識別所述所關注區域。
- 如請求項1之裝置,其中所述處理器根據所述使用者在所述視野之內的注視方向來識別所述所關注區域。
- 如請求項1之裝置,其進一步包括儲存指令的記憶體,當所述指令藉由所述處理器執行時,使得所述裝置找出注視向量,所述注視向量指出在所述使用者的視野之內的所述所關注區域的中心。
- 如請求項1之裝置,其中所述介面裝置包含音訊裝置以提供信號給所述使用者,以調整頭部姿勢並且對準所述第一向前看攝影機的所述視野與所述所關注區域。
- 如請求項1之裝置,其中所述介面裝置包括振動構件,所述振動構件被配置以向所述使用者指出在所要方向上輕推頭部位置,以對準所述第一向前看攝影機的所述視野與所述所關注區域。
- 如請求項1之裝置,其中所述接目鏡包含液晶,所述液晶被配置以在被啟動時遮蔽所述接目鏡的垂直部分、或是所述接目鏡的水平部分,以誘導所述使用者分別水平或垂直地移動頭部位置,以將所述第一向前看攝影機的所述視野定中心在所述所關注區域。
- 如請求項1之裝置,其進一步包括致動器,所述致動器被配置以修改所述接目鏡的視野中對應於所述所關注區域的部分的色彩。
- 如請求項1之裝置,其進一步包括麥克風以接收來自所述使用者的語音命令,來識別在所述視野之內的所關注物體。
- 如請求項1之裝置,其進一步包括第二向前看攝影機,其中所述介面裝置被配置以提供選項給所述使用者,以在所述第一向前看攝影機的所述視野與所述所關注區域失準時,啟動所述第二向前看攝影機。
- 一種電腦實施方法,其包括: 從智慧型眼鏡的使用者接收在由所述使用者所觀看的前影像之內的所關注物體的指示; 比較以所述所關注物體為中心的所關注區域與被安裝在所述智慧型眼鏡的框架上的第一向前看攝影機的視野;以及 根據在所述所關注區域以及所述第一向前看攝影機的所述視野之間的相對位置,以經由安裝在所述智慧型眼鏡上的介面致動器來提供回授給所述使用者,所述回授打算使得所述使用者調整相對於所述所關注物體的頭部位置。
- 如請求項11之電腦實施方法,其中接收在所述使用者的視野之內的所述所關注物體的所述指示包含追蹤所述使用者的瞳孔的位置、以及根據所述使用者的所述瞳孔的所述位置來識別所述所關注物體。
- 如請求項11之電腦實施方法,其中接收在所述使用者的視野之內的所述所關注物體的所述指示包含接收針對於所述智慧型眼鏡的所述使用者的眼睛位置,所述眼睛位置指出所述所關注物體在所述使用者的所述視野之內的位置。
- 如請求項11之電腦實施方法,其中接收在所述使用者的視野之內的所述所關注物體的所述指示包含根據所述使用者的兩個瞳孔的位置來判斷所述使用者的注視方向。
- 如請求項11之電腦實施方法,其中接收在所述使用者的視野之內的所述所關注物體的所述指示包含接收所述使用者的兩個瞳孔的位置,並且判斷注視方向包括判斷所述使用者的所述兩個瞳孔的所述位置的輻輳。
- 如請求項11之電腦實施方法,其進一步包括判斷所述所關注區域具有所述第一向前看攝影機的所述視野中以所述所關注物體為中心的區域。
- 如請求項11之電腦實施方法,其中所述智慧型眼鏡包含第二向前看攝影機,其進一步包括當所述所關注區域與所述第一向前看攝影機的所述視野失準時,從所述使用者接收指令以啟動所述第二向前看攝影機。
- 如請求項11之電腦實施方法,其中所述智慧型眼鏡包含第二向前看攝影機,並且其中提供所述回授給所述使用者包括判斷所述所關注區域以及所述第二向前看攝影機的視野的相對位置。
- 如請求項11之電腦實施方法,其中所述智慧型眼鏡包含揚聲器,並且提供所述回授給所述使用者包括提供指令給所述使用者以在給定方向上移動所述智慧型眼鏡。
- 如請求項11之電腦實施方法,其中所述智慧型眼鏡包含發光器,並且提供所述回授給所述使用者包括利用所述發光器來指出方向以移動所述使用者的注視。
Applications Claiming Priority (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202163227231P | 2021-07-29 | 2021-07-29 | |
US202163227238P | 2021-07-29 | 2021-07-29 | |
US202163227240P | 2021-07-29 | 2021-07-29 | |
US63/227,231 | 2021-07-29 | ||
US63/227,240 | 2021-07-29 | ||
US63/227,238 | 2021-07-29 | ||
US17/859,808 | 2022-07-07 | ||
US17/859,808 US20230032467A1 (en) | 2021-07-29 | 2022-07-07 | User interface to select field of view of a camera in a smart glass |
Publications (1)
Publication Number | Publication Date |
---|---|
TW202319888A true TW202319888A (zh) | 2023-05-16 |
Family
ID=85038251
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW111128169A TW202319888A (zh) | 2021-07-29 | 2022-07-27 | 用以選擇在智慧型眼鏡中的攝影機的視野之使用者介面 |
TW111128167A TW202324065A (zh) | 2021-07-29 | 2022-07-27 | 用以選擇在智慧型眼鏡中的攝影機的視野之使用者介面 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW111128167A TW202324065A (zh) | 2021-07-29 | 2022-07-27 | 用以選擇在智慧型眼鏡中的攝影機的視野之使用者介面 |
Country Status (4)
Country | Link |
---|---|
US (2) | US20230031871A1 (zh) |
EP (2) | EP4377769A1 (zh) |
CN (1) | CN117716325A (zh) |
TW (2) | TW202319888A (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11902656B2 (en) * | 2022-06-29 | 2024-02-13 | Western Digital Technologies, Inc. | Audio sensors for controlling surveillance video data capture |
Family Cites Families (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3870109B2 (ja) * | 2002-03-08 | 2007-01-17 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 画像表示装置、画像表示方法、及び画像表示プログラム |
US8446509B2 (en) * | 2006-08-09 | 2013-05-21 | Tenebraex Corporation | Methods of creating a virtual window |
US20120242698A1 (en) * | 2010-02-28 | 2012-09-27 | Osterhout Group, Inc. | See-through near-eye display glasses with a multi-segment processor-controlled optical layer |
WO2012046156A1 (en) * | 2010-10-08 | 2012-04-12 | Koninklijke Philips Electronics N.V. | Goggles, system and method for providing feedback |
US9069166B2 (en) * | 2012-02-29 | 2015-06-30 | Recon Instruments Inc. | Gaze detecting heads-up display systems |
US8988465B2 (en) * | 2012-03-30 | 2015-03-24 | Ford Global Technologies, Llc | Physical-virtual hybrid representation |
KR102068604B1 (ko) * | 2012-08-28 | 2020-01-22 | 삼성전자 주식회사 | 휴대단말기의 문자 인식장치 및 방법 |
US9575653B2 (en) * | 2013-01-15 | 2017-02-21 | Blackberry Limited | Enhanced display of interactive elements in a browser |
US20140223647A1 (en) * | 2013-02-12 | 2014-08-14 | Rodney Wayne Long | Goggles for Use in Water |
US9965062B2 (en) * | 2013-06-06 | 2018-05-08 | Microsoft Technology Licensing, Llc | Visual enhancements based on eye tracking |
US9086286B2 (en) * | 2013-07-21 | 2015-07-21 | Rodney Wayne Long | Goggles for use in water |
US9179061B1 (en) * | 2013-12-11 | 2015-11-03 | A9.Com, Inc. | Assisted text input for computing devices |
US9594247B2 (en) * | 2013-12-19 | 2017-03-14 | Nvidia Corporation | System, method, and computer program product for a pinlight see-through near-eye display |
US10424103B2 (en) * | 2014-04-29 | 2019-09-24 | Microsoft Technology Licensing, Llc | Display device viewer gaze attraction |
US10012506B1 (en) * | 2014-06-01 | 2018-07-03 | DNP Technology | Navigation guidance system and method of use |
US20160080874A1 (en) * | 2014-09-16 | 2016-03-17 | Scott Fullam | Gaze-based audio direction |
KR101577359B1 (ko) * | 2015-03-16 | 2015-12-14 | 박준호 | 웨어러블 디바이스 |
US10113877B1 (en) * | 2015-09-11 | 2018-10-30 | Philip Raymond Schaefer | System and method for providing directional information |
US10458812B2 (en) * | 2015-10-30 | 2019-10-29 | Invensense, Inc. | Sensor output configuration |
US10667981B2 (en) * | 2016-02-29 | 2020-06-02 | Mentor Acquisition One, Llc | Reading assistance system for visually impaired |
US10591731B2 (en) * | 2016-12-06 | 2020-03-17 | Google Llc | Ocular video stabilization |
US10948993B2 (en) * | 2018-06-07 | 2021-03-16 | Facebook, Inc. | Picture-taking within virtual reality |
US10943115B2 (en) * | 2018-07-24 | 2021-03-09 | Apical Ltd. | Processing image data to perform object detection |
US20210081047A1 (en) * | 2019-09-13 | 2021-03-18 | Apple Inc. | Head-Mounted Display With Haptic Output |
US11086476B2 (en) * | 2019-10-23 | 2021-08-10 | Facebook Technologies, Llc | 3D interactions with web content |
US11175730B2 (en) * | 2019-12-06 | 2021-11-16 | Facebook Technologies, Llc | Posture-based virtual space configurations |
WO2021195266A1 (en) * | 2020-03-24 | 2021-09-30 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality |
US11128636B1 (en) * | 2020-05-13 | 2021-09-21 | Science House LLC | Systems, methods, and apparatus for enhanced headsets |
US11520399B2 (en) * | 2020-05-26 | 2022-12-06 | Snap Inc. | Interactive augmented reality experiences using positional tracking |
US20210390882A1 (en) * | 2020-06-16 | 2021-12-16 | Venu Iyengar | Blind assist eyewear with geometric hazard detection |
US11256336B2 (en) * | 2020-06-29 | 2022-02-22 | Facebook Technologies, Llc | Integration of artificial reality interaction modes |
US11176755B1 (en) * | 2020-08-31 | 2021-11-16 | Facebook Technologies, Llc | Artificial reality augments and surfaces |
US11178376B1 (en) * | 2020-09-04 | 2021-11-16 | Facebook Technologies, Llc | Metering for display modes in artificial reality |
US11546505B2 (en) * | 2020-09-28 | 2023-01-03 | Snap Inc. | Touchless photo capture in response to detected hand gestures |
US11113893B1 (en) * | 2020-11-17 | 2021-09-07 | Facebook Technologies, Llc | Artificial reality environment with glints displayed by an extra reality device |
US11531402B1 (en) * | 2021-02-25 | 2022-12-20 | Snap Inc. | Bimanual gestures for controlling virtual and graphical elements |
US20230316698A1 (en) * | 2022-03-30 | 2023-10-05 | Motorola Mobility Llc | Eye gaze detection based learning of subjective interest |
-
2022
- 2022-06-02 US US17/831,305 patent/US20230031871A1/en active Pending
- 2022-07-07 US US17/859,808 patent/US20230032467A1/en active Pending
- 2022-07-27 TW TW111128169A patent/TW202319888A/zh unknown
- 2022-07-27 TW TW111128167A patent/TW202324065A/zh unknown
- 2022-07-29 EP EP22757769.9A patent/EP4377769A1/en active Pending
- 2022-07-29 EP EP22769424.7A patent/EP4377771A1/en active Pending
- 2022-07-29 CN CN202280052580.1A patent/CN117716325A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230031871A1 (en) | 2023-02-02 |
US20230032467A1 (en) | 2023-02-02 |
CN117716325A (zh) | 2024-03-15 |
TW202324065A (zh) | 2023-06-16 |
EP4377769A1 (en) | 2024-06-05 |
EP4377771A1 (en) | 2024-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102485127B1 (ko) | 카메라의 방향에 따라 프리뷰 이미지의 위치를 변경하기 위한 전자 장치 및 방법 | |
US11706520B2 (en) | Under-display camera and sensor control | |
US20180103194A1 (en) | Image capture systems, devices, and methods that autofocus based on eye-tracking | |
US10210664B1 (en) | Capture and apply light information for augmented reality | |
CN105981368B (zh) | 在成像装置中的照片构图和位置引导 | |
US9710132B2 (en) | Image display apparatus and image display method | |
TWI461960B (zh) | 一種通信方法和通信系統 | |
CN111837379B (zh) | 捕获子区及通知是否被相机移动所更改的方法和系统 | |
US9361718B2 (en) | Interactive screen viewing | |
US9798464B2 (en) | Computing device | |
JP2019092170A (ja) | 3dプレノプティックビデオ画像を作成するためのシステムおよび方法 | |
AU2012302455B2 (en) | Schedule managing method and apparatus using optical character reader | |
WO2018186031A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
TW202319888A (zh) | 用以選擇在智慧型眼鏡中的攝影機的視野之使用者介面 | |
US9449427B1 (en) | Intensity modeling for rendering realistic images | |
US20230005224A1 (en) | Presenting real world view during virtual reality presentation | |
WO2023009853A1 (en) | User interface to select field of view of a camera in smart glasses | |
CN117769694A (zh) | 用于选择智能眼镜中的摄像头的视场的用户接口 | |
US20180205928A1 (en) | Multi-camera stereoscopic dynamic imaging systems and methods of capturing stereoscopic dynamic images | |
WO2023009806A1 (en) | User interface to select field of view of a camera in smart glasses | |
TW202316848A (zh) | 使用系統感測器資料之攝影機控制 | |
US20180205927A1 (en) | Dual-camera stereoscopic dynamic imaging systems and methods of capturing stereoscopic dynamic images |