JP7405800B2 - 眼画像の収集、選択および組み合わせ - Google Patents
眼画像の収集、選択および組み合わせ Download PDFInfo
- Publication number
- JP7405800B2 JP7405800B2 JP2021130586A JP2021130586A JP7405800B2 JP 7405800 B2 JP7405800 B2 JP 7405800B2 JP 2021130586 A JP2021130586 A JP 2021130586A JP 2021130586 A JP2021130586 A JP 2021130586A JP 7405800 B2 JP7405800 B2 JP 7405800B2
- Authority
- JP
- Japan
- Prior art keywords
- eye
- image
- iris code
- images
- eye images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 187
- 238000013442 quality metrics Methods 0.000 claims description 120
- 230000004927 fusion Effects 0.000 claims description 66
- 230000000284 resting effect Effects 0.000 claims description 8
- 230000000694 effects Effects 0.000 claims description 5
- 210000001508 eye Anatomy 0.000 description 1178
- 230000036544 posture Effects 0.000 description 127
- 238000012545 processing Methods 0.000 description 96
- 230000003287 optical effect Effects 0.000 description 31
- 238000003384 imaging method Methods 0.000 description 29
- 210000001747 pupil Anatomy 0.000 description 29
- 210000000695 crystalline len Anatomy 0.000 description 23
- 230000008569 process Effects 0.000 description 23
- 238000000605 extraction Methods 0.000 description 21
- 238000013475 authorization Methods 0.000 description 15
- 210000003128 head Anatomy 0.000 description 14
- 238000005259 measurement Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 230000007423 decrease Effects 0.000 description 10
- 238000004458 analytical method Methods 0.000 description 8
- 230000033001 locomotion Effects 0.000 description 8
- 239000000463 material Substances 0.000 description 8
- 230000004308 accommodation Effects 0.000 description 7
- 230000003190 augmentative effect Effects 0.000 description 7
- 230000004397 blinking Effects 0.000 description 7
- 230000003139 buffering effect Effects 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 7
- 239000000835 fiber Substances 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 7
- 241000256837 Apidae Species 0.000 description 6
- 230000002350 accommodative effect Effects 0.000 description 6
- 210000000744 eyelid Anatomy 0.000 description 6
- 208000004350 Strabismus Diseases 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 210000003811 finger Anatomy 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000004313 glare Effects 0.000 description 5
- 230000000670 limiting effect Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 241000255777 Lepidoptera Species 0.000 description 4
- 210000004556 brain Anatomy 0.000 description 4
- 230000000193 eyeblink Effects 0.000 description 4
- 210000000720 eyelash Anatomy 0.000 description 4
- 238000007667 floating Methods 0.000 description 4
- 239000013307 optical fiber Substances 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 239000007787 solid Substances 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000004424 eye movement Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 210000004247 hand Anatomy 0.000 description 3
- 238000002347 injection Methods 0.000 description 3
- 239000007924 injection Substances 0.000 description 3
- 230000002829 reductive effect Effects 0.000 description 3
- 210000001525 retina Anatomy 0.000 description 3
- 210000003786 sclera Anatomy 0.000 description 3
- 208000019901 Anxiety disease Diseases 0.000 description 2
- 230000036506 anxiety Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000005253 cladding Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 238000007500 overflow downdraw method Methods 0.000 description 2
- 230000037361 pathway Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000011514 reflex Effects 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 125000006850 spacer group Chemical group 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 206010019233 Headaches Diseases 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 239000004983 Polymer Dispersed Liquid Crystal Substances 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000001627 detrimental effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 244000144992 flock Species 0.000 description 1
- 231100000869 headache Toxicity 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003565 oculomotor Effects 0.000 description 1
- 230000001144 postural effect Effects 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 230000002087 whitening effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/11—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
- A61B3/112—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils for measuring diameter of pupils
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/14—Arrangements specially adapted for eye photography
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
- G06F13/38—Information transfer, e.g. on bus
- G06F13/40—Bus structure
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/235—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/98—Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
- G06V10/993—Evaluation of the quality of the acquired pattern
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/50—Maintenance of biometric data or enrolment thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/349—Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Optics & Photonics (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- User Interface Of Digital Computer (AREA)
- Eye Examination Apparatus (AREA)
- Image Input (AREA)
- Mechanical Optical Scanning Systems (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Collating Specific Patterns (AREA)
Description
本願は、2016年1月19日に出願され、“EYE IMAGE COLLECTION”と題された米国仮出願第62/280,456号、2016年1月19日に出願され、“EYE IMAGE COMBINATION”と題された米国仮出願第62/280,515号、および2016年1月19日に出願され、“EYE IMAGE SET SELECTION”と題された米国仮出願第62/280,437号に対する35U.S.C.§119(e)のもとでの優先権の利益を主張するものであり、上記出願の各々の内容は、その全体が参照により本明細書中に援用される。
本発明は、例えば、以下を提供する。
(項目1)
ウェアラブルディスプレイシステムであって、
前記ウェアラブルディスプレイシステムの装着者から眼画像を捕捉するように構成される画像捕捉デバイスと、
前記眼画像を記憶するように構成される非一過性メモリと、
複数の眼姿勢領域を備えるディスプレイと、
前記非一過性メモリおよび前記ディスプレイと通信するプロセッサであって、前記プロセッサは、
アバタの表示を前記ディスプレイ上の前記複数の眼姿勢領域の第1の眼姿勢領域内に生じさせることと、
眼の第1の眼画像を前記画像捕捉デバイスから得ることであって、前記第1の眼画像は、前記第1の眼姿勢領域と関連付けられている、ことと、
前記第1の眼画像の第1の画質メトリックが第1の画質閾値を超過していることを判定することと、
前記アバタの表示を前記ディスプレイ上の前記複数の眼領域の第2の眼姿勢領域内に生じさせることと、
前記眼の第2の眼画像を前記画像捕捉デバイスから得ることであって、前記第2の眼画像は、第2の眼姿勢領域と関連付けられている、ことと、
前記第2の眼画像の第1の画質メトリックが第2の画質閾値を超過していることを判定することと、
少なくとも部分的に、前記第1の眼画像および前記第2の眼画像に基づいて、前記眼に関する虹彩コードを生成することと、
前記ディスプレイ上における画像の後続表示または前記ウェアラブルディスプレイシステムによるバイオメトリックアプリケーションのために前記生成された虹彩コードを利用することと
を行うようにプログラムされる、プロセッサと
を備える、ウェアラブルディスプレイシステム。
(項目2)
前記プロセッサはさらに、前記ディスプレイ上の前記複数の眼領域内における前記アバタに関する表示モードを受信するようにプログラムされる、項目1に記載のウェアラブルディスプレイシステム。
(項目3)
前記プロセッサはさらに、前記ディスプレイ上の前記第1の眼領域内における前記アバタに関する表示モードを受信するようにプログラムされる、項目1に記載のウェアラブルディスプレイシステム。
(項目4)
前記表示モードは、ランダムモード、順次モード、飛行モード、明滅モード、変動モード、ストーリーモード、またはそれらの組み合わせのうちの少なくとも1つを備える、項目2-3のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目5)
前記第1の画質閾値は、前記第1の眼姿勢領域に関する画質レベルに対応し、
前記第2の画質閾値は、前記第2の眼姿勢領域に関する画質レベルに対応する、
項目1に記載のウェアラブルディスプレイシステム。
(項目6)
前記第1の画質閾値は、前記第1の眼画像に関する画質レベルに対応し、
前記第2の画質閾値は、前記第2の眼画像に関する画質レベルに対応する、
項目1に記載のウェアラブルディスプレイシステム。
(項目7)
前記プロセッサはさらに、
前記アバタの表示を前記ディスプレイ上の前記複数の眼領域の第3の眼姿勢領域内に生じさせることと、
前記眼の第3の眼画像を前記画像捕捉デバイスから得ることであって、前記第3の眼画像は、第3の眼姿勢領域と関連付けられている、ことと、
前記第3の眼画像の第3の画質メトリックが第3の画質閾値を超過しないことを判定することと
を行うようにプログラムされる、項目1に記載のウェアラブルディスプレイシステム。
(項目8)
前記プロセッサはさらに、
前記眼の第4の眼画像を前記画像捕捉デバイスから得ることであって、前記第4の眼画像は、前記第3の眼姿勢領域と関連付けられている、ことと、
前記第4の眼画像の第4の画質メトリックが第3の画質閾値を超過することを判定することと
を行うようにプログラムされる、項目7に記載のウェアラブルディスプレイシステム。
(項目9)
前記眼に関する虹彩コードを判定するために、前記プロセッサは、少なくとも部分的に、前記第1の眼画像、前記第2の眼画像、および前記第4の眼画像に基づいて、前記虹彩コードを判定するようにプログラムされる、項目8に記載のウェアラブルディスプレイシステム。
(項目10)
前記プロセッサはさらに、前記第3の眼画像および前記第4の眼画像を組み合わせ、前記第3の眼姿勢領域に関するハイブリッド眼画像を得るようにプログラムされ、
前記眼に関する虹彩コードを判定するために、前記プロセッサは、少なくとも部分的に、前記第1の眼画像、前記第2の眼画像、および前記ハイブリッド眼画像に基づいて、前記虹彩コードを判定するようにプログラムされる、
項目8に記載のウェアラブルディスプレイシステム。
(項目11)
頭部搭載型ディスプレイシステムであって、
眼画像を捕捉するように構成される画像捕捉デバイスと、
複数の眼姿勢領域を備えるディスプレイと、
前記画像捕捉デバイスおよび前記ディスプレイと通信するプロセッサであって、前記プロセッサは、
第1のグラフィックの表示を前記ディスプレイ上の前記複数の眼姿勢領域の第1の眼姿勢領域内に生じさせることと、
前記第1の眼姿勢領域内の第1の眼画像を前記画像捕捉デバイスから得ることと、
前記第1の眼画像の第1のメトリックが第1の閾値を超過していることを判定することと、
第2のグラフィックの表示を前記ディスプレイ上の前記複数の眼姿勢領域の第2の眼姿勢領域内に生じさせることと、
前記第2の眼姿勢領域内の第2の眼画像を前記画像捕捉デバイスから得ることと、
前記第2の眼画像の第2のメトリックが第2の閾値を超過していることを判定することと
を行うようにプログラムされる、プロセッサと
を備える、頭部搭載型ディスプレイシステム。
(項目12)
前記プロセッサはさらに、
少なくとも部分的に、前記第1の眼画像および前記第2の眼画像に基づいて、虹彩コードを判定することと、
前記ディスプレイ上における画像の表示または前記頭部搭載型ディスプレイシステムによるバイオメトリックアプリケーションのために前記判定された虹彩コードを利用することと
を行うようにプログラムされる、項目11に記載の頭部搭載型ディスプレイシステム。
(項目13)
前記第1の眼画像は、前記頭部搭載型ディスプレイシステムのユーザの第1の眼姿勢に対応する、項目11に記載の頭部搭載型ディスプレイシステム。
(項目14)
前記ディスプレイは、前記第1のグラフィックまたは前記第2のグラフィックを複数の深度平面にわたって前記頭部搭載型ディスプレイシステムのユーザに提示するように構成される、項目11に記載の頭部搭載型ディスプレイシステム。
(項目15)
前記ディスプレイは、複数のスタックされた導波管を備える、項目14に記載の頭部搭載型ディスプレイシステム。
(項目16)
前記ディスプレイは、前記第1のグラフィックまたは前記第2のグラフィックのライトフィールド画像を前記頭部搭載型ディスプレイシステムのユーザに提示するように構成される、項目11に記載の頭部搭載型ディスプレイシステム。
(項目17)
前記第1のグラフィックは、前記ディスプレイ上の前記複数の眼姿勢領域の第1の眼姿勢領域に表示されたとき、前記眼を前記ディスプレイ上の前記複数の眼姿勢領域の第1の眼姿勢領域に向かって指向させ、
前記第2のグラフィックは、前記ディスプレイ上の前記複数の眼姿勢領域の第2の眼姿勢領域に表示されたとき、前記眼を前記ディスプレイ上の前記複数の眼姿勢領域の第2の眼姿勢領域に向かって指向させる、
項目11に記載の頭部搭載型ディスプレイシステム。
(項目18)
前記第2のグラフィックは、前記ディスプレイ上の前記複数の眼姿勢領域の第2の眼姿勢領域に表示されたとき、前記眼の眼姿勢を変化させるように構成される、項目11に記載の頭部搭載型ディスプレイシステム。
(項目19)
前記第1のグラフィックまたは前記第2のグラフィックは、蝶のグラフィカル表現を備える、項目11に記載の頭部搭載型ディスプレイシステム。
(項目20)
前記プロセッサはさらに、
前記ディスプレイ上の前記複数の眼姿勢領域内における前記グラフィックに関する表示モードを受信することであって、前記表示モードは、ランダムモード、順次モード、飛行モード、明滅モード、変動モード、ストーリーモード、またはそれらの組み合わせのうちの少なくとも1つを備える、ことを行うようにプログラムされる、項目11-19のいずれか1項に記載の頭部搭載型ディスプレイシステム。
(項目21)
前記第1の眼姿勢領域は、最小方位角偏向、最大方位角偏向、最小天頂偏向、および最大天頂偏向を備える、眼姿勢領域によって画定される、項目11に記載の頭部搭載型ディスプレイシステム。
(項目22)
前記第1のグラフィックは、前記第2のグラフィックと同一である、項目11に記載の頭部搭載型ディスプレイシステム。
(項目23)
虹彩コードを生成するための方法であって、
プロセッサの制御下で、
複数の眼姿勢領域を接続する経路に沿って、グラフィックを表示するステップと、
前記経路に沿った複数の場所における眼画像を得るステップと、
少なくとも部分的に、前記得られた眼画像の少なくともいくつかに基づいて、虹彩コードを生成するステップと、
を含む、方法。
(項目24)
前記経路に沿った複数の場所において得られる眼画像は、前記虹彩コード内の脆弱ビットの低減を提供する、項目23に記載の方法。
(項目25)
前記虹彩コードを生成するために使用される得られた眼画像の少なくともいくつかはそれぞれ、品質閾値を超過する品質メトリックを有する、項目23-24のいずれか1項に記載の方法。
(項目26)
頭部搭載型ディスプレイシステムであって、
複数の眼画像を捕捉するように構成される画像捕捉デバイスと、
プロセッサであって、
前記複数の眼画像の眼画像毎に、
複数の眼姿勢領域の眼姿勢領域を各眼画像に割り当てることと、
各眼画像内の眼姿勢の表現を判定することと、
前記判定された表現のセットを融合し、ハイブリッド眼画像を生成することと、
前記ハイブリッド眼画像の虹彩コードを生成することと、
前記判定された虹彩コードと関連付けられた信頼度スコアを判定することであって、前記信頼度スコアは、少なくとも部分的に、前記ハイブリッド眼画像を生成するために利用される前記判定された表現のセットに基づく、ことと
を行うようにプログラムされる、プロセッサと
を備える、頭部搭載型ディスプレイシステム。
(項目27)
前記判定された表現のセットを融合するために、前記プロセッサは、画質閾値を超過する前記判定された表現のセットを選択するようにプログラムされ、前記画質閾値は、バイオメトリックアプリケーションの利用のための画質に対応する、項目26に記載の頭部搭載型ディスプレイシステム。
(項目28)
前記判定された表現のセットを融合するために、前記プロセッサは、超分解能アルゴリズムを利用するようにプログラムされる、項目26に記載の頭部搭載型ディスプレイシステム。
(項目29)
前記プロセッサはさらに、
前記信頼度スコアが信頼度閾値を超過しないことを判定することであって、前記信頼度閾値は、前記頭部搭載型ディスプレイシステムと関連付けられたアプリケーションのための具体的アクセスレベルに対応する、ことと、
前記頭部搭載型ディスプレイシステムと関連付けられたアプリケーションに実行を終了させることと
を行うようにプログラムされる、項目26に記載の頭部搭載型ディスプレイシステム。
(項目30)
前記プロセッサはさらに、
前記信頼度スコアが信頼度閾値を超過することを判定することであって、前記信頼度閾値は、前記頭部搭載型ディスプレイシステムと関連付けられたアプリケーションのための具体的アクセスレベルに対応する、ことと、
前記頭部搭載型ディスプレイシステムと関連付けられたアプリケーションに承認を示させることと
を行うようにプログラムされる、項目26に記載の頭部搭載型ディスプレイシステム。
(項目31)
前記プロセッサはさらに、前記頭部搭載型ディスプレイシステム上に表示されるレベルインジケータを修正し、前記アプリケーションによる承認を示すようにプログラムされる、項目30に記載の頭部搭載型ディスプレイシステム。
(項目32)
前記プロセッサはさらに、前記頭部搭載型ディスプレイシステムのオーディオユニットに音を放出させるようにプログラムされる、項目30に記載の頭部搭載型ディスプレイシステム。
(項目33)
前記プロセッサはさらに、前記頭部搭載型ディスプレイシステムのディスプレイに承認テキストを表示させるようにプログラムされる、項目30に記載の頭部搭載型ディスプレイシステム。
(項目34)
前記プロセッサはさらに、前記ハイブリッド眼画像を使用して、前記眼のバイオメトリックデータを判定するようにプログラムされる、項目26-33のいずれか1項に記載の頭部搭載型ディスプレイシステム。
(項目35)
頭部搭載型ディスプレイシステムであって、
複数の眼画像を捕捉するように構成される画像捕捉デバイスと、
プロセッサであって、
前記複数の眼画像の画像毎に、
複数の眼姿勢領域の眼姿勢領域を各眼画像に割り当てることと、
各眼画像内の眼姿勢の表現を判定することと、
眼画像毎に、虹彩コードを生成することと、
各生成された虹彩コードをマージし、ハイブリッド虹彩コードを生成することと、
前記ハイブリッド虹彩コードと関連付けられた信頼度スコアを判定することであって、前記信頼度スコアは、少なくとも部分的に、前記修正された眼画像を生成するために利用される前記判定された虹彩コードに基づく、ことと
を行うようにプログラムされる、プロセッサと
を備える、頭部搭載型ディスプレイシステム。
(項目36)
各判定された虹彩コードをマージするために、前記プロセッサは、各判定された虹彩コードと閾値スコアを比較するようにプログラムされ、前記閾値スコアは、前記眼画像の品質レベルに対応する、項目35に記載の頭部搭載型ディスプレイシステム。
(項目37)
各判定された虹彩コードをマージするために、前記プロセッサは、メディアンフィルタ、ベイズフィルタ、または虹彩コードをマージするように構成される任意のフィルタのうちの少なくとも1つを利用するようにプログラムされる、項目35に記載の頭部搭載型ディスプレイシステム。
(項目38)
前記プロセッサはさらに、
前記信頼度スコアが信頼度閾値を超過しないことを判定することであって、前記信頼度閾値は、前記頭部搭載型ディスプレイシステムと関連付けられたアプリケーションのための具体的アクセスレベルに対応する、ことと、
前記頭部搭載型ディスプレイシステムと関連付けられたアプリケーションに実行を終了させることと
を行うようにプログラムされる、項目35に記載の頭部搭載型ディスプレイシステム。
(項目39)
前記プロセッサはさらに、
前記信頼度スコアが前記信頼度閾値を超過することを判定することと、
前記頭部搭載型ディスプレイシステムと関連付けられたアプリケーションに承認を示させることと
を行うようにプログラムされる、項目35に記載の頭部搭載型ディスプレイシステム。
(項目40)
前記プロセッサはさらに、前記頭部搭載型ディスプレイシステム上に表示されるセキュリティバーを修正するようにプログラムされる、項目39に記載の頭部搭載型ディスプレイシステム。
(項目41)
前記プロセッサはさらに、前記頭部搭載型ディスプレイシステムのオーディオユニットに音を放出させるようにプログラムされる、項目39に記載の頭部搭載型ディスプレイシステム。
(項目42)
前記プロセッサはさらに、前記頭部搭載型ディスプレイシステムのディスプレイにテキストインジケーションを表示するようにプログラムされる、項目39に記載の頭部搭載型ディスプレイシステム。
(項目43)
眼の虹彩コードを得るための方法であって、前記方法は、
プロセッサの制御下で、
複数の眼画像にアクセスするステップと、
(1)前記複数の眼画像の画像融合動作、(2)前記複数の眼画像上の虹彩コード融合動作、または(1)および(2)の両方を行うステップであって、
前記画像融合動作は、
前記複数の眼画像の少なくともいくつかを融合し、ハイブリッド画像を生成するステップと、
ハイブリッド虹彩コードを前記ハイブリッド画像から生成するステップと
を含み、
前記虹彩コード融合動作は、
前記複数の眼画像内の眼画像の少なくともいくつかに関する虹彩コードを生成するステップと、
前記生成された虹彩コードをマージし、ハイブリッド虹彩コードを生成するステップと、
を含む、ステップと
を含む、方法。
(項目44)
前記複数の眼画像内の眼画像毎に、眼姿勢を識別するステップをさらに含む、項目43に記載の方法。
(項目45)
前記画像融合動作または前記虹彩コード融合動作は、画質閾値を超過する画質メトリッ
クを有する1つまたはそれを上回る眼画像のみにおいて行われる、項目43に記載の方法。
(項目46)
前記ハイブリッド虹彩コードに関する信頼度スコアを生成するステップをさらに含む、項目43に記載の方法。
(項目47)
バイオメトリックアプリケーションのために前記ハイブリッド虹彩コードを利用するステップをさらに含む、項目43-46のいずれか1項に記載の方法。
(項目48)
脆弱ビットを補正するステップをさらに含む、項目43に記載の方法。
(項目49)
眼画像を処理するための方法であって、前記方法は、
プロセッサの制御下で、
第1の複数の眼画像の眼画像毎に、
前記第1の複数の眼画像の眼画像毎に、複数の眼姿勢領域の眼姿勢領域を割り当てるステップと、
前記第1の複数の眼画像の眼画像毎に、第1の眼姿勢を識別するステップと、
各識別された第1の眼姿勢の第1のデジタル表現を判定するステップと、
複数の眼姿勢領域の眼姿勢領域毎に、
第1の非空の判定された第1のデジタル表現のセットを選択するステップであって、前記第1の非空の判定された第1のデジタル表現のセットの各判定された第1のデジタル表現は、画質閾値を超過する、ステップと、
前記選択された第1の非空の判定された第1のデジタル表現のセットの判定された第1のデジタル表現を組み合わせ、第1のハイブリッド画像を生成するステップと、
前記第1のハイブリッド画像の第1の虹彩コードを生成するステップと、
前記判定された第1の虹彩コードと関連付けられた第1の信頼度スコアを判定するステップであって、前記第1の信頼度スコアは、少なくとも部分的に、前記第1のハイブリッド画像を生成するために使用される前記選択された第1の非空セット内の前記判定された第1のデジタル表現の総数に基づく、ステップと、
バイオメトリックアプリケーションのために前記判定された第1の信頼度スコアを利用するステップと
を含む、方法。
(項目50)
前記第1の信頼度スコアがバイオメトリックセキュリティ信頼度閾値を超過しないことを判定するステップであって、前記バイオメトリックセキュリティ信頼度閾値は、バイオメトリックデータと関連付けられたアプリケーションのための具体的アクセスレベルに対応する、ステップと、
前記アプリケーションの実行を終了させるステップと
をさらに含む、項目49に記載の方法。
(項目51)
第2の複数の眼画像を得るステップと、
前記第2の複数の眼画像の眼画像毎に、
前記第2の複数の眼画像の眼画像毎に、前記複数の眼姿勢領域の眼姿勢領域を割り当てるステップと、
前記第2の複数の眼画像の眼画像毎に、第2の眼姿勢を識別するステップと、
各識別された第2の眼姿勢の第2のデジタル表現を判定するステップと、
前記複数の眼姿勢領域の眼姿勢領域毎に、
第2の非空の判定された第2のデジタル表現のセットを選択するステップであって、前記第2の非空の判定された第2のデジタル表現のセットの各判定された第2のデジタル表現は、画像セキュリティ閾値を超過する、ステップと、 前記選択された第2の非空の判定された第2のデジタル表現のセットを組み合わせ、第2のハイブリッド眼画像を生成するステップと、
前記第2のハイブリッド画像の第2の虹彩コードを生成するステップと、
前記判定された第2の虹彩コードと関連付けられた第2の信頼度スコアを判定するステップであって、前記第2の信頼度スコアは、少なくとも部分的に、前記第2のハイブリッド画像を生成するために使用される前記選択された第2の非空セット内の前記判定された第2のデジタル表現の総数に基づく、ステップと
をさらに含む、項目49-50のいずれか1項に記載の方法。
(項目52)
前記第2の信頼度スコアが前記バイオメトリックセキュリティ信頼度閾値を超過することを判定するステップと、
バイオメトリックアプリケーションに、承認インジケーションを第1の複数の眼画像および前記第2の複数の眼画像と関連付けられたユーザに示させるステップと
をさらに含む、項目51に記載の方法。
(項目53)
前記承認インジケーションは、頭部搭載型ディスプレイ(HMD)のディスプレイ上のセキュリティバー上のレベル、前記HMDのオーディオユニットから放出される音、および前記HMDのディスプレイ上のテキストインジケーションのうちの少なくとも1つに対応する、項目52に記載の方法。
(項目54)
金融取引のためのアプリケーションへのアクセスのための要求を伝送するステップであって、前記要求は、前記承認インジケーションの表現を備える、ステップをさらに含む、項目52に記載の方法。
(項目55)
バイオメトリックセキュリティ信頼度閾値は、前記金融取引と関連付けられたアカウントにアクセスするために要求される画質レベルを備える、項目52に記載の方法。
(項目56)
前記アカウントにアクセスするために要求される画質レベルは、少なくとも1つの画質メトリックを備える、項目55に記載の方法。
(項目57)
眼画像を処理するための方法であって、前記方法は、
プロセッサの制御下で、
眼の複数の眼画像の眼画像毎に、
眼画像毎に、眼姿勢を識別するステップと、
前記識別された眼姿勢のデジタル表現を判定するステップと、
眼画像毎に、虹彩コードを生成するステップと、
各眼画像の前記生成された虹彩コードを組み合わせ、ハイブリッド虹彩コードを生成するステップと、
前記ハイブリッド虹彩コードと関連付けられた信頼度スコアを判定するステップであって、前記信頼度スコアは、前記ハイブリッド虹彩コードを生成するために、少なくとも部分的に、前記組み合わせられた判定された虹彩コードの総数に基づく、ステップと、
バイオメトリックアプリケーションのために前記判定された信頼度スコアを利用するステップと
を含む、方法。
(項目58)
前記信頼度スコアがバイオメトリックセキュリティ信頼度閾値を超過しないことを判定するステップであって、前記バイオメトリックセキュリティ信頼度閾値は、バイオメトリックデータと関連付けられたアプリケーションのための具体的アクセスレベルに対応する、ステップと、
前記バイオメトリックデータと関連付けられたアプリケーションに実行を終了させるステップと
をさらに含む、項目57に記載の方法。
(項目59)
前記信頼度スコアがバイオメトリックセキュリティ信頼度閾値を超過することを判定するステップと、
バイオメトリックアプリケーションに承認インジケーションを前記複数の眼画像と関連付けられたユーザに示させるステップと
をさらに含む、項目57に記載の方法。
(項目60)
前記承認インジケーションは、頭部搭載型ディスプレイ(HMD)のディスプレイ上のセキュリティバー上のレベル、前記HMDのオーディオユニットから放出される音、および前記HMDのディスプレイ上のテキストインジケーションのうちの少なくとも1つを備える、項目59に記載の方法。
(項目61)
前記バイオメトリックセキュリティ信頼度閾値は、前記金融取引と関連付けられたアカウントにアクセスするために要求される画質レベルに対応する、項目59に記載の方法。
(項目62)
金融取引のためのアプリケーションへのアクセスのための要求を伝送するステップであって、前記要求は、前記承認インジケーションの表現を備える、ステップをさらに含む、項目57-61のいずれか1項に記載の方法。
(項目63)
頭部搭載型ディスプレイシステムであって、
眼の複数の眼画像を捕捉するように構成される画像捕捉デバイスと、
プロセッサであって、前記プロセッサは、
前記複数の眼画像の眼画像毎に、
前記眼画像を前記画像捕捉デバイスから受信することと、
前記眼画像と関連付けられた画質メトリックを判定することと、
前記判定された画質メトリックと画質閾値を比較し、前記眼画像が前記画質閾値を超過しているかどうかを判定することであって、前記画質閾値は、虹彩コードを生成するための画質レベルに対応する、ことと、
前記複数の眼画像から、前記画質閾値を超過する眼画像を選択することと、
前記選択された眼画像を利用し、虹彩コードを生成することと
を行うようにプログラムされる、プロセッサと
を備える、頭部搭載型ディスプレイシステム。
(項目64)
前記画質閾値を超過する前記眼画像を選択するために、前記プロセッサは、前記選択された眼画像を前記プロセッサのバッファの中にバッファするようにプログラムされる、項目63に記載の頭部搭載型ディスプレイシステム。
(項目65)
前記画質閾値を超過する前記眼画像を選択するために、前記プロセッサは、前記眼画像の極座標表現を利用するようにプログラムされる、項目63に記載の頭部搭載型ディスプレイシステム。
(項目66)
前記プロセッサはさらに、画像融合動作および虹彩融合動作を行うようにプログラムされる、項目63に記載の頭部搭載型ディスプレイシステム。
(項目67)
前記画像融合動作および前記虹彩融合動作は、実質的に同時に、または連続して、前記生成された虹彩コードの一貫性を検証するために行われる、項目66に記載の頭部搭載型ディスプレイシステム。
(項目68)
前記プロセッサはさらに、
前記選択された眼画像の眼姿勢を判定することと、
前記選択された眼画像の眼姿勢を使用して、前記眼のバイオメトリックデータを判定することと
を行うようにプログラムされる、項目66に記載の頭部搭載型ディスプレイシステム。
(項目69)
前記眼画像を前記画像捕捉デバイスから受信するために、前記プロセッサは、前記プロセッサによって実装される眼画像収集ルーチンの間、前記眼画像を前記画像捕捉デバイスから受信するようにプログラムされる、項目63に記載の頭部搭載型ディスプレイシステム。
(項目70)
前記眼画像収集ルーチンは、グラフィックを利用して、眼画像を得る、項目69に記載の頭部搭載型ディスプレイシステム。
(項目71)
前記画質閾値を超過する前記眼画像を選択するために、前記プロセッサは、
前記複数の眼画像の第1の眼画像をバッファの中にバッファすることと、
前記複数の眼画像の第2の眼画像の画質メトリックが前記第1の眼画像の画質メトリックを超過することを判定することと、
前記第1の眼画像を前記バッファ内の前記第2の眼画像と置換することであって、前記第2の眼画像は、前記選択された眼画像に対応する、ことと
を行うようにプログラムされる、項目63に記載の頭部搭載型ディスプレイシステム。
(項目72)
前記画質メトリックは、前記眼画像のぼけと関連付けられたぼけ画質に対応し、前記眼画像のぼけは、基準眼画像に対する前記眼画像内の眼移動度に対応する、項目63に記載の頭部搭載型ディスプレイシステム。
(項目73)
前記画質メトリックは、前記眼画像内の非閉塞ピクセルの量に対応する、項目63に記載の頭部搭載型ディスプレイシステム。
(項目74)
前記画質メトリックは、眼瞬目、グレア、焦点ずれ、分解能、閉塞ピクセル、非閉塞ピクセル、雑音、アーチファクト、ぼけ、またはそれらの組み合わせのうちの1つまたはそれを上回るものに関連する測定を備える、項目63に記載の頭部搭載型ディスプレイシステム。
(項目75)
前記画質メトリックは、複数の成分品質メトリックの加重された組み合わせを備える、項目63に記載の頭部搭載型ディスプレイシステム。
(項目76)
眼画像を処理するための方法であって、前記方法は、
プロセッサの制御下で、
複数の眼画像を得るステップと、
前記複数の眼画像の眼画像毎に、
各眼画像と関連付けられた画質メトリックを判定するステップと、
各判定された画質メトリックと画質閾値を比較し、前記眼画像が前記画質閾値を超過しているかどうかを判定するステップであって、前記画質閾値は、虹彩コードを生成するための画質レベルに対応する、ステップと、
前記複数の眼画像から、非空の眼画像のセットを選択するステップと、
虹彩コードを生成するために前記眼画像のセットを利用するステップと
を含む、方法。
(項目77)
前記非空の眼画像のセットを選択するステップは、前記選択されるべき画質閾値を超過する、前記複数の眼画像の眼画像のパーセンテージを識別するステップを含む、項目76に記載の方法。
(項目78)
前記非空の眼画像のセットを選択するステップは、
選択されるべき眼画像の総数を識別するステップと、
前記眼画像のセットを識別するステップであって、それぞれ、前記セット内にない眼画像の判定された画質メトリックを上回るかまたはそれと等しい、判定された画質メトリックを有する、ステップと
を含む、項目76に記載の方法。
(項目79)
前記非空の眼画像のセット内の各眼画像は、前記画質閾値を超過する、項目76に記載の方法。
(項目80)
前記非空の眼画像のセットおよび前記対応する判定された画質メトリックをデータ媒体内にバッファするステップをさらに含む、項目76に記載の方法。
(項目81)
前記画質閾値を超過する付加的眼画像を得るステップと、
前記データ媒体内にバッファされた前記非空の眼画像のセットの眼画像を選択するステップと、
前記付加的眼画像の画質メトリックが前記データ媒体内にバッファされた前記非空の眼画像のセットの眼画像の画質メトリックを超過することを判定するステップと、
前記データ媒体内において、前記データ媒体内にバッファされた前記非空の眼画像のセットの前記選択された眼画像および前記データ媒体内にバッファされた前記非空の眼画像のセットの前記選択された眼画像の画質メトリックを、それぞれ、前記付加的眼画像の付加的眼画像および画質メトリックと置換するステップと
をさらに含む、項目80に記載の方法。
(項目82)
前記画質メトリックは、眼瞬目、グレア、焦点ずれ、分解能、閉塞ピクセル、非閉塞ピクセル、雑音、アーチファクト、ぼけ、またはそれらの組み合わせのうちの1つまたはそれを上回るものに関連する測定を備える、項目76-81のいずれか1項に記載の方法。
例示的眼画像セット選択
カメラ等の1つまたはそれを上回るイメージングソースから得られたある眼画像が、選択され、種々のバイオメトリックアプリケーションのために使用されることができる。例えば、眼画像を得た後、画質メトリックが、得られた眼画像の一部または全部に関して判定されることができる。画質メトリックは、例えば、ぼけの量、非閉塞ピクセルの数またはパーセンテージ、色飽和度、着目領域の分解能等の画像分解能、または任意のそれらの組み合わせに基づいて判定されることができる。異なる眼画像は、異なるタイプの画質メトリックと関連付けられることができる。眼画像毎に判定された画質メトリックは、個別の画質閾値と比較されることができる。
いくつかの眼姿勢領域に関する眼画像が、種々のバイオメトリックアプリケーションのために得られることができる。例えば、ディスプレイ(例えば、頭部搭載型ディスプレイシステムのディスプレイ)は、いくつかの眼姿勢領域(例えば、2、3、4、5、6、9、12、18、24、36、49、64、128、256、1000、またはそれを上回る)と関連付けられることができ、1つまたはそれを上回る眼画像が、眼姿勢領域の一部または全部に関して得られることができる。眼姿勢領域は、同一または異なるサイズもしくは形状(長方形、正方形、円形、三角形、卵形、菱形等)を有することができる。眼姿勢領域は、装着者の眼姿勢の角度空間の観点からその眼姿勢領域を規定する、2次元実座標空間R2または2次元正整数座標空間(N>0)2の接続されたサブセットと見なされることができる。例えば、眼姿勢領域は、方位角偏向(基準方位角から測定される)における特定のθminと特定のθmaxとの間および天頂偏向(また、極性偏向と称される)における特定のφminと特定のφmaxとの間にあることができる。
1つまたはそれを上回るイメージングソースから得られた眼画像が、1つまたはそれを上回るハイブリッド眼画像(また、組み合わせられた、または融合された眼画像と称される)に組み合わせられる、または融合されることができ、これは、順に、バイオメトリックアプリケーションのために使用されることができる。例えば、眼画像を得た後、眼姿勢が、眼画像毎に、識別されることができる。眼姿勢は、ディスプレイの眼姿勢領域割当等、特定のディスプレイ分類と関連付けられることができる。画像融合または虹彩コード融合の一方または両方が、得られた眼画像に適用されることができる。画像融合のために、得られた眼画像の一部または全部が、例えば、超分解能、空間ドメイン融合、または変換ドメイン融合を使用して、ハイブリッド眼画像に融合されることができる。虹彩コードが、ハイブリッド眼画像から抽出、生成、または判定されることができる。虹彩コード融合のために、虹彩コードが、得られた眼画像の一部または全部の各々に対し、生成されることができる。得られた虹彩コードは、次いで、例えば、媒体フィルタまたはベイズフィルタを使用して、ハイブリッド虹彩コードにマージされることができる。特定の眼姿勢領域と関連付けられた各虹彩コードは、全体的ハイブリッド虹彩コードに寄与することができる。信頼度スコアが、虹彩コードまたはハイブリッド虹彩コードに関して生成または判定されることができる。信頼度スコアは、サンプリングされる眼姿勢領域の割合に基づくことができる。画像融合を使用して生成された虹彩コードまたは画像融合を使用して生成されたハイブリッド虹彩コードの一方または両方が、1つまたはそれを上回るバイオメトリックアプリケーションにおけるさらなる利用のために使用されることができる。
図1は、人物によって視認される、ある仮想現実オブジェクトおよびある実際の現実オブジェクトを伴う、拡張現実シナリオの例証を描写する。図1は、拡張現実場面100を描写し、AR技術のユーザには、人々、木々、背景内の建物、およびコンクリートプラットフォーム120を特徴とする、実世界公園状設定110が見える。これらのアイテムに加え、AR技術のユーザはまた、実世界プラットフォーム120上に立っているロボット像130と、マルハナバチの擬人化のように見える、飛んでいる漫画のようなアバタキャラクタ140(例えば、マルハナバチ)とが「見える」と知覚するが、これらの要素は、実世界には存在しない。
図2は、VR、AR、またはMR体験をディスプレイシステム装着者もしくは視認者204に提示するために使用され得る、ウェアラブルディスプレイシステム200の実施例を図示する。ウェアラブルディスプレイシステム200は、眼画像処理を行い、本明細書に説明される用途または実施例のいずれかを提供するようにプログラムされてもよい。ディスプレイシステム200は、ディスプレイ208と、ディスプレイ208の機能をサポートするための種々の機械的ならびに電子的モジュールおよびシステムとを含む。ディスプレイ208は、ディスプレイシステムユーザ、装着者、または視認者204によって装着可能であって、ディスプレイ208を装着者204の眼の正面に位置付けるように構成される、フレーム212に結合されてもよい。ディスプレイ208は、ライトフィールドディスプレイであってもよい。いくつかの実施形態では、スピーカ216が、フレーム212に結合され、ユーザの外耳道に隣接して位置付けられる。いくつかの実施形態では、示されない別のスピーカが、ユーザの他の外耳道に隣接して位置付けられ、ステレオ/成形可能音制御を提供する。ディスプレイ208は、有線導線または無線コネクティビティ等によって、フレーム212に固定して取り付けられる、ユーザによって装着されるヘルメットまたは帽子に固定して取り付けられる、ヘッドホン内に内蔵される、または別様に、ユーザ204に除去可能に取り付けられる(例えば、バックパック式構成において、ベルト結合式構成において)等、種々の構成で搭載され得る、ローカルデータ処理モジュール224に動作可能に結合される220。
図4は、画像情報をユーザに出力するための導波管スタックの実施例を図示する。ディスプレイシステム400は、複数の導波管420、422、424、426、428を使用して、3次元知覚を眼410または脳に提供するために利用され得る、導波管のスタックまたはスタックされた導波管アセンブリ405を含む。いくつかの実施形態では、ディスプレイシステム400は、図2のシステム200に対応してもよく、図4は、そのシステム200のいくつかの部分をより詳細に図式的に示す。例えば、いくつかの実施形態では、導波管アセンブリ405は、図2のディスプレイ208の中に統合されてもよい。
例示的眼画像セット選択
図7は、例証的眼画像セット選択ルーチンのフロー図である。ルーチン700は、画質閾値を超過しているかどうかおよび虹彩コードの生成においてそのような画像を利用するかどうかを判定するための眼画像の処理のための例示的ワークフローを描写する。
頭部搭載型ディスプレイシステムは、処理モジュール224、228によって処理されるべき眼画像を収集する、または得るために、グラフィックまたは画像をディスプレイシステム装着者204に表示することができる。例えば、図2に示されるウェアラブルディスプレイシステム200または図4および6におけるディスプレイシステム400のユーザ(装着者204等)は、ウェアラブルディスプレイシステム200またはディスプレイシステム400のディスプレイ208上のグラフィックまたは画像を視認することができる。グラフィック(現実的に見えるまたは動画の蝶またはマルハナバチもしくはアバタ等)が、十分な眼画質の眼画像がディスプレイ208の1つまたはそれを上回る眼姿勢領域に関して得られるまで、ディスプレイ208の種々の眼姿勢領域に表示されることができる。例えば、眼画像の品質は、判定され、画質閾値と比較され、眼画像がバイオメトリックアプリケーション(例えば、虹彩コードの生成)のために使用され得る画質を有することを判定することができる。ある眼姿勢領域内の眼画像が画質閾値を超過しない、またはそれを満たさない場合、ディスプレイ208は、十分な眼画質の眼画像が得られるまで、その特定の領域内での1つまたはそれを上回るグラフィックの表示を継続するように構成されることができる。1つの特定の領域に表示される1つまたはそれを上回るグラフィックは、異なる実装において同一または異なることができる。例えば、グラフィックは、その特定の領域内において同一もしくは異なる場所または同一もしくは異なる配向に表示されることができる。
の表示を開始し得る(例えば、蝶が、領域820r4から820r8に跳躍して現れるであろう)。
図9は、例証的眼画像収集ルーチンのフロー図である。ルーチン900は、グラフィックおよび1つまたはそれを上回る画質閾値を使用して、眼画像を収集するための例示的ワークフローを描写する。ブロック904では、眼姿勢領域が、頭部搭載型ディスプレイのディスプレイ等のディスプレイの表示領域と関連付けられた。例えば、第1の眼姿勢領域は、ディスプレイの左上領域であってもよく、第2の眼姿勢領域は、ディスプレイの右下領域であってもよい。
上記に説明されるように、頭部搭載型ディスプレイ(HMD)(例えば、図2に示されるウェアラブルディスプレイシステム200または図4および6におけるディスプレイシステム400)の装着者の眼が、カメラまたは内向きイメージングシステム452(例えば、図4参照)等の画像捕捉デバイスを使用して撮像されることができる。眼画像組み合わせ技法は、画像捕捉デバイスから得られたある眼画像を1つまたはそれを上回るハイブリッド眼画像に組み合わせる、またはマージするために使用されることができる。ハイブリッド眼画像は、種々のバイオメトリックアプリケーションのために使用されることができる。例えば、いくつかの実装では、ハイブリッド眼画像は、眼姿勢(例えば、装着者の片眼または両眼の方向)を判定する、または虹彩コードを生成するために使用されることができる。
、眼画像セット選択技法を使用して分析されることができる。本分析を用いて、処理モジュール224、228は、眼組み合わせ技法および/またはバイオメトリック抽出または生成等を行うことができる。実施例として、ローカル処理およびデータモジュール224および/または遠隔処理モジュール228は、フレーム212に取り付けられた1つまたはそれを上回る画像捕捉デバイスから得られた眼画像を記憶するようにプログラムされることができる。加えて、ローカル処理およびデータモジュール224および/または遠隔処理モジュール228は、本明細書に説明される技法(例えば、ルーチン1000)を使用して、眼画像を処理し、ウェアラブルディスプレイシステム200の装着者204の眼画像を組み合わせるようにプログラムされることができる。例えば、処理モジュール224、228は、眼画像組み合わせ技法の側面を実行させられることができる。加えて、または代替として、コントローラ450は、眼画像組み合わせ技法の側面を実行させるようにプログラムされることができる。
画像融合技法の例示的実装では、眼画像が、内向きイメージングシステム452等によって、本明細書に説明される種々の様式において得られることができる。眼画像は、ヒトの眼の虹彩を含むことができる。眼姿勢は、眼画像に関して推定または判定されることができる。例えば、本明細書に説明されるように、眼姿勢は、眼の眼姿勢方向の方位角偏向および天頂偏向を示す2つの角度パラメータとして表されることができ、これらは両方とも眼の自然安静位置に対するものである。そのような表現は、眼画像のデジタル表現として表されることができる。すなわち、判定された眼姿勢は、得られた画像を表す。
虹彩コードマージ技法の例示的実装では、眼画像が、内向きイメージングシステム452等によって、本明細書に説明される種々の様式において得られることができる。眼姿勢は、眼画像に関して推定または判定されることができる。例えば、本明細書に説明されるように、眼姿勢は、眼の眼姿勢方向の方位角偏向および天頂偏向を示す2つの角度パラメータとして表されることができ、これらは両方とも眼の自然安静位置に対するものである。そのような表現は、眼画像のデジタル表現として表されることができる。すなわち、判定された眼姿勢は、得られた画像を表す。
いくつかの実装では、信頼度スコアが、判定された虹彩コードと関連付けられることができる。すなわち、画像融合技法または虹彩コードマージ技法を使用して、判定された虹彩コードが、信頼度スコアを割り当てられることができる。信頼度スコアは、サンプリングされた領域の多様性に基づいて、結果として生じる虹彩コードに割り当てられることができる。サンプリングされた領域の多様性は、例えば、組み合わせられた虹彩コードを生成するために使用される、眼画像によって表される姿勢領域の数または異なる領域割当を伴う眼画像の表現であることができる。信頼度スコアは、サンプリングされた姿勢領域の任意の関数に基づいて、判定されることができる。一実施例にすぎないが、ゼロのスコアは、可能性として考えられる領域のいずれもサンプリングされない場合に割り当てられることができる。別の実施例として、n/Nのスコアは、N個の可能性として考えられる領域からサンプリングされたn個の領域のみを有する、任意の測定に割り当てられ得る。別の実装では、眼画像自体の分析(例えば、眼姿勢を判定する)が、その眼画像内のあるセルと関連付けられた確率または信頼度スコアを生成してもよい。そのような場合では、全体的確率または全体的信頼度はまた、その眼画像の個々のセル特有の確率に基づいて生成されることができる。例えば、個々のセル特有の確率は、全体的確率を生成するために乗算されることができる。別の実装では、画質閾値は、信頼度スコアを判定するために使用されることができる。
図10は、例証的眼画像組み合わせルーチン1000のフロー図である。ルーチン1000は、画像融合技法(例えば、眼画像組み合わせの実施例に関して本明細書に説明される画像融合技法)を使用して、眼画像を組み合わせるための例示的ワークフローを描写する。
本明細書に開示される、眼画像組み合わせ、眼画像の組み合わせ、または眼画像セット選択に関する側面のいずれかの任意の要素は、本明細書に開示される、眼画像組み合わせ、眼画像の組み合わせ、または眼画像セット選択に関する側面のいずれかの任意の他の要素と組み合わせて、またはその代わりに、使用されることができる。
眼画像収集に関する付加的側面
第1の側面では、頭部搭載型ディスプレイシステムが、開示される。頭部搭載型ディスプレイシステムは、複数の眼画像を捕捉するように構成される、画像捕捉デバイスと、プロセッサであって、該プロセッサは、複数の眼画像の眼画像毎に、複数の眼姿勢領域の眼姿勢領域を各眼画像に割り当てることと、各眼画像内の眼姿勢の表現を判定することと、判定された表現のセットを融合し、ハイブリッド眼画像を生成することと、ハイブリッド眼画像の虹彩コードを生成することと、判定された虹彩コードと関連付けられた信頼度スコアを判定することであって、信頼度スコアは、少なくとも部分的に、ハイブリッド眼画像を生成するために利用される判定された表現のセットに基づく、こととを行うようにプログラムされる、プロセッサとを備える。
第1の側面では、頭部搭載型ディスプレイシステムが、開示される。頭部搭載型ディスプレイシステムは、眼の複数の眼画像を捕捉するように構成される、画像捕捉デバイスと、プロセッサであって、該プロセッサは、複数の眼画像の眼画像毎に、眼画像を画像捕捉デバイスから受信することと、眼画像と関連付けられた画質メトリックを判定することと、判定された画質メトリックと画質閾値を比較し、眼画像が画質閾値を超過しているかどうかを判定することであって、画質閾値は、虹彩コードを生成するための画質レベルに対応する、ことと、複数の眼画像から、画質閾値を超過する眼画像を選択することと、選択された眼画像を利用し、虹彩コードを生成することとを行うようにプログラムされる、プロセッサとを備える。
本明細書に説明される、ならびに/または添付される図に描写されるプロセス、方法、およびアルゴリズムはそれぞれ、具体的かつ特定のコンピュータ命令を実行するように構成される、1つまたはそれを上回る物理的コンピューティングシステム、ハードウェアコンピュータプロセッサ、特定用途向け回路、および/もしくは電子ハードウェアによって実行される、コードモジュールにおいて具現化され、それによって完全もしくは部分的に自動化され得る。例えば、コンピューティングシステムは、具体的コンピュータ命令とともにプログラムされた汎用コンピュータ(例えば、サーバ)または専用コンピュータ、専用回路等を含むことができる。コードモジュールは、実行可能プログラムにコンパイルおよびリンクされる、動的リンクライブラリ内にインストールされ得る、または解釈されるプログラミング言語において書き込まれ得る。いくつかの実装では、特定の動作および方法が、所与の機能に特有の回路によって実施され得る。
Claims (8)
- 眼の虹彩コードを取得するための方法であって、前記方法は、
プロセッサの制御下で、
複数の眼画像にアクセスすることと、
前記複数の眼画像における各眼画像に対して、複数の眼姿勢領域のうちの眼姿勢領域を割り当てることと、
前記複数の眼画像のうちの各眼画像において眼姿勢の表現を代替的な表現として決定することであって、前記表現は、前記眼の安静位置に対する複数の角度パラメータとして表される、ことと、
(1)前記複数の眼画像または前記代替的な表現に対する画像融合動作、(2)前記複数の眼画像または前記代替的な表現に対する虹彩コード融合動作、または、(1)および(2)の両方を実行することであって、
前記画像融合動作は、
前記複数の眼画像のうちの少なくともいくつかの眼画像または前記代替的な表現を融合することにより、ハイブリッド画像を生成することと、
前記ハイブリッド画像からハイブリッド虹彩コードを生成することと
を含み、
前記虹彩コード融合動作は、
前記複数の眼画像における複数の眼画像のうちの少なくともいくつかまたは前記代替的な表現のための虹彩コードを生成することと、
前記生成された虹彩コードをマージすることにより、ハイブリッド虹彩コードを生成することと
を含む、ことと、
前記虹彩コードまたは前記ハイブリッド虹彩コードのための信頼度スコアを生成することであって、前記信頼度スコアは、識別された眼姿勢領域の関数に少なくとも部分的に基づいており、前記信頼度スコアは、前記虹彩コードまたは前記ハイブリッド虹彩コードが1つ以上のバイオメトリックアプリケーションにおいて利用されるかを決定するために用いられる、ことと
を含む、方法。 - 前記画像融合動作または前記虹彩コード融合動作は、画質閾値を超過する画質メトリックを有する1つ以上の眼画像のみに対して実行される、請求項1に記載の方法。
- 前記方法は、バイオメトリックアプリケーションのために前記虹彩コードまたは前記ハイブリッド虹彩コードを利用することをさらに含む、請求項1~2のいずれか1項に記載の方法。
- 前記方法は、前記虹彩コード内の脆弱ビットを補正することにより、前記虹彩コードに及ぼす前記脆弱ビットの影響を低減させることをさらに含む、請求項1に記載の方法。
- 頭部搭載型ディスプレイシステムであって、前記システムは、
複数の眼画像を捕捉するように構成されている画像捕捉デバイスと、
プロセッサと
を備え、
前記プロセッサは、
複数の眼画像にアクセスすることと、
前記複数の眼画像における各眼画像に対して、複数の眼姿勢領域のうちの眼姿勢領域を割り当てることと、
前記複数の眼画像のうちの各眼画像において眼姿勢の表現を代替的な表現として決定することであって、前記表現は、前記眼の安静位置に対する複数の角度パラメータとして表される、ことと、
(1)前記複数の眼画像または前記代替的な表現に対する画像融合動作、(2)前記複数の眼画像または前記代替的な表現に対する虹彩コード融合動作、または、(1)および(2)の両方を実行することであって、
前記画像融合動作は、
前記複数の眼画像のうちの少なくともいくつかの眼画像または前記代替的な表現を融合することにより、ハイブリッド画像を生成することと、
前記ハイブリッド画像からハイブリッド虹彩コードを生成することと
を含み、
前記虹彩コード融合動作は、
前記複数の眼画像における複数の眼画像のうちの少なくともいくつかまたは前記代替的な表現のための虹彩コードを生成することと、
前記生成された虹彩コードをマージすることにより、ハイブリッド虹彩コードを生成することと
を含む、ことと、
前記虹彩コードまたは前記ハイブリッド虹彩コードのための信頼度スコアを生成することであって、前記信頼度スコアは、識別された眼姿勢領域の関数に少なくとも部分的に基づいており、前記信頼度スコアは、前記虹彩コードまたは前記ハイブリッド虹彩コードが1つ以上のバイオメトリックアプリケーションにおいて利用されるかを決定するために用いられる、ことと
を行うようにプログラムされている、システム。 - 前記プロセッサは、画質閾値を超過する画質メトリックを有する1つ以上の眼画像のみに対して前記画像融合動作または前記虹彩コード融合動作を実行するようにプログラムされている、請求項5に記載のシステム。
- 前記プロセッサは、バイオメトリックアプリケーションのために前記虹彩コードまたはハイブリッド虹彩コードを利用するようにプログラムされている、請求項5~6のいずれか1項に記載のシステム。
- 前記プロセッサは、前記虹彩コード内の脆弱ビットを補正することにより、前記虹彩コードに及ぼす前記脆弱ビットの影響を低減させるようにプログラムされている、請求項5に記載のシステム。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662280515P | 2016-01-19 | 2016-01-19 | |
US201662280456P | 2016-01-19 | 2016-01-19 | |
US201662280437P | 2016-01-19 | 2016-01-19 | |
US62/280,515 | 2016-01-19 | ||
US62/280,437 | 2016-01-19 | ||
US62/280,456 | 2016-01-19 | ||
JP2020046479A JP6960494B2 (ja) | 2016-01-19 | 2020-03-17 | 眼画像の収集、選択および組み合わせ |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020046479A Division JP6960494B2 (ja) | 2016-01-19 | 2020-03-17 | 眼画像の収集、選択および組み合わせ |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021184289A JP2021184289A (ja) | 2021-12-02 |
JP7405800B2 true JP7405800B2 (ja) | 2023-12-26 |
Family
ID=59313841
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018555850A Active JP6824285B2 (ja) | 2016-01-19 | 2017-01-17 | 眼画像の収集、選択および組み合わせ |
JP2020046479A Active JP6960494B2 (ja) | 2016-01-19 | 2020-03-17 | 眼画像の収集、選択および組み合わせ |
JP2021130586A Active JP7405800B2 (ja) | 2016-01-19 | 2021-08-10 | 眼画像の収集、選択および組み合わせ |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018555850A Active JP6824285B2 (ja) | 2016-01-19 | 2017-01-17 | 眼画像の収集、選択および組み合わせ |
JP2020046479A Active JP6960494B2 (ja) | 2016-01-19 | 2020-03-17 | 眼画像の収集、選択および組み合わせ |
Country Status (10)
Country | Link |
---|---|
US (5) | US10831264B2 (ja) |
EP (1) | EP3405829A4 (ja) |
JP (3) | JP6824285B2 (ja) |
KR (2) | KR102483345B1 (ja) |
CN (2) | CN108780229B (ja) |
AU (2) | AU2017208994B2 (ja) |
CA (1) | CA3011637A1 (ja) |
IL (2) | IL272891B2 (ja) |
NZ (1) | NZ744400A (ja) |
WO (1) | WO2017127366A1 (ja) |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102255351B1 (ko) * | 2014-09-11 | 2021-05-24 | 삼성전자주식회사 | 홍채 인식 방법 및 장치 |
CN104834852B (zh) * | 2015-05-04 | 2018-07-13 | 惠州Tcl移动通信有限公司 | 一种移动终端基于高质量眼纹图像进行解锁的方法及系统 |
US10043075B2 (en) * | 2015-11-19 | 2018-08-07 | Microsoft Technology Licensing, Llc | Eye feature identification |
KR102483345B1 (ko) | 2016-01-19 | 2022-12-29 | 매직 립, 인코포레이티드 | 눈 이미지 수집, 선택 및 결합 |
WO2018067357A2 (en) | 2016-10-05 | 2018-04-12 | Magic Leap, Inc. | Periocular test for mixed reality calibration |
CN117762256A (zh) | 2017-05-31 | 2024-03-26 | 奇跃公司 | 眼睛跟踪校准技术 |
US11280603B2 (en) | 2017-08-01 | 2022-03-22 | Otm Technologies Ltd. | Optical systems and methods for measuring rotational movement |
CN107577344B (zh) * | 2017-09-01 | 2020-04-28 | 广州励丰文化科技股份有限公司 | 一种mr头显设备的互动模式切换控制方法及系统 |
TWI658429B (zh) * | 2017-09-07 | 2019-05-01 | 宏碁股份有限公司 | 影像結合方法與影像結合系統 |
AU2018338222A1 (en) | 2017-09-21 | 2020-03-19 | Magic Leap, Inc. | Augmented reality display with waveguide configured to capture images of eye and/or environment |
US10521662B2 (en) * | 2018-01-12 | 2019-12-31 | Microsoft Technology Licensing, Llc | Unguided passive biometric enrollment |
IL311004A (en) | 2018-01-17 | 2024-04-01 | Magic Leap Inc | Display systems and methods for determining registration between a display and a user's eyes |
CA3087333A1 (en) | 2018-01-17 | 2019-07-25 | Magic Leap, Inc. | Eye center of rotation determination, depth plane selection, and render camera positioning in display systems |
CN110163460B (zh) * | 2018-03-30 | 2023-09-19 | 腾讯科技(深圳)有限公司 | 一种确定应用分值的方法及设备 |
WO2019204765A1 (en) | 2018-04-19 | 2019-10-24 | Magic Leap, Inc. | Systems and methods for operating a display system based on user perceptibility |
JP7382387B2 (ja) * | 2018-07-24 | 2023-11-16 | マジック リープ, インコーポレイテッド | ディスプレイとユーザの眼との間の位置合わせを決定するためのディスプレイシステムおよび方法 |
US10964111B2 (en) | 2018-07-27 | 2021-03-30 | Microsoft Technology Licensing, Llc | Controlling content included in a spatial mapping |
US10984586B2 (en) * | 2018-07-27 | 2021-04-20 | Microsoft Technology Licensing, Llc | Spatial mapping fusion from diverse sensing sources |
CN112805659A (zh) | 2018-08-03 | 2021-05-14 | 奇跃公司 | 通过用户分类为多深度平面显示系统选择深度平面 |
CN113168009A (zh) | 2018-09-26 | 2021-07-23 | 奇跃公司 | 具有屈光力的衍射光学元件 |
US11580874B1 (en) * | 2018-11-08 | 2023-02-14 | Duke University | Methods, systems, and computer readable media for automated attention assessment |
US11813054B1 (en) | 2018-11-08 | 2023-11-14 | Duke University | Methods, systems, and computer readable media for conducting an automatic assessment of postural control of a subject |
WO2020191170A1 (en) | 2019-03-20 | 2020-09-24 | Magic Leap, Inc. | System for providing illumination of the eye |
US11181973B2 (en) * | 2019-05-09 | 2021-11-23 | Apple Inc. | Techniques related to configuring a display device |
US11074676B2 (en) * | 2019-08-22 | 2021-07-27 | Adobe Inc. | Correction of misaligned eyes in images |
EP3804606B1 (en) * | 2019-10-07 | 2022-05-11 | Optos PLC | Ophthalmic imaging system |
JP2023504207A (ja) | 2019-12-09 | 2023-02-01 | マジック リープ, インコーポレイテッド | ユーザ識別に基づいて頭部搭載型ディスプレイシステムを動作させるためのシステムおよび方法 |
WO2021188926A1 (en) | 2020-03-20 | 2021-09-23 | Magic Leap, Inc. | Systems and methods for retinal imaging and tracking |
US11662810B2 (en) * | 2020-06-05 | 2023-05-30 | Magic Leap, Inc. | Enhanced eye tracking techniques based on neural network analysis of images |
CN111784806A (zh) * | 2020-07-03 | 2020-10-16 | 珠海金山网络游戏科技有限公司 | 一种虚拟角色的绘制方法及装置 |
TW202206030A (zh) * | 2020-07-14 | 2022-02-16 | 美商外科劇院股份有限公司 | 用於四維血管造影之系統及方法 |
EP4217920A1 (en) * | 2020-09-25 | 2023-08-02 | Apple Inc. | Automatic selection of biometric based on quality of acquired image |
US11656688B2 (en) * | 2020-12-03 | 2023-05-23 | Dell Products L.P. | System and method for gesture enablement and information provisioning |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120207357A1 (en) | 2010-08-06 | 2012-08-16 | Honeywell International Inc. | Ocular and iris processing system and method |
US20150178547A1 (en) | 2013-12-23 | 2015-06-25 | Ahmed Abdullah BAHJAT | Apparatus and method for iris image analysis |
US20150326570A1 (en) | 2014-05-09 | 2015-11-12 | Eyefluence, Inc. | Systems and methods for discerning eye signals and continuous biometric identification |
Family Cites Families (97)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5291560A (en) | 1991-07-15 | 1994-03-01 | Iri Scan Incorporated | Biometric personal identification system based on iris analysis |
US6222525B1 (en) | 1992-03-05 | 2001-04-24 | Brad A. Armstrong | Image controllers with sheet connected sensors |
US5670988A (en) | 1995-09-05 | 1997-09-23 | Interlink Electronics, Inc. | Trigger operated electronic device |
KR100244764B1 (ko) * | 1997-05-23 | 2000-03-02 | 전주범 | 홍채패턴 식별에 의한 가상현실 서비스 제공장치 및 방법 |
JP3315648B2 (ja) | 1998-07-17 | 2002-08-19 | 沖電気工業株式会社 | アイリスコード生成装置およびアイリス認識システム |
JP2001167252A (ja) | 1999-12-10 | 2001-06-22 | Oki Electric Ind Co Ltd | 眼画像作成方法、アイリス認証方法及びアイリス認証装置 |
JP3995181B2 (ja) | 1999-12-14 | 2007-10-24 | 沖電気工業株式会社 | 個体識別装置 |
KR100453943B1 (ko) * | 2001-12-03 | 2004-10-20 | 주식회사 세넥스테크놀로지 | 개인 식별을 위한 홍채 영상의 처리 및 인식방법과 시스템 |
CN2513168Y (zh) * | 2001-12-05 | 2002-09-25 | 南宫钟 | 一种具有虹膜识别功能的身份确认装置 |
EP1335329B1 (en) | 2002-02-05 | 2020-05-27 | Panasonic Intellectual Property Management Co., Ltd. | Personal authentication method, personal authentication apparatus and image capturing device |
JP2004086614A (ja) | 2002-08-27 | 2004-03-18 | Matsushita Electric Ind Co Ltd | 目画像撮像装置及び目画像認証装置 |
WO2004025565A1 (ja) * | 2002-09-13 | 2004-03-25 | Matsushita Electric Industrial Co., Ltd. | 虹彩コード化方法、個人認証方法、虹彩コード登録装置、虹彩認証装置、および虹彩認証プログラム |
JP4162503B2 (ja) | 2003-01-31 | 2008-10-08 | 富士通株式会社 | 眼の状態判定装置、眼の状態判定方法及びコンピュータプログラム |
EP1507402A3 (en) * | 2003-06-23 | 2005-07-20 | Ricoh Company, Ltd. | Access control decision system, access control enforcing system, and security policy |
EP1647936B1 (en) * | 2003-07-17 | 2012-05-30 | Panasonic Corporation | Iris code generation method, individual authentication method, iris code entry device, individual authentication device, and individual certification program |
US8050463B2 (en) | 2005-01-26 | 2011-11-01 | Honeywell International Inc. | Iris recognition system having image quality metrics |
US7756301B2 (en) | 2005-01-26 | 2010-07-13 | Honeywell International Inc. | Iris recognition system and method |
KR20050025927A (ko) | 2003-09-08 | 2005-03-14 | 유웅덕 | 홍채인식을 위한 동공 검출 방법 및 형상기술자 추출방법과 그를 이용한 홍채 특징 추출 장치 및 그 방법과홍채인식 시스템 및 그 방법 |
US7336806B2 (en) | 2004-03-22 | 2008-02-26 | Microsoft Corporation | Iris-based biometric identification |
USD514570S1 (en) | 2004-06-24 | 2006-02-07 | Microsoft Corporation | Region of a fingerprint scanning device with an illuminated ring |
KR100629550B1 (ko) * | 2004-11-22 | 2006-09-27 | 아이리텍 잉크 | 다중스케일 가변영역분할 홍채인식 방법 및 시스템 |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
KR100729813B1 (ko) | 2006-01-20 | 2007-06-18 | (주)자이리스 | 홍채 인증용 촬영장치, 홍채 인증용 촬영모듈 및 홍채인증용 촬영장치를 구비하는 단말기 |
GB0603411D0 (en) * | 2006-02-21 | 2006-03-29 | Xvista Ltd | Method of processing an image of an eye |
JP4752660B2 (ja) | 2006-07-28 | 2011-08-17 | 沖電気工業株式会社 | 個人認証方法及び個人認証装置 |
JP2008052510A (ja) * | 2006-08-24 | 2008-03-06 | Oki Electric Ind Co Ltd | 虹彩撮像装置、虹彩認証装置、虹彩撮像方法、虹彩認証方法 |
GB0625912D0 (en) | 2006-12-22 | 2007-02-07 | Bid Instr Ltd | Method for visual field testing |
US9117119B2 (en) | 2007-09-01 | 2015-08-25 | Eyelock, Inc. | Mobile identity platform |
JP5277365B2 (ja) | 2008-04-06 | 2013-08-28 | 国立大学法人九州工業大学 | 個人認証方法及びそれに使用する個人認証装置 |
US8411910B2 (en) * | 2008-04-17 | 2013-04-02 | Biometricore, Inc. | Computationally efficient feature extraction and matching iris recognition |
US8345936B2 (en) | 2008-05-09 | 2013-01-01 | Noblis, Inc. | Multispectral iris fusion for enhancement and interoperability |
KR101030652B1 (ko) * | 2008-12-16 | 2011-04-20 | 아이리텍 잉크 | 홍채인식을 위한 고품질 아이이미지의 획득장치 및 방법 |
US8472681B2 (en) | 2009-06-15 | 2013-06-25 | Honeywell International Inc. | Iris and ocular recognition system using trace transforms |
US8384774B2 (en) * | 2010-02-15 | 2013-02-26 | Eastman Kodak Company | Glasses for viewing stereo images |
KR101046459B1 (ko) | 2010-05-13 | 2011-07-04 | 아이리텍 잉크 | 다수의 홍채템플릿을 이용한 홍채인식장치 및 방법 |
US9304319B2 (en) | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
US10156722B2 (en) | 2010-12-24 | 2018-12-18 | Magic Leap, Inc. | Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality |
CN103688208B (zh) | 2010-12-24 | 2017-06-06 | 奇跃公司 | 人体工程学头戴式显示设备和光学系统 |
CA3035118C (en) | 2011-05-06 | 2022-01-04 | Magic Leap, Inc. | Massive simultaneous remote digital presence world |
JP6144681B2 (ja) * | 2011-08-30 | 2017-06-07 | マイクロソフト テクノロジー ライセンシング,エルエルシー | 虹彩スキャン・プロファイリング機能を有する頭部装着ディスプレイ |
WO2013037050A1 (en) * | 2011-09-16 | 2013-03-21 | Annidis Health Systems Corp. | System and method for assessing retinal functionality and optical stimulator for use therein |
EP2760363A4 (en) | 2011-09-29 | 2015-06-24 | Magic Leap Inc | TACTILE GLOVE FOR HUMAN COMPUTER INTERACTION |
US9345957B2 (en) | 2011-09-30 | 2016-05-24 | Microsoft Technology Licensing, Llc | Enhancing a sport using an augmented reality display |
US9286711B2 (en) | 2011-09-30 | 2016-03-15 | Microsoft Technology Licensing, Llc | Representing a location at a previous time period using an augmented reality display |
CA3048647C (en) | 2011-10-28 | 2022-08-16 | Magic Leap, Inc. | System and method for augmented and virtual reality |
US8929589B2 (en) | 2011-11-07 | 2015-01-06 | Eyefluence, Inc. | Systems and methods for high-resolution gaze tracking |
KR102513896B1 (ko) | 2011-11-23 | 2023-03-23 | 매직 립, 인코포레이티드 | 3차원 가상 및 증강 현실 디스플레이 시스템 |
US20130259322A1 (en) | 2012-03-31 | 2013-10-03 | Xiao Lin | System And Method For Iris Image Analysis |
WO2013152205A1 (en) | 2012-04-05 | 2013-10-10 | Augmented Vision Inc. | Wide-field of view (fov) imaging devices with active foveation capability |
WO2013167864A1 (en) * | 2012-05-11 | 2013-11-14 | Milan Momcilo Popovich | Apparatus for eye tracking |
US9671566B2 (en) * | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
CN107817556B (zh) | 2012-06-11 | 2020-01-31 | 奇跃公司 | 使用波导反射器阵列投射器的多深度平面三维显示器 |
CN104813218A (zh) | 2012-09-11 | 2015-07-29 | 奇跃公司 | 人机工程学的头戴显示设备和光学系统 |
KR101417433B1 (ko) | 2012-11-27 | 2014-07-08 | 현대자동차주식회사 | 눈동자의 움직임을 이용한 사용자 인증 장치 및 그 방법 |
CN105027190B (zh) | 2013-01-03 | 2019-06-21 | 美达视野股份有限公司 | 用于虚拟或增强介导视觉的射出空间成像数字眼镜 |
CA2898283C (en) | 2013-01-15 | 2021-05-11 | Magic Leap, Inc. | Ultra-high resolution scanning fiber display |
IL298018B2 (en) | 2013-03-11 | 2024-04-01 | Magic Leap Inc | System and method for augmentation and virtual reality |
KR102271726B1 (ko) | 2013-03-15 | 2021-06-30 | 매직 립, 인코포레이티드 | 디스플레이 시스템 및 방법 |
ES2944290T3 (es) | 2013-04-26 | 2023-06-20 | Genentech Inc | Prueba de la visión perimétrica con integración de contornos |
US20140341441A1 (en) | 2013-05-20 | 2014-11-20 | Motorola Mobility Llc | Wearable device user authentication |
US8958608B2 (en) * | 2013-06-04 | 2015-02-17 | Ut-Battelle, Llc | Frontal view reconstruction for iris recognition |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US9727129B2 (en) | 2013-06-28 | 2017-08-08 | Harman International Industries, Incorporated | System and method for audio augmented reality |
ITTV20130118A1 (it) | 2013-07-29 | 2015-01-30 | Sorridi Editore S R L | Sistema computerizzato per la distribuzione di un prodotto editoriale digitale multipiattaforma e metodo relativo. |
KR101968455B1 (ko) | 2013-09-03 | 2019-04-11 | 토비 에이비 | 휴대용 눈 추적 디바이스 |
IL295157B2 (en) | 2013-10-16 | 2023-10-01 | Magic Leap Inc | An augmented or virtual reality head device with intrapupillary distance adjustment |
TWI498769B (zh) | 2013-11-18 | 2015-09-01 | Quanta Comp Inc | 頭戴式顯示裝置及其登入方法 |
US9857591B2 (en) | 2014-05-30 | 2018-01-02 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
NZ755272A (en) | 2013-11-27 | 2020-05-29 | Magic Leap Inc | Virtual and augmented reality systems and methods |
EP3100098B8 (en) | 2014-01-31 | 2022-10-05 | Magic Leap, Inc. | Multi-focal display system and method |
CA2938262C (en) | 2014-01-31 | 2021-01-19 | Magic Leap, Inc. | Multi-focal display system and method |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
KR102227659B1 (ko) * | 2014-03-12 | 2021-03-15 | 삼성전자주식회사 | Hmd 장치를 통하여 가상 이미지를 디스플레이하는 시스템 및 방법 |
USD759657S1 (en) | 2014-05-19 | 2016-06-21 | Microsoft Corporation | Connector with illumination region |
EP3149539A4 (en) | 2014-05-30 | 2018-02-07 | Magic Leap, Inc. | Methods and systems for generating virtual content display with a virtual or augmented reality apparatus |
USD752529S1 (en) | 2014-06-09 | 2016-03-29 | Comcast Cable Communications, Llc | Electronic housing with illuminated region |
US20160034913A1 (en) | 2014-07-30 | 2016-02-04 | Hewlett-Packard Development Company, L.P. | Selection of a frame for authentication |
US9715781B2 (en) * | 2014-09-26 | 2017-07-25 | Bally Gaming, Inc. | System and method for automatic eye tracking calibration |
CN104318209B (zh) * | 2014-10-13 | 2017-11-03 | 北京智谷睿拓技术服务有限公司 | 虹膜图像采集方法和设备 |
US9672341B2 (en) * | 2014-10-30 | 2017-06-06 | Delta ID Inc. | Systems and methods for spoof detection in iris based biometric systems |
US10019563B2 (en) | 2014-12-05 | 2018-07-10 | Sony Corporation | Information processing apparatus and information processing method |
US10452137B2 (en) * | 2014-12-17 | 2019-10-22 | Sony Corporation | Information processing apparatus and information processing method |
US10699116B2 (en) | 2015-02-20 | 2020-06-30 | Hewlett-Packard Development Company, L.P. | Eye gaze authentication |
US9495590B1 (en) | 2015-04-23 | 2016-11-15 | Global Bionic Optics, Ltd. | Extended depth-of-field biometric system |
USD758367S1 (en) | 2015-05-14 | 2016-06-07 | Magic Leap, Inc. | Virtual reality headset |
US10474892B2 (en) | 2015-05-26 | 2019-11-12 | Lg Electronics Inc. | Mobile terminal and control method therefor |
US9888843B2 (en) * | 2015-06-03 | 2018-02-13 | Microsoft Technology Licensing, Llc | Capacitive sensors for determining eye gaze direction |
US9984507B2 (en) * | 2015-11-19 | 2018-05-29 | Oculus Vr, Llc | Eye tracking for mitigating vergence and accommodation conflicts |
CN107016270A (zh) * | 2015-12-01 | 2017-08-04 | 由田新技股份有限公司 | 结合脸部认证或手部认证的动态图形眼动认证系统、方法 |
KR102483345B1 (ko) * | 2016-01-19 | 2022-12-29 | 매직 립, 인코포레이티드 | 눈 이미지 수집, 선택 및 결합 |
USD805734S1 (en) | 2016-03-04 | 2017-12-26 | Nike, Inc. | Shirt |
USD794288S1 (en) | 2016-03-11 | 2017-08-15 | Nike, Inc. | Shoe with illuminable sole light sequence |
US10002311B1 (en) | 2017-02-10 | 2018-06-19 | International Business Machines Corporation | Generating an enriched knowledge base from annotated images |
US11211775B2 (en) | 2019-08-14 | 2021-12-28 | Subcom, Llc | Redundancy improvement in semiconductor-based optical communication systems |
-
2017
- 2017-01-17 KR KR1020187023826A patent/KR102483345B1/ko active IP Right Grant
- 2017-01-17 WO PCT/US2017/013796 patent/WO2017127366A1/en active Application Filing
- 2017-01-17 US US15/408,250 patent/US10831264B2/en active Active
- 2017-01-17 NZ NZ74440017A patent/NZ744400A/en unknown
- 2017-01-17 EP EP17741816.7A patent/EP3405829A4/en active Pending
- 2017-01-17 AU AU2017208994A patent/AU2017208994B2/en active Active
- 2017-01-17 US US15/408,277 patent/US11209898B2/en active Active
- 2017-01-17 JP JP2018555850A patent/JP6824285B2/ja active Active
- 2017-01-17 US US15/408,197 patent/US10466778B2/en active Active
- 2017-01-17 CA CA3011637A patent/CA3011637A1/en active Pending
- 2017-01-17 CN CN201780018474.0A patent/CN108780229B/zh active Active
- 2017-01-17 CN CN202111528136.6A patent/CN114205574A/zh active Pending
- 2017-01-17 IL IL272891A patent/IL272891B2/en unknown
- 2017-01-17 KR KR1020227045727A patent/KR102567431B1/ko active IP Right Grant
-
2018
- 2018-07-15 IL IL260603A patent/IL260603B/en active IP Right Grant
-
2019
- 2019-09-27 US US16/585,852 patent/US11231775B2/en active Active
-
2020
- 2020-03-17 JP JP2020046479A patent/JP6960494B2/ja active Active
-
2021
- 2021-08-10 JP JP2021130586A patent/JP7405800B2/ja active Active
- 2021-11-08 US US17/521,618 patent/US11579694B2/en active Active
-
2022
- 2022-04-19 AU AU2022202543A patent/AU2022202543A1/en not_active Abandoned
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120207357A1 (en) | 2010-08-06 | 2012-08-16 | Honeywell International Inc. | Ocular and iris processing system and method |
US20150178547A1 (en) | 2013-12-23 | 2015-06-25 | Ahmed Abdullah BAHJAT | Apparatus and method for iris image analysis |
US20150326570A1 (en) | 2014-05-09 | 2015-11-12 | Eyefluence, Inc. | Systems and methods for discerning eye signals and continuous biometric identification |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7405800B2 (ja) | 眼画像の収集、選択および組み合わせ | |
JP7252407B2 (ja) | バイオメトリックセキュリティのための青色光調節 | |
JP7436600B2 (ja) | 眼追跡のための個人化されたニューラルネットワーク | |
KR102433833B1 (ko) | 오프-축 영상기를 이용한 눈 영상화 | |
JP2023517281A (ja) | 仮想および拡張現実ディスプレイシステムのための仮想オブジェクト移動速度曲線 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210909 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210909 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221101 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230606 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230906 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7405800 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |