JP2022546580A - 視聴者同期の照明検知 - Google Patents
視聴者同期の照明検知 Download PDFInfo
- Publication number
- JP2022546580A JP2022546580A JP2022514526A JP2022514526A JP2022546580A JP 2022546580 A JP2022546580 A JP 2022546580A JP 2022514526 A JP2022514526 A JP 2022514526A JP 2022514526 A JP2022514526 A JP 2022514526A JP 2022546580 A JP2022546580 A JP 2022546580A
- Authority
- JP
- Japan
- Prior art keywords
- light source
- viewer
- display device
- light
- glare
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title description 14
- 230000001360 synchronised effect Effects 0.000 title 1
- 238000000034 method Methods 0.000 claims abstract description 71
- 230000003287 optical effect Effects 0.000 claims abstract description 47
- 230000004313 glare Effects 0.000 claims description 100
- 210000001508 eye Anatomy 0.000 claims description 81
- 230000009471 action Effects 0.000 claims description 39
- 230000033001 locomotion Effects 0.000 claims description 30
- 230000008859 change Effects 0.000 claims description 18
- 239000013598 vector Substances 0.000 claims description 16
- 238000004458 analytical method Methods 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 4
- 230000002123 temporal effect Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 34
- 238000004891 communication Methods 0.000 description 16
- 238000011156 evaluation Methods 0.000 description 12
- 238000005259 measurement Methods 0.000 description 8
- 238000005286 illumination Methods 0.000 description 7
- 230000007613 environmental effect Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 230000003068 static effect Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 210000001061 forehead Anatomy 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000008713 feedback mechanism Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/20—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/10—Intensity circuits
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/02—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/02—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
- G09G5/06—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed using colour palettes, e.g. look-up tables
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/10—Earpieces; Attachments therefor ; Earphones; Monophonic headphones
- H04R1/1041—Mechanical or electronic switches, or control elements
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/02—Improving the quality of display appearance
- G09G2320/0233—Improving the luminance or brightness uniformity across the screen
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/02—Improving the quality of display appearance
- G09G2320/0242—Compensation of deficiencies in the appearance of colours
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/06—Adjustment of display parameters
- G09G2320/0626—Adjustment of display parameters for control of overall brightness
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/06—Adjustment of display parameters
- G09G2320/066—Adjustment of display parameters for control of contrast
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/06—Adjustment of display parameters
- G09G2320/0666—Adjustment of display parameters for control of colour parameters, e.g. colour temperature
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2360/00—Aspects of the architecture of display systems
- G09G2360/14—Detecting light within display terminals, e.g. using a single or a plurality of photosensors
- G09G2360/144—Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light being ambient light
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Controls And Circuits For Display Device (AREA)
- Circuit Arrangement For Electric Light Sources In General (AREA)
- Eye Examination Apparatus (AREA)
Abstract
Description
本出願は、2019年9月5日に出願された欧州特許出願第19195627.5号及び2019年9月5日に出願された米国仮特許出願第62/896,203号に対する優先権を主張し、これらを参照することによって援用する。
本開示は、概して、視覚デバイスに関し、特に、視聴者同期の照明検知に関する。
FUNCTION AssessCompensation(PatchLum,PatchSdDev)
IF PatchLum==high && PatchStdDev==small
AmbientCondition=‘higher ambient’;
Compensate_for_diffuse ambient_light
ELSEIF PatchLum==high && PatchStdDev==larger
AmbientCondition=‘higher ambient’;
Compensate_for_glare_and_ambient_light(DistanceInPx,LightSourceIntensity);
ELSE
%PatchLum==low
AmbientCondition=‘dark room’;
END
END
ここで、輝度強度が強度閾値(例えば、高い方)よりも高く、標準偏差(standard deviation, SD)がSD閾値(例えば、大きい方)よりも大きい場合、グレアと周辺光との双方が存在する可能性があり、システムはグレアと周辺光との双方を補償すべきである。輝度強度が高く、SDがSD閾値(例えば、小さい方)よりも小さい場合、主として散乱周辺光が存在し、システムは、周辺光を補償できる(補償閾値が満たされる場合)。輝度強度が強度閾値(例えば、低い方)よりも低い場合、アクションは行われない。したがって、専用の較正セッションの必要性が低減され、画質が改善できる。
FindMaxPixels=max(abs(LeftImage-RightImage));
GlareIntensity=Mean(LeftImage(FindMaxPixels));
図5A~5Gは、いくつかの実施形態による、異なるレベルのグレア評価の例を示す。散乱周辺光の検知(及びその後の補正)に加えて、システムはまた、アクティブ表示領域の外側の直接視認可能な「シャープ」なハイライト及び放射光を検知して緩和できる。図5Aを参照すると、アクティブ表示領域を捕捉する画像は、図1Bのシステム110のような、光検知システムのいずれかの光センサによって捕捉される画像に対応できる。ここで、薄暗い背後の周辺光でアクティブ表示領域が識別された場合、背面光が散乱して薄暗くなり、かなりのレベルのグレアを引き起こさないので、グレア補償は必要とされない。図5Bを参照すると、システムがアクティブ表示領域を取り囲む1つ以上の光源を検出したが、表示デバイスのベゼル(例えば、TVベゼル)から遠く離れている場合(アクティブ表示領域と比較して閾値距離よりも大きい場合)、光源が表示デバイスのベゼルから遠く離れており低減したレベルのグレアを引き起こすので、中間グレア補償を適用できる。図5Cを参照すると、システムがアクティブ表示領域の中間領域を取り囲む光源を検出した場合(例えば、アクティブ表示領域と比較して閾値距離未満である場合)、検出された光源は表示デバイスのベゼルに近接しておりかなりのレベルのグレアを引き起こすので、システムは、完全グレア補償を適用する。
FUNCTION Compensate_for_glare_and_ambient_light(DistanceInPx,LightSourceIntensity)
GlareOffset=GlareModel(DistanceInPx,LightSourceIntensity);
ImgDisplayed=CompensateAmbient(GlareOffset,SrcImgIn);
END
一実施形態では、グレア補償モデルは、光源からアクティブ表示領域までのスカラ距離に基づいて適用できる。他の実施形態では、グレア補償モデルは、光源からアクティブ表示領域までの距離、アクティブ表示領域のサイズ及びアクティブ表示領域までの視聴者の距離に基づいて適用できる。したがって、グレア補償モデルは、視聴者の眼におけるグレアの知覚的低下、例えば、光源強度及びアクティブTV領域までの光源の距離の関数を予測することである。
WHILE Displaying_Content
LS1=GetPosition_of_LS()
IF LS1==occluded from the sensor (compared to previous measurement)
EyePosition=LastLightSourcePos-EyeOffset
IF EyePosition==occluded by TVarea
No_Compensate_for_glare_and_ambient_light()
ELSE
Compensate_for_glare_and_ambient_light()
END
ELSE
Compensate_for_glare_and_ambient_light()
END
END
右側センサ及び右眼のみが示されているが、同様の概念が左側センサ/左眼に適用できる。
室内の表示デバイスの視聴者によって装着されたウェアラブルデバイスに取り付けられた1つ以上の光センサからセンサデータを受信するステップであり、光センサの視野は視聴者の視野を少なくともカバーする、ステップと、
センサデータに基づいて、視聴者の視野内の光源を識別するステップと、
光源の光源情報に少なくとも部分的に基づいて、光源によって引き起こされるコンテンツの輝度又は色の変化を補償するように、コンテンツを表示する表示デバイスの表示コントローラによって実行されるべき1つ以上の動作のためのデータを視聴者に送信するステップと
を含む方法。
追跡された変化に基づく決定論的アルゴリズムを使用して光源の潜在的光源を決定するステップと
を更に含む、EE1又はEE2に記載の方法。
平均輝度及び輝度の標準偏差に基づいて反射光源が散乱周辺光源であるかグレア光源であるかを識別するステップと
を更に含む、EE3に記載の方法。
光源が制御可能である場合、光源の輝度を制御し、光源が制御可能である場合に光源を補償するステップと、
光源が電子的に制御可能でない場合、或いは制御後に表示画面から変化が検出されない場合、視聴者による手動制御を示唆するステップと、
光源の制御が視聴者の能力を超える場合、視聴者に対して視点位置の変更を示唆するステップと
を更に含む、EE3乃至6のいずれかに記載の方法。
視聴者の視野内にある場合、直接光源から表示デバイスの表面のエッジまでの最短距離を決定するステップと、
決定された距離及び強度に基づいて実行されるべき1つ以上の動作のために、直接光源の強度を決定するステップと
を更に含む、EE3乃至9のいずれかに記載の方法。
眼の観察地点に基づいて、光源が表示デバイスの表面によって閉塞されているか否かを決定するステップと、
閉塞されていると決定された場合、直接光源が両眼に視認可能でないと決定するステップと
を更に含む、EE12に記載の方法。
眼の観察地点に基づいて、直接光源が、モーションベクトルの値に基づいて表示デバイスの表面によって閉塞されていると決定するステップと
を更に含む、EE14に記載の方法。
表示デバイスによって表示される黒色レベルを調整することと、
表示デバイスのトーンマッピング特性を調整することと
を含む、EE1乃至15のいずれかに記載の方法。
視聴者のウェアラブルデバイスから、コンテンツを視聴者に表示するために表示デバイスの表示管理によって実行されるべき1つ以上の動作のためのデータを受信するステップと、
受信データから、視聴者の視野内で感知される光源を識別する光源情報を取得するステップと、
光源によって引き起こされるコンテンツの輝度又は色の変化を補償するために、光源情報に基づいて実行されるべき1つ以上の動作についてルックアップテーブル又はパラメトリックテーブルを検索するステップと、
光源情報に少なくとも部分的に基づいて、1つ以上の動作を実行するステップと
を含む方法。
室内の表示デバイス上又はその近傍に取り付けられた1つ以上の光センサからセンサデータを受信するステップであり、1つ以上の光センサは、表示デバイスを視認する視聴者に向けられる、ステップと、
センサデータに基づいて、視聴者の受動表面上の光源の反射を識別するステップと、
反射に基づいて、グレア光源又は周辺光源となる光源を分析するステップと、
分析に少なくとも部分的に基づいて、1つ以上の動作を実行するステップと
を含む方法。
Claims (25)
- 表示デバイスの視聴者の視野で感知される光源を補償するための方法であって、
前記視聴者によって装着されたウェアラブルデバイスに取り付けられた1つ以上の光センサからセンサデータを受信するステップであり、前記光センサの視野は前記視聴者の前記視野を少なくともカバーする、ステップと、
前記センサデータに基づいて、前記視聴者の前記視野内で感知される光源を識別するステップと、
前記識別された光源の光源情報に少なくとも部分的に基づいて、前記光源によって引き起こされる、前記表示デバイスによって表示されるコンテンツの輝度又は色の変化を補償するように、前記表示デバイスの表示コントローラによる1つ以上の動作を実行するステップと
を含む方法。 - 所定の期間にわたる前記光源の輝度の変化を追跡し、前記輝度の変化が緩やかであるか急激であるかを決定するステップと、
前記追跡された変化に基づく決定論的アルゴリズムを使用して前記光源を識別するステップと
を更に含む、請求項1に記載の方法。 - 前記光源が前記表示デバイスの表面から反射した光源であるか否かを決定するステップを更に含む、請求項1に記載の方法。
- 前記光源が前記表示デバイスの表面から反射した光源である場合、前記表示デバイスの前記表面の平均輝度及び輝度の変動を分析するステップと、
前記平均輝度及び前記輝度の変動に基づいて前記光源が散乱周辺光源であるかグレア光源であるかを識別するステップと
を更に含む、請求項3に記載の方法。 - グレア光源は、輝度の大きい変動を有する前記表示デバイスの前記表面の部分を識別することによって識別される、請求項4に記載の方法。
- グレア光源は、前記ウェアラブルデバイスに取り付けられた前記1つ以上の光センサの左側光センサ及び右側光センサによって捕捉された画像の間の位置的不一致、又は前記ウェアラブルデバイスの光センサの2つ以上の画像の間の時間的不一致を介して、1つ以上のアーチファクトを識別することによって識別される、請求項4に記載の方法。
- 前記光源が前記表示デバイスの表面から反射した光源である場合、前記光源が制御可能であるか否かを識別するステップと、
前記光源が制御可能である場合、前記光源の輝度を制御するステップと、
前記光源が制御可能でない場合、手動アクション又は視聴者に対する視点位置の変更を示唆するステップと
を更に含む、請求項3乃至6のうちいずれか1項に記載の方法。 - 前記光源が制御可能であるか否かを決定することは、
ローカルネットワーク上で室内のモノのインターネット(IOT)に基づく光源を自動的に検出し、前記検出された光源のそれぞれを制御可能な光源として登録することを含む、請求項7に記載の方法。 - 前記視聴者によって装着された前記ウェアラブルデバイスに取り付けられた前記1つ以上の光センサは、それぞれ前記視聴者の左眼及び右眼の左側及び右側に、左側及び右側光センサを含む、請求項1乃至8のうちいずれか1項に記載の方法。
- 前記光源が前記表示デバイスの表面から反射した光源でない場合、前記光源が前記視聴者の前記視野内で感知されたか否かを決定するステップと、
前記光源が前記視聴者の前記視野内で感知された場合、前記光源から前記表示デバイスの前記表面のエッジまでの最短距離を決定するステップと、
前記決定された距離及び強度に基づいて実行されるべき前記1つ以上の動作のために、前記光源の強度を決定するステップと
を更に含む、請求項3乃至9のうちいずれか1項に記載の方法。 - 2人以上の視聴者が存在する場合、前記1つ以上の動作は、前記2人以上の視聴者のそれぞれの視野内で感知される平均強度又は重み付けされた強度に基づいて実行される、請求項10に記載の方法。
- 前記ウェアラブルデバイスに取り付けられた前記1つ以上の光センサの左側及び右側光センサによって捕捉された画像に基づいて、前記光源が前記ウェアラブルデバイスを装着した前記視聴者の左眼の視野内で感知されるか右眼の視野内で感知されるか両眼の視野内で感知されるかを決定するステップを更に含む、請求項10又は11に記載の方法。
- 前記左側及び右側光センサの双方が前記光源を感知した場合、前記光源が前記視聴者の両眼に視認可能であると決定するステップを更に含む、請求項12に記載の方法。
- 前記左側又は右側光センサの一方のみが前記光源を検知するが、双方が検知しない場合、センサの測定観察地点と、前記ウェアラブルデバイスから前記表示デバイスの前記表面までの距離で投影される、前記センサから前記視聴者の眼までの距離オフセットとに基づいて、前記視聴者の前記眼の観察地点を決定するステップと、
前記眼の前記観察地点に基づいて、前記光源が前記表示デバイスの前記表面によって閉塞されているか否かを決定するステップと、
前記光源が前記表示デバイスの前記表面によって閉塞されていると決定された場合、前記光源が両眼に視認可能でないと決定するステップと
を更に含む、請求項12に記載の方法。 - 前記ウェアラブルデバイスに取り付けられたモーションセンサに基づいて、前記ウェアラブルデバイスのモーションベクトルを決定するステップと、
前記眼の観察地点に基づいて、前記光源が、前記モーションベクトルの値に基づいて前記表示デバイスの前記表面によって閉塞されているか否かを決定するステップと
を更に含む、請求項14に記載の方法。 - 前記表示デバイスによって実行されるべき前記1つ以上の動作は、
前記表示デバイスによって表示される黒色レベルを調整することと、
前記表示デバイスのトーンマッピング特性を調整することと
を含む、請求項1乃至15のうちいずれか1項に記載の方法。 - 前記表示デバイスによって実行されるべき前記1つ以上の動作は、制御不能のグレア光源を補償するために手動アクションを行うように視聴者に通知することを含む、請求項1乃至16のうちいずれか1項に記載の方法。
- 前記1つ以上のセンサは、1つ以上の光トランスデューサ、画像捕捉デバイス又はビデオ捕捉デバイスを含む、請求項1乃至17のうちいずれか1項に記載の方法。
- 前記表示デバイスによって実行されるべき1つ以上の動作のためのデータを送信することは、前記表示デバイスに対して、前記光源のタイプに基づいて実行されるべき1つ以上の動作のために、ルックアップテーブル又はパラメトリック調整パラメータ内のエントリを検索させ、前記1つ以上の動作を実行させる、請求項1乃至18のうちいずれか1項に記載の方法。
- 前記ウェアラブルデバイスはウェアラブルヘッドセットを含む、請求項1乃至19のうちいずれか1項に記載の方法。
- 前記ウェアラブルヘッドセットはヘッドフォンを含む、請求項20に記載の方法。
- 前記視聴者によって装着された前記ウェアラブルデバイスに取り付けられた前記1つ以上の光センサから、前記表示デバイスの前記表示コントローラによって前記センサデータを受信するステップと、
前記受信データから、前記視聴者の前記視野内で感知される前記光源を識別する前記光源情報を取得するステップと、
前記光源によって引き起こされる前記コンテンツの輝度又は色の変化を補償するために、前記光源情報に基づいて実行されるべき前記1つ以上の動作についてルックアップテーブル又はパラメトリックテーブルを検索するステップと
を更に含む、請求項1乃至21のうちいずれか1項に記載の方法。 - プロセッサによって実行されると、前記プロセッサに請求項1乃至22のうちいずれか1項に記載の方法を実行させる命令を記憶した非一時的な機械読み取り可能媒体。
- 請求項1乃至22のうちいずれか1項に記載の方法を実行するように構成されたメモリ及びプロセッサを含むウェアラブルデバイス。
- 光源を識別するための方法であって、
室内の表示デバイス上又はその近傍に取り付けられた1つ以上の光センサからセンサデータを受信するステップであり、前記1つ以上の光センサは、前記表示デバイスを視認する視聴者に向けられる、ステップと、
前記センサデータに基づいて、前記視聴者の受動表面上の光源の反射を識別するステップと、
前記反射に基づいて、グレア光源又は周辺光源となる前記光源を分析するステップと、
前記分析に少なくとも部分的に基づいて、1つ以上の動作を実行するステップと
を含む方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962896203P | 2019-09-05 | 2019-09-05 | |
EP19195627.5 | 2019-09-05 | ||
EP19195627 | 2019-09-05 | ||
US62/896,203 | 2019-09-05 | ||
PCT/US2020/049239 WO2021046242A1 (en) | 2019-09-05 | 2020-09-03 | Viewer synchronized illumination sensing |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022546580A true JP2022546580A (ja) | 2022-11-04 |
JP7439243B2 JP7439243B2 (ja) | 2024-02-27 |
Family
ID=72474378
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022514526A Active JP7439243B2 (ja) | 2019-09-05 | 2020-09-03 | 視聴者同期の照明検知 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11996023B2 (ja) |
EP (1) | EP4025990A1 (ja) |
JP (1) | JP7439243B2 (ja) |
CN (1) | CN114365077B (ja) |
WO (1) | WO2021046242A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190284871A1 (en) * | 2016-04-28 | 2019-09-19 | The Regents Of The University Of California | Glare sensor that identifies potential glare sources in digital images and computes their coordinates to help control dynamic window and skylight systems |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010186044A (ja) * | 2009-02-12 | 2010-08-26 | Funai Electric Co Ltd | 表示装置 |
JP2012128206A (ja) * | 2010-12-15 | 2012-07-05 | Canon Inc | 画像処理装置及びその制御方法、プログラム |
US20120182276A1 (en) * | 2011-01-19 | 2012-07-19 | Broadcom Corporation | Automatic adjustment of display systems based on light at viewer position |
US20120229487A1 (en) * | 2011-03-11 | 2012-09-13 | Nokia Corporation | Method and Apparatus for Reflection Compensation |
US20150089551A1 (en) * | 2013-09-20 | 2015-03-26 | Echostar Technologies L. L. C. | Environmental adjustments to perceive true content |
JP2017523481A (ja) * | 2014-05-28 | 2017-08-17 | インオプテック リミテッド, ツヴァイクニーダーラッスング ドイチュランド | 電子眼鏡 |
US20180211440A1 (en) * | 2015-07-21 | 2018-07-26 | Dolby Laboratories Licensing Corporation | Surround ambient light sensing, processing and adjustment |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8965460B1 (en) | 2004-01-30 | 2015-02-24 | Ip Holdings, Inc. | Image and augmented reality based networks using mobile devices and intelligent electronic glasses |
US8269692B2 (en) * | 2007-11-20 | 2012-09-18 | Panasonic Corporation | Image display apparatus, display method thereof, program, integrated circuit, goggle-type head-mounted display, vehicle, binoculars, and desktop display |
US8786675B2 (en) | 2008-01-23 | 2014-07-22 | Michael F. Deering | Systems using eye mounted displays |
US10180572B2 (en) | 2010-02-28 | 2019-01-15 | Microsoft Technology Licensing, Llc | AR glasses with event and user action control of external applications |
US9098731B1 (en) | 2011-03-22 | 2015-08-04 | Plickers Inc. | Optical polling platform methods, apparatuses and media |
US9123272B1 (en) * | 2011-05-13 | 2015-09-01 | Amazon Technologies, Inc. | Realistic image lighting and shading |
US8752963B2 (en) | 2011-11-04 | 2014-06-17 | Microsoft Corporation | See-through display brightness control |
US9101312B2 (en) | 2012-04-18 | 2015-08-11 | TBI Diagnostics LLC | System for the physiological evaluation of brain function |
EP2893388B1 (en) | 2012-09-03 | 2016-08-03 | SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH | Head mounted system and method to compute and render a stream of digital images using a head mounted system |
US20150169780A1 (en) | 2012-10-09 | 2015-06-18 | Nokia Corporation | Method and apparatus for utilizing sensor data for auto bookmarking of information |
CN103793104B (zh) * | 2012-10-31 | 2017-05-03 | 原相科技股份有限公司 | 具有亮度补偿的光学触控系统及其亮度补偿方法 |
US20140333773A1 (en) | 2013-05-11 | 2014-11-13 | Randy James Davis | Portable audio/ video mask |
US10686972B2 (en) | 2013-09-03 | 2020-06-16 | Tobii Ab | Gaze assisted field of view control |
US9762895B1 (en) | 2014-03-11 | 2017-09-12 | Rockwell Collins, Inc. | Dual simultaneous image presentation for a three-dimensional aviation display |
US10268041B2 (en) | 2014-05-24 | 2019-04-23 | Amalgamated Vision Llc | Wearable display for stereoscopic viewing |
EP3161828A4 (en) | 2014-05-27 | 2017-08-09 | Chase, Stephen | Video headphones, systems, helmets, methods and video content files |
US9626936B2 (en) | 2014-08-21 | 2017-04-18 | Microsoft Technology Licensing, Llc | Dimming module for augmented and virtual reality |
US10540818B2 (en) | 2015-04-15 | 2020-01-21 | Google Llc | Stereo image generation and interactive playback |
US10888222B2 (en) * | 2016-04-22 | 2021-01-12 | Carl Zeiss Meditec, Inc. | System and method for visual field testing |
CN109983755A (zh) * | 2016-06-30 | 2019-07-05 | 北方公司 | 基于眼睛跟踪自动聚焦的图像捕获系统、设备和方法 |
US20180068449A1 (en) * | 2016-09-07 | 2018-03-08 | Valve Corporation | Sensor fusion systems and methods for eye-tracking applications |
CN110679147B (zh) | 2017-03-22 | 2022-03-08 | 奇跃公司 | 用于显示系统的基于深度的凹式渲染 |
US10459534B2 (en) | 2017-07-14 | 2019-10-29 | Thirdeye Gen, Inc. | System and method for large data augmented reality applications on smartglasses |
-
2020
- 2020-09-03 CN CN202080062273.2A patent/CN114365077B/zh active Active
- 2020-09-03 WO PCT/US2020/049239 patent/WO2021046242A1/en unknown
- 2020-09-03 JP JP2022514526A patent/JP7439243B2/ja active Active
- 2020-09-03 EP EP20771958.4A patent/EP4025990A1/en active Pending
- 2020-09-03 US US17/640,803 patent/US11996023B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010186044A (ja) * | 2009-02-12 | 2010-08-26 | Funai Electric Co Ltd | 表示装置 |
JP2012128206A (ja) * | 2010-12-15 | 2012-07-05 | Canon Inc | 画像処理装置及びその制御方法、プログラム |
US20120182276A1 (en) * | 2011-01-19 | 2012-07-19 | Broadcom Corporation | Automatic adjustment of display systems based on light at viewer position |
US20120229487A1 (en) * | 2011-03-11 | 2012-09-13 | Nokia Corporation | Method and Apparatus for Reflection Compensation |
US20150089551A1 (en) * | 2013-09-20 | 2015-03-26 | Echostar Technologies L. L. C. | Environmental adjustments to perceive true content |
JP2017523481A (ja) * | 2014-05-28 | 2017-08-17 | インオプテック リミテッド, ツヴァイクニーダーラッスング ドイチュランド | 電子眼鏡 |
US20180211440A1 (en) * | 2015-07-21 | 2018-07-26 | Dolby Laboratories Licensing Corporation | Surround ambient light sensing, processing and adjustment |
Also Published As
Publication number | Publication date |
---|---|
CN114365077B (zh) | 2024-01-02 |
EP4025990A1 (en) | 2022-07-13 |
US11996023B2 (en) | 2024-05-28 |
WO2021046242A1 (en) | 2021-03-11 |
US20220375378A1 (en) | 2022-11-24 |
JP7439243B2 (ja) | 2024-02-27 |
CN114365077A (zh) | 2022-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8670000B2 (en) | Optical display system and method with virtual image contrast control | |
TWI638188B (zh) | 顯示裝置、頭部配戴型顯示裝置、顯示系統及顯示裝置之控制方法 | |
US8884984B2 (en) | Fusing virtual content into real content | |
US20120154277A1 (en) | Optimized focal area for augmented reality displays | |
US11575877B2 (en) | Utilizing dual cameras for continuous camera capture | |
US11089427B1 (en) | Immersive augmented reality experiences using spatial audio | |
US11353955B1 (en) | Systems and methods for using scene understanding for calibrating eye tracking | |
US10867174B2 (en) | System and method for tracking a focal point for a head mounted device | |
KR20220126776A (ko) | 머리-착용 디스플레이 디바이스들에 대한 눈 추적 시스템 | |
US11719939B2 (en) | Eyewear device dynamic power configuration | |
EP4172708A1 (en) | Visual-inertial tracking using rolling shutter cameras | |
KR20230022239A (ko) | 증강 현실 환경 향상 | |
GB2548151A (en) | Head-mountable display | |
JP7439243B2 (ja) | 視聴者同期の照明検知 | |
CN110968191B (zh) | 用于涉及头戴式设备的场景的动态环境照明控制 | |
US11789266B1 (en) | Dynamic sensor selection for visual inertial odometry systems | |
US11619814B1 (en) | Apparatus, system, and method for improving digital head-mounted displays | |
TWI683135B (zh) | 頭戴型顯示裝置及用於其之調整方法 | |
US11030817B2 (en) | Display system and method of using environment map to generate extended-reality images | |
US20230168522A1 (en) | Eyewear with direction of sound arrival detection | |
TW202405515A (zh) | 光傳輸之自適應控制 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220426 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230317 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230418 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230608 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230815 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231113 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7439243 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |