JP2023526011A - ディスプレイズームレベルの決定 - Google Patents
ディスプレイズームレベルの決定 Download PDFInfo
- Publication number
- JP2023526011A JP2023526011A JP2022568525A JP2022568525A JP2023526011A JP 2023526011 A JP2023526011 A JP 2023526011A JP 2022568525 A JP2022568525 A JP 2022568525A JP 2022568525 A JP2022568525 A JP 2022568525A JP 2023526011 A JP2023526011 A JP 2023526011A
- Authority
- JP
- Japan
- Prior art keywords
- user
- zoom level
- face
- display
- head
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000001815 facial effect Effects 0.000 claims abstract description 127
- 238000000034 method Methods 0.000 claims abstract description 119
- 238000003384 imaging method Methods 0.000 claims abstract description 79
- 230000008859 change Effects 0.000 claims abstract description 36
- 230000004044 response Effects 0.000 claims abstract description 8
- 238000012545 processing Methods 0.000 claims description 29
- 238000013442 quality metrics Methods 0.000 claims description 7
- 210000003128 head Anatomy 0.000 description 105
- 230000000694 effects Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 230000008921 facial expression Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 238000012907 on board imaging Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000003370 grooming effect Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/17—Image acquisition using hand-held instruments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Studio Devices (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
一実施形態において、コンピュータにより実施される方法100が記載されている。方法は、ユーザのイメージングデータから特定の顔面ジェスチャを識別するステップ102を有する。方法は、特定の顔面ジェスチャがユーザの顔を表示するのに用いられる特定のズームレベルを示すかを決定するステップ104をさらに有する。ユーザの顔を表示するのに用いられる以前に決定されたズームレベルの代わりに、特定のズームレベルが用いられるべきであると決定するステップに応答して、ユーザの顔のビデオ画像を示しているディスプレイは、特定のズームレベルと以前に決定されたズームレベルとの差に基づいて、ビデオ画像上のユーザの顔の少なくとも一部の表示されたサイズを変更させられる。
Description
本発明は、ディスプレイズームレベルを決定するための方法、装置及び有形の機械可読媒体に関する。
パーソナルケア活動に対応するユーザは、ミラーを用いて、この活動を支援する。ユーザは、自分自身をミラーで見るとき、適切にミラーの固定フレーム内で自分の顔の位置決めを調整する。パーソナルケア活動を支援する新たな技術は、いわゆるスマートミラーである。スマートミラーは、ユーザの反射又はユーザの反射の表現(例えば、ディスプレイ上の)に加えて、ユーザに強化された視覚情報を提供する。この強化された視覚情報は、ユーザのパーソナルケア活動、例えば、健康管理モニタリング、セルフケア(例えば、口腔衛生の検査及び維持、スキンケアへの対応、化粧)、身繕いなどを支援する。スマートミラーに加えて、ユーザの視覚表現を表示することができるユーザデバイス、例えば、スマートフォン、タブレット、スマートウォッチ、拡張現実眼鏡及び/又はディスプレイを有する他の任意のデバイスは、(例えば、ユーザの画像を獲得するオンボードデバイスカメラのようなイメージングデバイスを用いることにより)スマートミラー技術に類似の機能を提供する。
いくつかのパーソナルケア活動は、既存の技術を用いて実行するのが困難である。例えば、ユーザの顔又は頭部の特定の部分は、反射において、又は、ユーザの反射の表現においてディスプレイで見るのが困難である。ユーザが自分の顔又は頭部の特定の部分を視覚化する際に支援可能である場合、ユーザは、特定のパーソナルケア活動を実行することがより容易であると分かる。
本願明細書において記載されている態様又は実施形態は、ユーザが自分の顔又は頭部の特定の部分を視覚化する際に支援することに関する。本願明細書において記載されている態様又は実施形態は、ユーザの反射の表現を表示するためにミラー又はディスプレイの前でパーソナルケア活動を実行しているユーザに関連付けられた1つ又は複数の問題を取り除く。
第1の態様において、方法が記載されている。方法は、コンピュータにより実施される方法である。方法は、ユーザのイメージングデータから特定の顔面ジェスチャを識別するステップを有する。方法は、特定の顔面ジェスチャがユーザの顔を表示するのに用いられる特定のズームレベルを示すかを決定するステップをさらに有する。方法は、ユーザの顔を表示するのに用いられる以前に決定されたズームレベルの代わりに、特定のズームレベルが用いられるべきであると決定するステップに応答して、特定のズームレベルと以前に決定されたズームレベルとの差に基づいて、ユーザの顔のビデオ画像を示しているディスプレイに、ビデオ画像上のユーザの顔の少なくとも一部の表示されたサイズを変更させるステップをさらに有する。
第1の態様に関するいくつかの実施形態が後述される。
いくつかの実施形態において、イメージングデータから特定の顔面ジェスチャを識別するステップは、基準の方向に対してユーザの頭部の方向を識別するステップを有する。識別された方向は、用いられる特定のズームレベルを示す。
いくつかの実施形態において、ユーザのイメージングデータから特定の顔面ジェスチャを識別するステップは、ユーザが特定の顔面ジェスチャを実行したか否かを決定するために、基準点又は基準軸に対するユーザの顔の位置を追跡するステップを有する。基準点又は基準軸に対するユーザの顔の位置を追跡するステップは、顔面ランドマークと基準点との間の距離及び/又は基準軸に対するユーザの頭部の方向を、用いられる特定のズームレベルに対する変化を示す閾値と比較するステップを有する。
いくつかの実施形態において、ユーザの頭部の方向のための閾値は、ユーザの頭部ヨーのために1度と45度との間であり、ユーザの頭部ピッチのために1度と45度との間である。
いくつかの実施形態において、特定のズームレベルを決定するステップは、基準点又は基準軸に対するユーザの顔の位置の変化が、用いられる特定のズームレベルを示す特定の顔面ジェスチャに対応するか否かを決定するステップを有する。
いくつかの実施形態において、基準点又は基準軸は、ユーザの頭部の基準のヨー、ユーザの頭部の基準のピッチ、及び/又は、ユーザの頭部とディスプレイ又はイメージングデータを獲得するためのイメージングデバイスとの間に定義される軸に対するユーザの頭部の基準の横方向オフセットに対応する。
いくつかの実施形態において、特定の顔面ジェスチャは、それぞれ基準のヨー、基準のピッチ及び/又は基準の横方向オフセットに対するユーザの頭部のヨー、ピッチ及び/又は横方向オフセットの変化を備える。
いくつかの実施形態において、特定のズームレベルが用いられるべきであると決定するステップは、ユーザの頭部のヨー、ピッチ及び/又は横方向オフセットの変化に基づく。用いられる特定のズームレベルは、それぞれ基準のヨー、基準のピッチ及び/又は基準の横方向オフセットに対するユーザの頭部のヨー、ピッチ及び/又は横方向オフセットの差に依存して連続的に変化するか、又は、それぞれ閾値を越える、基準のヨー、基準のピッチ及び/又は基準の横方向オフセットに対するユーザの頭部のヨー、ピッチ及び/又は横方向オフセットの差に応じて急激に変化する。
いくつかの実施形態において、方法は、ユーザの顔の寸法、ユーザの顔とイメージングデータを獲得するためのイメージングデバイスとの間の距離及び/又はディスプレイの解像度に基づいて、ユーザの顔が完全にディスプレイ上に表示されることを確実にするために、第1の特定のズームレベルが用いられるべきであると決定するステップと、ユーザが特定の顔面ジェスチャを実行したことを識別すると、ユーザの顔の少なくとも一部を示すために、第2の増加した特定のズームレベルが用いられるべきであると決定するステップとを有する。
いくつかの実施形態において、第1及び/又は第2の特定のズームレベルは、画像品質測定基準が、第1及び第2の特定のズームレベルの両方でユーザの顔をディスプレイ上に表示するために満たされるように、ディスプレイの解像度及び/又は第1及び第2の特定のズームレベルでユーザの顔を表示するのに用いられるディスプレイの比例エリアを定義する特定のフィルファクタに基づいて計算される。
いくつかの実施形態において、方法は、ユーザの顔のビデオ画像を示しているディスプレイに、特定のズームレベルでユーザの顔の少なくとも一部を示させるステップと、識別された特定の顔面ジェスチャに基づいて、第1及び第2の特定のズームレベルの一方が、第1及び第2の特定のズームレベルの他方の代わりに用いられることを決定するステップと、を有する。方法は、ディスプレイに、時間遅延の後用いられる第1又は第2の特定のズームレベルでユーザの顔の少なくとも一部を示させるステップをさらに有する。
いくつかの実施形態において、方法は、イメージングデバイスにイメージングデータを獲得させるステップを有する。
第2の態様において、有形の機械可読媒体が記載されている。有形の機械可読媒体は、命令を格納し、この命令は、少なくとも1つのプロセッサによって実行されるとき、少なくとも1つのプロセッサに第1の態様に従う方法又は任意の関連した実施形態を実施させる。
第3の態様において、装置が記載されている。装置は、処理回路を備える。処理回路は、ユーザのイメージングデータから特定の顔面ジェスチャを識別するように構成される識別モジュールを備える。処理回路は、特定の顔面ジェスチャがユーザの顔を表示するのに用いられる特定のズームレベルを示すかを決定するように構成される決定モジュールをさらに備える。処理回路は、ユーザの顔を表示するのに用いられる以前に決定されたズームレベルの代わりに、特定のズームレベルが用いられるべきであると決定することに応答して、特定のズームレベルと以前に決定されたズームレベルとの差に基づいて、ユーザの顔のビデオ画像を示しているディスプレイに、ビデオ画像上のユーザの顔の少なくとも一部の表示されたサイズを変更させるように構成される制御モジュールをさらに備える。
第3の態様に関する一実施形態が後述される。
いくつかの実施形態において、装置は、ディスプレイ及び/又はイメージングデータを獲得するためのイメージングデバイスをさらに備える。
本発明のこれら及び他の態様は、以下に記載されている実施形態を参照することで明らかになり、解明される。
本発明の例示的な実施形態は、単に実施形態として以下の図面を参照して記載されている。
図1は、一実施形態に従うディスプレイズームレベルを決定する方法100(例えば、コンピュータにより実施される方法)を示す。例えば、方法100は、ユーザの表現を示すときに用いるディスプレイ(例えば、スマートミラー又はユーザの視覚表現を表示することができる他のデバイス)のための特定のズームレベルの決定を容易にすることができる。したがって、ディスプレイ寸法、ユーザ(例えば、顔面)寸法及びディスプレイに対するユーザの近さのような要因に応じて、方法100は、ユーザがディスプレイ上に拡大又は縮小されて示されるべきか否かを決定する。例えば、ディスプレイの寸法が十分に大きい場合、ユーザの画像は、ユーザの顔の実際の寸法と比較して拡大される。一方、ディスプレイの寸法がユーザの顔の実際の寸法より小さい場合、ユーザの顔の画像は、縮小されてディスプレイ上に示される。以下に詳述するように、ディスプレイのためのズームレベルの決定は、ユーザ入力に基づいて決定される。例えば、顔面ジェスチャのようなユーザ入力を用いて、ディスプレイのためのズームレベルを決定する。
方法100は、ブロック102において、ユーザのイメージングデータから特定の顔面ジェスチャを識別するステップを有する。例えば、方法100は、イメージングデータのフレーム間のユーザの動きが、認識可能な顔面ジェスチャか顔面の動きの手がかりに対応するか否かを決定することができる。
(例えば、顔ランドマーク検出アルゴリズムを用いた)顔面の追跡は、ユーザの顔の動きを検出するために実行される。ユーザの顔面の動きに関するこの情報は、それが特定の顔面ジェスチャに対応するか否かを見るために分析される。例えば、ユーザの顔面の動きに関する情報は、モデル(例えば、特定の顔面ジェスチャの画像シーケンスで訓練された機械学習モデル)に入力され、ユーザの顔面の動きが特定の顔面ジェスチャに対応するか否かを識別する。
一例において、顔面ジェスチャは、ユーザが、自分の表情を変えながら又は変えずに自分の頭部を動かすことを有する。他の例では、顔面ジェスチャは、ユーザが、自分の頭部を動かすか又は動かさずに自分の表情を変えることを有する。いずれにせよ、自分の頭部を動かすこと及び/又は自分の表情を変えることによるユーザの顔の動きは、特定の顔面ジェスチャ又は顔面の動きの他の手がかりに対応する。
一例において、(例えば、ユーザの頭部の基準の方向に対応する)基準の顔面位置は、(例えば、ユーザのイメージングデータを獲得するための)イメージングデバイス及び/又は(例えば、ユーザの顔の画像又はその他の視覚表現を示すための)ディスプレイに対して定義される。例えば、基準の顔面位置は、イメージングデバイス及び/又はディスプレイに対して自分の頭部のヨー、ピッチ、回転及び/又は横方向オフセットなしで(例えば、「基準の方向」)、イメージングデバイス及び/又はディスプレイをまっすぐに「見る」ようにユーザの顔が位置決めされることによって定義される。本願明細書において記載されているように、基準の方向は、イメージングデバイス及び/又はディスプレイに対するユーザの頭部の基準のヨー、ピッチ及び横方向オフセットを参照する。
以下でさらに詳細に述べられる一例において、ユーザは、例えば、自分の頭部のヨー、ピッチ、回転及び/又は横方向オフセットを変えることによって、自分の顔を動かす。自分の顔のこの種の動きは、基準の顔面位置から離れるか、又は、基準の顔面位置の方に向かう。一例において、閾値を超えるヨー及び/又はピッチの特定の変化による基準の顔面位置から離れるユーザの顔の動きは、「特定の」顔面ジェスチャに対応する。他の例では、(例えば、閾値を以前に超えた位置から)基準の顔面位置の方へのユーザの顔の動きは、「特定の」顔面ジェスチャに対応する。言い換えれば、閾値ヨー及び/又はピッチが定義され、閾値ヨー及び/又はピッチを越えるような顔面の動きの場合、この動きは、「特定の」顔面ジェスチャとみなされる。
いくつかの実施形態において、イメージングデータから特定の顔面ジェスチャを識別することは、基準の方向に対してユーザの頭部の方向を識別することを有する。識別された方向は、用いられる特定のズームレベルを示す。
一例において、ユーザの顔の動きが特定の顔面ジェスチャに対応することをモデルが示す場合、この指示を用いて、ユーザの顔がディスプレイ上に示されるやり方に特定の変化を引き起こすか、又は、どんな情報が現在ディスプレイ上に示されるかに対する何らかの他の変化を引き起こす。
ユーザの顔のすべての動きが、特定の顔面ジェスチャに対応するわけではない。したがって、一例において、ユーザが特定の顔面ジェスチャに対応する顔面の動きを実行しなかったことをモデルが示す場合、ユーザの顔がディスプレイ上に示されるやり方、又は、どんな情報がディスプレイ上に示されるかに対する変化はない。
方法100は、ブロック104において、特定の顔面ジェスチャがユーザの顔を表示するのに用いられる特定のズームレベルを示すかを決定するステップをさらに有する。したがって、特定の顔面ジェスチャが識別されるとき、対応する(すなわち、特定の)ズームレベルを選択することができる。特定のズームレベルは、ユーザの顔をビデオ画像に表示するのに現在用いられる現在のズームレベル(例えば、以前に決定されたズームレベル)の代わりに選択される。
例えば、(例えば、所定の)顔面ジェスチャのセットが存在し、ユーザがその顔面ジェスチャを実行する場合、各顔面ジェスチャは、用いられる特定のズームレベルに関連付けられる。
方法100は、ユーザの顔を表示するのに用いられる以前に決定されたズームレベルの代わりに、特定のズームレベルが用いられるべきであると決定するステップに応答して、ブロック106において、特定のズームレベルと以前に決定されたズームレベルとの差に基づいて、ユーザの顔のビデオ画像を示しているディスプレイに、ビデオ画像上のユーザの顔の少なくとも一部の表示されたサイズを変更させるステップをさらに有する。
他の要因、例えば、ディスプレイ解像度並びにイメージングデバイス及び/又はディスプレイからのユーザ距離は、ディスプレイの用途に対する適切なズームレベルであるものに影響を及ぼすが、顔面ジェスチャのセットのための特定のズームレベルは、比較のズームレベルを参照する。例えば、基準の顔面位置においてユーザの顔を示すための特定の(基準の)ズームレベルと、ユーザの頭部のヨー及び/又はピッチが閾値に等しいか又は閾値を超えるとき、ユーザの顔を示すための特定の(拡大された)ズームレベルと、の間の差は、要因に関連する(例えば、要因は、特定の拡大されたズームレベルと基準のズームレベルとの間の比率に関連する)。
したがって、特定のズームレベルが基準のズームレベルから拡大されたズームレベルに切り替わる場合、ディスプレイによって示される画像は、要因によって(さらに)拡大される。対応して、特定のズームレベルが拡大されたズームレベルから基準のズームレベルに切り替わる場合、ディスプレイによって示される画像は、要因によって縮小される。
ディスプレイ上に表示されるユーザの顔の量は、特定の要因、例えば、特定のズームレベル、ディスプレイの解像度、ユーザの実際の顔面寸法及び/又はユーザの顔とイメージングデバイス及び/又はディスプレイとの間の距離に依存する。一例において、ユーザの顔全体は、ディスプレイ上に表示される(例えば、特定のズームレベルが基準の顔面位置に対応する場合)。他の例では、ユーザの顔の一部(すなわち、部分)は、ディスプレイ上に表示される(例えば、特定のズームレベルが基準の顔面位置のために特定されるズームレベルと比較して拡大される場合)。
特定の顔面ジェスチャを実行することによって、ユーザは、ディスプレイに、ディスプレイのための特定のズームレベルを自動的に変更させ、例えば、ユーザのパーソナルケア活動を支援するために、ユーザの顔の少なくとも一部の表示されたサイズを変更させる。ユーザが自分の顔の特定の部分を見ることを困難にする特定の顔面位置が存在する。例えば、ユーザが(例えば、自分の頭部のヨー及び/又はピッチを変えることによって)基準の顔面位置に対して自分の頭部を回転させる場合、これは、ディスプレイに、ユーザの顔の少なくとも一部の拡大バージョンを示させる特定の顔面ジェスチャに対応する。ユーザの顔の少なくとも一部の拡大バージョンは、ユーザが自分の顔の特定の部分を見ることをより容易にし、このことは、ユーザのパーソナルケア活動を支援する。
一例において、ユーザの顔が基準の顔面位置にある場合、ユーザの顔は、ディスプレイサイズの90%を占めるものとして示される。特定のズームレベルが拡大される場合、ユーザの顔の少なくとも一部(例えば、「顔面ゾーン」)又は頭部は、ディスプレイによって示される。いくつかの場合には、これは、ユーザの顔の部分が拡大されたので、ユーザの顔の一部がディスプレイにおいて見えないことを意味する。しかしながら、ディスプレイにより、ユーザが拡大せずに見るのが困難かもしれない自分の顔の一部又は頭部を見ることがより容易になる場合、ユーザは、パーソナルケア活動に集中することがより容易であると分かる。
図2は、一実施形態に従うユーザ202を支援するためのシステム200を示す。システム200は、装置204、例えば、スマートミラー又はディスプレイ(図示せず)を備える他のユーザデバイス又はユーザ202の視覚表現を表示することができる他のデバイスを備える。装置204は、ユーザ202のイメージングデータを獲得するためのセルフィーカメラ(図示せず)のようなオンボードイメージングデバイスを備える。図2において、ユーザ202は、ユーザ202が見ることができるように、ディスプレイ上に表示されるユーザ202の画像を獲得するオンボードイメージングデバイスに使用中に向いているように、装置204に向いている。
システム200は、本願明細書において記載されている特定の方法(例えば、図1の方法100又は後述する任意の方法)を実施するための処理回路206をさらに含む。図2の処理回路206は、装置204自体に対して別個のエンティティである。例えば、図2において、処理回路206は、サーバ又はクラウドベースのサービスのようなエンティティによって実施される。装置204及び処理回路206は、それらの間でデータを交換するために(例えば、処理回路206が装置204からイメージングデータを獲得するように、及び/又は、装置204のディスプレイ上に何が示されるかを制御するための命令を提供するように)通信可能に結合される。他の実施形態では、処理回路206は、装置204自体によって実施される。
ユーザ202は、種々のやり方で自分の頭部及び装置204の相対的な位置決めを変更する。2つの例の頭部の動きのタイプは、第1の垂直軸208a及び第2の垂直軸208bによって表現される。第1の軸208aの周りの頭部回転は、ユーザが自分の頭部のピッチを変更すること(すなわち、自分の頭部を上又は下に動かすこと)に対応する。ピッチの影響の類似の変化は、ユーザの顔に対して上下に装置204を動かしながら、装置204をユーザの頭部に向いたままにすることによって観察される。第2の軸208bの周りの頭部回転は、ユーザが自分の頭部のヨーを変更すること(すなわち、自分の頭部を左又は右に向けること)に対応する。ヨーの影響の類似の変化は、ユーザの顔に対して左又は右に装置204を動かしながら、装置204をユーザの頭部に向いたままにすることによって観察される。
第1の軸208a及び第2の軸208bによって定義される面に垂直なさらなる軸210は、ユーザの頭部と装置204のディスプレイ及び/又はイメージングデバイスとの間に定義される。この例では、軸210は、装置204によって定義される面上の中心位置から垂直に延在する(例えば、装置204のディスプレイは、この種の面を定義し、ディスプレイの中心は、中心位置を参照する)。図2によって示すように、ユーザ202は、装置204に向いているので、「基準の方向」にいる。この点に関して、軸210に対するユーザの頭部の基準の横方向オフセットは、ユーザの顔の中心が軸210に整列するように存在する。
したがって、ユーザの頭部が、基準の横方向オフセットに対して横に、上に又は下に動く場合(すなわち、「横方向オフセットの変化」)、ユーザの顔の中心は、軸210にもはや整列しない。言い換えれば、ユーザ202は、自分の頭部又は装置204の向く方向を変えることなく、第1の軸208a及び第2の軸208bによって定義される面内で又は面に平行に装置204に対して自分の頭部を動かす。
相対的な位置決めのさらなるタイプは、ユーザ202が、さらなる軸210の周りで自分の頭部を回転させる及び/又は自分の頭部に対して装置204を動かして同じ「回転」の影響を生成する「回転」を含む。
装置204の観点から、ユーザの頭部の位置決めにおける任意の見かけの変化は、装置204に対するユーザの頭部のピッチ、ヨー、回転及び/又は横方向オフセットの変化として現れる。ユーザ202が特定の顔面ジェスチャを実行したか否かを決定するとき、システム200は、これらのさまざまな潜在的な動きのタイプを考慮し、装置204のディスプレイ上に示されるものに対する変化を引き起こすべきか否かを決定する。
図3は、ユーザ302が(例えば、ディスプレイ310に対して自分の頭部を動かすことによって)特定の顔面ジェスチャを実行するとき、何が(例えば、図2の装置204のような装置の)ディスプレイ310に示されるかをより詳細に示す。
図3(a)から図3(c)は、ユーザ302が(第1の軸308aの周りで自分の頭部を回転させることによって)自分の頭部のピッチを変えていることを示す。図3(a)において、ユーザ302は、(例えば、「上方を見る」ために)ディスプレイ310に対して自分の頭部を上に回転させた。図3(b)において、ユーザ302は、ディスプレイ310をまっすぐに見ている(例えば、「基準の顔面位置」)。図3(c)において、ユーザ302は、(例えば、「下方を見る」ために)ディスプレイ310に対して自分の頭部を下に回転させた。図3(b)において、ユーザ302は、(自分の実際の顔面寸法と比較して)ディスプレイ310上に拡大された形で示され、自分の顔全体は、自分の顔を示すために用いられるディスプレイ310の大部分でディスプレイにおいて見える。図3(a)において、ユーザの頭部のピッチに対する変化は、「特定の顔面ジェスチャ」とみなされるので、ディスプレイ310は、ユーザの顔のズームイン画面(すなわち、さらに拡大された画面)を示す。この例では、ユーザの顔の部分のみ(すなわち、自分の鼻及び口)が、拡大のレベルのためディスプレイ310において見えるが、他の例では、ディスプレイ310は十分に大きい、及び/又は、拡大のレベルは異なるので、ユーザの顔全体は、実質的に又は完全にディスプレイ310上で見える。類似のズームイン画面は図3(c)に示され、ユーザの顔の部分のみ(すなわち、自分の目及び鼻)が見える。図3(b)の顔面位置に戻ることは(すなわち、図3(a)又は3(c)から)他の「特定の顔面ジェスチャ」とみなされるので、ディスプレイ310は、ユーザの顔の比較的ズームアウトされた画面を示す。
図3(d)から図3(f)は、ユーザ302が(第2の軸308bの周りで自分の頭部を回転させることによって)自分の頭部のヨーを変えていることを示す。図3(d)において、ユーザ302は、ディスプレイ310に対して自分の頭部を右に回転させた。図3(e)において、ユーザ302は、ディスプレイ310をまっすぐに見ている(例えば、「基準の顔面位置」)。図3(e)は、図3(b)と同一である。図3(f)において、ユーザ302は、ディスプレイ310に対して自分の頭部を左に回転させた。図3(d)において、ユーザの頭部のヨーに対する変化は、「特定の顔面ジェスチャ」とみなされるので、ディスプレイ310は、ユーザの顔の左側(すなわち、ユーザの左側)のズームイン画面(すなわち、さらに拡大された画面)を示す。類似のズームイン画面は、ユーザの顔の右側が示される図3(f)に示される。
ユーザ302が、基準の顔面位置に対して特定の(例えば、閾値)量のピッチ及び/又はヨーによって自分の顔面位置を変えるとき、ディスプレイ310は、ユーザの顔(又は頭部)のズームイン画面を示すので、ユーザ302は、さもなければディスプレイ310において見るのが困難かもしれない自分の顔/頭部のその部分のためのパーソナルケア活動を実行することがより容易であると分かる。ズームイン/アウトは、ユーザ302が自分の顔面位置を変える及び/又は自分の顔/頭部に対してディスプレイ310を動かすことによって自動的に実行される。それゆえ、この自動的なズームイン/アウト機能によって、ユーザ302は、ディスプレイ310設定に対するいかなる変化を行うことについて考える必要なく、ディスプレイ310上に示されるものを直観的に変えることができる。言い換えれば、ユーザの顔又は頭部の見るのが困難なゾーンでのパーソナルケア活動に対応するためのユーザの顔面の動きは、ディスプレイ310にズームレベルを自動的に変えさせるので、ユーザ302は、任意の追加の入力をディスプレイ310に提供する必要なく、そのゾーンをより容易に見ることができる。
図4は、一実施形態に従うディスプレイズームレベルを決定する方法400を参照する。方法400は、図1のブロック102から106に対応する特徴を備え、それゆえ、図1に関して上記の特徴を参照する。同様に、図2のシステム200及び/又は図3の装置に関して記載されている任意の特徴は、方法400の説明において参照される。必要に応じて、図4の特定のブロックは省略される、及び/又は、図4の特定のブロックは図4によって描写されるのとは異なる順番で実施される。
いくつかの実施形態において、方法400のブロック402において、イメージングデバイス、例えば、装置(例えば、図2の装置204)のオンボードカメラ又は他のイメージングデバイス(例えば、これは、装置204とは別個のエンティティとすることができる)は、イメージングデータを獲得させられる。このイメージングデータは、ユーザのライブ映像の形である及び/又はユーザ202の画像のシーケンスを備える。
イメージングデータを獲得すると、方法400は、ブロック404において、顔検出及び/又は追跡を用いて(例えば、顔面ランドマーク検出アルゴリズムを用いて)イメージングデータからユーザの顔を検出するステップを有する。顔がイメージングデータにおいて検出されない場合、方法400のブロック406において、方法400は、(ブロック402において)顔が検出されるまで、イメージングデータをモニタし続ける。
しかしながら、一旦ブロック406において顔が検出されると、方法400は、ユーザの顔面寸法の測定値がイメージングデータから決定されるブロック408に進む。例えば、ユーザの顔の長さ及び/又は幅は、イメージングデータから決定される。この種の情報は、ユーザの顔とイメージングデバイスとの間の距離を決定するために用いられる。
それゆえ、一例において、ユーザ202がイメージングデバイスに近接している(近い)場合、方法400は、明らかに装置204の近くにいるようにユーザを示すのに用いるための適切なズームレベル(すなわち、拡大)を決定し、ユーザ202がイメージングデバイスから遠い(離れている)場合、方法400は、明らかに装置204から離れているようにユーザを示すのに用いるための適切なズームレベルを決定する。
他の例では、ズームレベルは、ユーザの顔とイメージングデバイスとの間の距離に従って設定されるので、ユーザの顔は、特定のサイズで装置204のディスプレイ上に表示される(例えば、ユーザの顔は、ユーザがイメージングデバイスからどれくらい離れているかに関係なくディスプレイ上に同一サイズとして示される)。
ディスプレイの解像度は、ズームレベルを決定する際の要因である。例えば、ディスプレイが高解像度を有する場合、ズームレベルは、ユーザ202によって見られる画像を歪めるか又はピクセル化することなく、高倍率を提供するために設定される。しかしながら、ディスプレイが低解像度を有する場合、ズームレベルは、より低い倍率を提供し、ユーザ202によって見られる画像を歪めるか又はピクセル化することを減少する。
いくつかの実施形態では、ブロック410において、方法400は、ユーザの顔が完全にディスプレイ上に表示されることを確実にするために、第1の特定のズームレベル(例えば、「基準のズームレベル」)が用いられるべきであると決定するステップを有する。この第1の特定のズームレベルは、ユーザの顔の寸法、ユーザの顔とイメージングデータを獲得するためのイメージングデバイスとの間の距離及び/又はディスプレイの解像度に基づく。第1の特定のズームレベルは、「セルフィーカメラ」画像において見られる通常のズームレベルではなく、拡大されたズームレベルである(ただし、これは、ユーザの顔とイメージングデバイスとの間の距離に依存する)。第1の特定のズームレベルは、ユーザの実際の顔面寸法に対して特定の比率(例えば、倍率1.7)であると計算され、ディスプレイ解像度も考慮する。
方法400は、ブロック410において、ユーザ202が特定の顔面ジェスチャを実行したことを識別すると、ユーザの顔の少なくとも一部を示すために、第2の増加した特定のズームレベル(例えば、上記のような「エリアズームレベル」又は「拡大されたズームレベル」)が用いられるべきであると決定するステップをさらに有する。第2の特定のズームレベルは、(第1の特定のズームレベルに対して)定数係数によって計算され、ディスプレイの解像度に依存する。
いくつかの実施形態において、第1及び/又は第2の特定のズームレベルは、画像品質測定基準が、第1及び第2の特定のズームレベルの両方でユーザの顔をディスプレイ上に表示するために満たされるように、ディスプレイの解像度及び/又は第1及び第2の特定のズームレベルでユーザの顔を表示するのに用いられるディスプレイの比例エリアを定義する特定のフィルファクタに基づいて計算される。
ディスプレイの比例エリアは、ディスプレイエリアのどのくらい多くがユーザの顔を表示するのに用いられるかを参照する。
一例の画像品質測定基準は、ユーザの顔の一部を表示するための最小解像度である。デジタルズームが用いられる場合、解像度は、その一部が拡大されるとき低下する。一例において、ユーザの顔の一部が第1及び第2の特定のズームレベルの両方で、少なくとも最小解像度で表示される場合、画像品質測定基準が満たされる。したがって、第1及び第2の特定のズームレベルは、あまりに遠くをズームインするのを回避するように選択され、このことは、もはや満たされていない画像品質測定基準に関連付けられている。
一例において、方法400は、ディスプレイの特定の割合がユーザの顔を示すために用いられることを確実にする。例えば、ディスプレイ幅及び/又は高さの第1の比率(例えば、60%から90%の間又は他の任意の適切な範囲)がユーザの顔を示すために用いられ(例えば、第1の特定のズームレベルであるとき)、ディスプレイ幅及び/又は高さの第2のより高い比率(例えば、70%と100%との間又は他の任意の適切な範囲)がユーザの顔を示すために用いられる(例えば、第2の特定のズームレベルであるとき)。ディスプレイの高さ及び/又は幅の100%が用いられる場合、これは、特定のズームレベルがあまりに高いので、及び/又は、ディスプレイが特定のズームレベルでユーザの顔全体を示すにはあまりに小さいので、ユーザの顔のすべてが見えるわけではないことを示唆する。
第1及び第2のズームレベルの間の比率は、第1の割合に対する第2の割合の比を参照する。上述したように、用いられるズームレベルは、ユーザ202によって見られている歪み又は「ピクセル化」の影響を回避するために、換言すれば、画像品質測定基準が満たされることを確実にするためにディスプレイ解像度に依存する。
一旦第1及び第2の特定のズームレベルが決定されると、方法400は、ディスプレイに、第1の特定のズームレベルでユーザを示させるブロック412に進む。これにより、ユーザ202は、最初にディスプレイにおいて自分の顔全体を見ることができる。
次に、測定は、方法400のブロック414において実行され、ディスプレイに対するユーザの顔面位置を決定する(すなわち、イメージングデバイスによって観察されるユーザの頭部の方向に基づいて)。この例では、この測定は、ユーザの頭部のヨー及び/又はピッチを決定することを含む。上述したように、顔面ランドマーク検出を用いて、イメージングデータからユーザの顔面の動きを追跡する。
方法400のブロック416において、測定が成功していないと決定される場合、方法400は、現在のズームレベルが第2の特定のズームレベルに対応するか否かを決定するブロック418に進む。そうでない場合には、方法400は、ブロック414に戻る。そうである場合、方法400は、ブロック412において第1の特定のズームレベルへの戻りを遅延させるブロック420に進む。したがって、方法400がディスプレイに対するユーザの現在の顔面位置を決定することができず、現在のズームレベルが第2の特定のズームレベルである場合、方法400は、ディスプレイに第1の特定のズームレベルに戻らせる。遅延は、500msのオーダ又はユーザ202がズームレベルの変化によって混乱するのを回避する他の適切な遅延である。
いくつかの例において、ズームレベルの変化は、(例えば、第1及び第2の特定のズームレベルの間の急激な変化によって)瞬間的であるか、又は、(例えば、第1及び第2の特定のズームレベルの間の緩やかな変化によって)滑らかである。
方法400のブロック416において、測定が成功していると決定される場合、方法400は、ユーザの顔面位置が特定の顔面ジェスチャに対応するか否かを決定するブロック422に進む。この例では、ブロック422は、基準の顔面位置に対するユーザの顔のヨー及び/又はピッチが閾値に等しいか又は閾値を超えるかを決定する。そうでない場合には、方法400は、ブロック418に進む。そうである場合、方法400は、現在のズームレベルが第2の特定のズームレベルであるか否かを決定するブロック424に進む。そうである場合、方法400は、ブロック414に進む。言い換えれば、ユーザ202が特定の顔面ジェスチャを実行し、現在のズームレベルが第2の特定のズームレベルに設定される場合、方法400は、現在のズームレベルが依然として第2の特定のズームレベルに維持されるべきであることを確実にするためにユーザの顔面位置の点検を継続する。
ブロック424において、現在のズームレベルが第1の特定のズームレベルであると決定される場合、方法400は、ユーザの混乱を減少する遅延を伴って、ズームレベルが第2の特定のズームレベルに変更されるブロック426に進む。言い換えれば、ユーザ202が、(例えば、自分の頭部を、閾値を超えて動かすことによって)ズームレベルが増加されるべきであることを示す特定の顔面ジェスチャを実行した場合、次に、ディスプレイは、ユーザの顔の少なくとも一部を第2の特定のズームレベルで示す。
次に、方法400は、(例えば、顔ランドマーク検出を用いて)顔検出が実行されるブロック428に進み、次に、顔が検出されるか否かを決定するブロック430に進む。そうである場合、方法400は、ブロック414に進む。言い換えれば、ユーザ202が特定の顔面ジェスチャを実行し、現在のズームレベルが第2の特定のズームレベルに設定され、ユーザの顔が依然として検出可能な場合、方法400は、現在のズームレベルが依然として第2の特定のズームレベルに維持されるべきか否かを決定するためにユーザの顔面位置の点検を継続する。そうでない場合には、方法400は、ユーザの顔の検出を再構築するために、ブロック402に進む。これは、ユーザ202が特定の顔面ジェスチャを行ったか否かを再構築する前に、ブロック412において第1の特定のズームレベルに戻ることを含む。
いくつかの実施形態において、ユーザのイメージングデータから特定の顔面ジェスチャを識別することは、ユーザが特定の顔面ジェスチャを実行したか否かを決定するために、基準点又は基準軸に対するユーザの顔の位置を追跡することを有する。例えば、基準点又は基準軸は、ユーザの顔が基準の顔面位置にあることによって定義される。
いくつかの実施形態において、基準点又は基準軸に対するユーザの顔の位置を追跡することは、顔面ランドマークと基準点との間の距離及び/又は基準軸に対するユーザの頭部の方向を、用いられる特定のズームレベルに対する変化を示す閾値と比較することを有する。方法400において、ブロック422は、ユーザの頭部の閾値ヨー及び/又はピッチを参照する。したがって、閾値との比較は、特定のズームレベルが変更されることを示す。例えば、ユーザの頭部方向が閾値を越えたと検出されるため、現在のズームレベルが変更されるべきである場合、方法400は、ブロック418、420を介して(すなわち、以前にズームインされた後ズームアウトする)、又は、ブロック424から426を介して(すなわち、以前にズームアウトされた後ズームインする)412に進む。
いくつかの実施形態において、ユーザの頭部の方向のための閾値は、ユーザの頭部ヨーのために1度と45度との間であり、ユーザの頭部ピッチのために1度と45度との間である。一例において、ユーザの頭部の方向のための閾値は、ユーザの頭部ヨーのために10度と20度との間(例えば、15度)であり、ユーザの頭部ピッチのために20度と30度との間(例えば、25度)である。閾値ヨー及びピッチのためのこれらの例の値が、ユーザが自分の顔の部分を見ることがより困難であると分かる点を表現するということが分かっている。誤解を避けるために、閾値は、0度の上下にある。例えば、(0度のチルト及びヨーでの)基準の顔面位置に対して、閾値はユーザの頭部ヨーのために±15度に設定され、ユーザの頭部チルトのために±25度に設定される。
それゆえ、例えば、ユーザの頭部ヨーが15度未満であること及び/又は頭部ピッチが25度未満であることは、ユーザが、第1の特定のズームレベルでディスプレイにおいて自分の顔を適切に見ることができることを意味する。しかしながら、ユーザの頭部ヨーが15度以上である、及び/又は、自分の頭部ピッチが25度以上である場合、これは、ユーザがディスプレイにおいて自分の顔の少なくとも一部を、その一部をディスプレイが第2の特定のズームレベルで示さない限り、適切に又は容易に見ることができないことを意味する。したがって、第2の特定のズームレベルにズームすることによって、ユーザは、自分の顔の少なくとも一部をより容易に見ることができる。
いくつかの実施形態において、特定のズームレベルを決定することは、基準点又は基準軸に対するユーザの顔の位置の変化が、用いられる特定のズームレベルを示す特定の顔面ジェスチャに対応するか否かを決定することを有する。
いくつかの実施形態において、基準点又は基準軸は、ユーザの頭部の基準のヨー、ユーザの頭部の基準のピッチ、及び/又は、ユーザの頭部とディスプレイ又はイメージングデータを獲得するためのイメージングデバイスとの間に定義される軸(例えば、軸210)に対するユーザの頭部の基準の横方向オフセットに対応する。言い換えれば、ユーザの顔面位置が基準の顔面位置に対応する場合、これは基準点又は基準軸を定義する。
いくつかの実施形態において、特定の顔面ジェスチャは、それぞれ基準のヨー、基準のピッチ及び/又は基準の横方向オフセットに対するユーザの頭部のヨー、ピッチ及び/又は横方向オフセットの変化を備える。方法400において、これは、ユーザの頭部ヨー及び/又はピッチが閾値を越えるか否かを決定するブロック422を参照する。いくつかの例において、他の顔面ジェスチャは、例えば、頭部回転及び/又は表情を考慮する。
いくつかの実施形態において、特定のズームレベルが用いられるべきであると決定することは、ユーザの頭部のヨー、ピッチ及び/又は横方向オフセットの変化に基づき、用いられる特定のズームレベルは、それぞれ基準のヨー、基準のピッチ及び/又は基準の横方向オフセットに対するユーザの頭部のヨー、ピッチ及び/又は横方向オフセットの差に依存して連続的に(又は滑らかに)変化する、又は、それぞれ閾値を越える、基準のヨー、基準のピッチ及び/又は基準の横方向オフセットに対するユーザの頭部のヨー、ピッチ及び/又は横方向オフセットの差に応じて急激に変化する。特定のズームレベルが連続的に又は滑らかに変化する場合、これは、2つより大きい特定のズームレベルが存在するので、ユーザが自分の頭部を回転させるとき、ズームレベルはこの回転に従って変化することを示唆する。特定のズームレベルが急激に変化する場合、ズームレベルは、ズームレベルが変化するとすぐに閾値が越えられるまで、同一のままである。
連続的及び急激なズームレベル変化の組み合わせが用いられてもよい。例えば、頭部ヨー及びピッチの特定の範囲のために(例えば、閾値未満)、ズームレベルに変化がなく(例えば、現在のズームレベルは、第1の特定のズームレベルに維持される)、閾値において、現在のズームレベルは、第2の特定のズームレベルに急激に変化する。閾値を超えたユーザの頭部の任意のさらなる回転のために、ユーザが基準の顔面位置に対する自分の頭部ヨー及び/又はピッチを増加させるとき、ズームレベルは、(例えば、より大きな倍率を伴って)第2の特定のズームレベルよりさらに増加する。それゆえ、ヨー及び/又はピッチは、増加し、ユーザの顔の一部の可視性が減少するとき、(第2の特定のズームレベルを超えた)より大きな倍率は、ユーザのパーソナルケア活動を支援する。
いくつかの実施形態において、方法400は、ユーザの顔のビデオ画像を示すディスプレイに、特定のズームレベルでユーザの顔の少なくとも一部を示させるステップと(例えば、方法100のブロック106)、識別された特定の顔面ジェスチャに基づいて、第1及び第2の特定のズームレベルの一方が、第1及び第2の特定のズームレベルの他方の代わりに用いられることを決定するステップと、ディスプレイに、第1又は第2の特定のズームレベルでユーザの顔の少なくとも一部が時間遅延の後用いられるべきであることを示させるステップと、を有する。図4に示すように、ブロック418又は424において異なるズームレベルが用いられるべきであるということが決定される。
図5は、方法100及び/又は方法400のような本願明細書において記載されている特定の方法を実施するために用いられる、処理回路502を備える装置500を示す。装置500は、図2の処理回路206のような図2のシステム200に関して記載されている特徴に対応する機能を有するモジュールを備える。
処理回路502は、ユーザのイメージングデータから特定の顔面ジェスチャを識別するように構成される識別モジュール504を備える(例えば、方法100のブロック102に対応する)。
処理回路502は、特定の顔面ジェスチャがユーザの顔を表示するのに用いられる特定のズームレベルを示すかを決定するように構成される決定モジュール506をさらに備える(例えば、方法100のブロック104に対応する)。
処理回路502は、ユーザの顔を表示するのに用いられる以前に決定されたズームレベルの代わりに、特定のズームレベルが用いられるべきであると決定することに応答して、特定のズームレベルと以前に決定されたズームレベルとの差に基づいて、ユーザの顔のビデオ画像を示しているディスプレイに、ビデオ画像上のユーザの顔の少なくとも一部の表示されたサイズを変更させるように構成される制御モジュール508をさらに備える(例えば、方法100のブロック106に対応する)。
図6は、方法100及び/又は方法400のような本願明細書において記載されている特定の方法を実施するために用いられる装置600を示す。装置600は、図2の処理回路206のような図2のシステム200及び/又は図5の装置500に関して記載されている特徴に対応する機能を有するモジュールを備える。装置600は、図5の処理回路502を備える。
いくつかの実施形態において、装置600は、(例えば、装置204の)ディスプレイ602及び/又はイメージングデータを獲得するための(例えば、装置204の)イメージングデバイス604をさらに備える。したがって、これらの実施形態の装置600は、図2の装置204又は本願明細書において記載されている他の任意の装置に対応する。装置600が処理回路502を備えるので、本願明細書において記載されている特定の方法は、サーバ又はクラウドベースのサービスを利用してこの種の方法を実施する代わりに、装置600自体によって実施される(特定の他の実施形態に関して述べられるように)。
いくつかの場合には、上記のモジュールのいずれか(例えば、識別モジュール504、決定モジュール506及び/又は制御モジュール508)は、モジュールの機能を実施するための少なくとも1つの専用プロセッサ(例えば、特定用途向け集積回路(ASIC)及び/又はフィールドプログラマブルゲートアレイ(FPGA)など)を備える。
いくつかの場合には、モジュール(例えば、識別モジュール504、決定モジュール506及び/又は制御モジュール508)は、少なくとも1つのプロセッサに上記のモジュールの機能を実施させる命令を実施するための少なくとも1つのプロセッサを備える。この種の例において、命令は、少なくとも1つのプロセッサにアクセス可能な機械可読媒体(図示せず)内に格納される。いくつかの例において、モジュールそのものは、機械可読媒体を備える。いくつかの例において、機械可読媒体は、モジュールそのものとは別個である(例えば、モジュールの少なくとも1つのプロセッサは、内部に格納される命令にアクセスするために機械可読媒体と通信するように提供される)。
図7は、少なくとも1つのプロセッサ704によって実行されるとき、少なくとも1つのプロセッサ704に、(方法100及び/又は方法400のような)本願明細書において記載されている特定の方法を実施させる命令702を格納する有形の機械可読媒体700を示す。
図7において、命令702は、ユーザのイメージングデータから特定の顔面ジェスチャを識別するための命令706を備える(例えば、方法100のブロック102に対応する)。
命令702は、特定の顔面ジェスチャがユーザの顔を表示するのに用いられる特定のズームレベルを示すかを決定するための命令708をさらに備える(例えば、方法100のブロック104に対応する)。
命令702は、ユーザの顔を表示するのに用いられる以前に決定されたズームレベルの代わりに、特定のズームレベルが用いられるべきであると決定することに応答して、特定のズームレベルと以前に決定されたズームレベルとの差に基づいて、ユーザの顔のビデオ画像を示しているディスプレイに、ビデオ画像上のユーザの顔の少なくとも一部の表示されたサイズを変更させる命令710をさらに備える(例えば、方法100のブロック106に対応する)。
一実施形態において記載されている1つ又は複数の特徴は他の実施形態において記載されている特徴と組み合わせたり、置換したりしてもよい。例えば、図1及び図4の方法100及び400は、図2、図4及び図5のシステム200、装置400、500に関して記載されている特徴に基づいて修正され、逆もまた同じである。
本願明細書において記載されている特定の実施形態が、用いられるズームレベルを制御するための特定の顔面ジェスチャを参照するが、ヨー/ピッチの代わりに異なる顔面ジェスチャを用いてもよい。例えば、ユーザの頭部の回転、横方向オフセット及び/又は他の任意の表情を用いて、ディスプレイにより用いられるズームレベルを自動制御してもよい。本願明細書において記載されている実施形態は、例えば、フラットディスプレイ及び曲面(例えば、凹)ディスプレイを含む任意のディスプレイタイプにおいて実施される。
特定の実施形態が第1及び第2の特定のズームレベルを参照するが、2つ以上のズームレベルは、適切である場合、本願明細書において記載されている実施形態によって実施される。
この開示は、以下の番号をつけられた段落によって定義される主題を含む。
段落1.コンピュータにより実施される方法であって、方法は、ユーザのイメージングデータから特定の顔面ジェスチャを識別するステップと、特定の顔面ジェスチャに基づいてユーザの顔を表示するのに用いられる特定のズームレベルを決定するステップと、ユーザの顔のビデオ画像を示しているディスプレイに、特定のズームレベルでユーザの顔の少なくとも一部を示させるステップとを有する、方法。
段落2.ユーザのイメージングデータから特定の顔面ジェスチャを識別するステップは、ユーザが特定の顔面ジェスチャを実行したか否かを決定するために、基準点又は基準軸に対するユーザの顔の位置を追跡するステップを有する、段落1の方法。
段落3.基準点又は基準軸に対するユーザの顔の位置を追跡するステップは、顔面ランドマークと基準点との間の距離及び/又は基準軸に対するユーザの頭部の方向を、用いられる特定のズームレベルに対する変化を示す閾値と比較するステップを有する、段落2の方法。
段落4.ユーザの頭部の方向のための閾値は、ユーザの頭部ヨーのために1度と45度との間であり、ユーザの頭部ピッチのために1度と45度との間である、段落3の方法。
段落5.特定のズームレベルを決定するステップは、基準点又は基準軸に対するユーザの顔の位置の変化が、用いられる特定のズームレベルを示す特定の顔面ジェスチャに対応するか否かを決定するステップを有する、段落2、3又は4の方法。
段落6.基準点又は基準軸は、ヨー、ピッチ、及び/又は、ディスプレイ及び/又はイメージングデータを獲得するためのイメージングデバイスに対するオフセットがゼロであるユーザの頭部に基づく、段落2から5のいずれかの方法。
段落7.特定の顔面ジェスチャは、ヨー、ピッチ、及び/又は、ディスプレイ及び/又はイメージングデータを獲得するためのイメージングデバイスに対するユーザの頭部のオフセットの変化を備える、段落1から6のいずれかの方法。
段落8.特定のズームレベルが用いられるべきであると決定するステップは、ユーザの頭部のヨー、ピッチ及び/又はオフセットの変化に基づき、用いられる特定のズームレベルは、ユーザの頭部のヨー、ピッチ及び/又はオフセットに依存して連続的に変化するか、又は、ユーザの頭部のヨー、ピッチ及び/又はオフセットのための閾値を越えるユーザの頭部のヨー、ピッチ及び/又はオフセットに応じて急激に変化するかの一方である、段落7の方法。
段落9.方法は、ユーザの顔の寸法、ユーザの顔とイメージングデータを獲得するためのイメージングデバイスとの間の距離及び/又はディスプレイの解像度に基づいて、ユーザの顔が完全にディスプレイ上に表示されることを確実にするために、第1の特定のズームレベルが用いられるべきであると決定するステップと、ユーザが特定の顔面ジェスチャを実行したことを識別すると、ユーザの顔の少なくとも一部を示すために、第2の増加した特定のズームレベルが用いられるべきであると決定するステップとを有する、段落1から8のいずれかの方法。
段落10.第1及び第2の特定のズームレベルの間の比率は、ディスプレイの解像度及び/又はディスプレイの寸法に対するユーザの顔の一部の寸法のための特定のフィルファクタに基づいて計算される、段落9の方法。
段落11.ユーザの顔のビデオ画像を示しているディスプレイに、特定のズームレベルでユーザの顔の少なくとも一部を示させるステップは、第1及び第2の特定のズームレベルの一方が、第1及び第2の特定のズームレベルの他方の代わりに用いられることを決定するステップと、ディスプレイに、時間遅延の後用いられる第1又は第2の特定のズームレベルでユーザの顔の少なくとも一部を示させるステップと、を有する、段落9又は10の方法。
段落12.方法は、イメージングデバイスにイメージングデータを獲得させるステップをさらに有する、段落1から11のいずれかの方法。
段落13.命令を格納する有形の機械可読媒体であって、命令は、少なくとも1つのプロセッサによって実行されるとき、少なくとも1つのプロセッサに段落1から12のいずれかの方法を実施させる、有形の機械可読媒体。
段落14.処理回路を備える装置であって、処理回路は、ユーザのイメージングデータから特定の顔面ジェスチャを識別する識別モジュールと、特定の顔面ジェスチャに基づいてユーザの顔を表示するのに用いられる特定のズームレベルを決定する決定モジュールと、ユーザの顔のビデオ画像を示しているディスプレイに、特定のズームレベルでユーザの顔の少なくとも一部を示させる制御モジュールとを備える、装置。
段落15.装置は、ディスプレイ及び/又はイメージングデータを獲得するためのイメージングデバイスをさらに備える、段落14に記載の装置。
本開示の実施形態は、方法として、システムとして、又は、機械可読命令及び処理回路の組み合わせとして提供可能である。この種の機械可読命令は、コンピュータ可読プログラムコードを有する非一時的な機械(例えば、コンピュータ)可読記憶媒体(ディスク記憶装置、CD-ROM、光記憶装置などを含むが、これらに限定されるものではない)に含まれる。
本開示は、本開示の実施形態に従って、方法、デバイス並びにシステムのフローチャート及びブロック図を参照して記載されている。上記のフローチャートは、実行の特定の順番を示すが、実行の順番は描写されるものと異なってもよい。1つのフローチャートに関して記載されているブロックは、他のフローチャートのブロックと組み合わせてもよい。フローチャート及び/又はブロック図の各ブロック、並びに、フローチャート及び/又はブロック図のブロックの組み合わせは、機械可読命令によって実現可能であるということを理解されたい。
機械可読命令は、例えば、汎用コンピュータ、専用コンピュータ、組み込みプロセッサ又は他のプログラマブルデータ処理デバイスのプロセッサによって実行され、明細書及び図面に記載されている機能を実現する。特に、プロセッサ又は処理回路又はそのモジュールは、機械可読命令を実行する。したがって、装置500、600の機能モジュール(例えば、識別モジュール504、決定モジュール506及び/又は制御モジュール508)及び本願明細書において記載されている他のデバイスは、メモリ内に格納される機械可読命令を実行するプロセッサ、又は、論理回路内に組み込まれる命令に従って動作するプロセッサによって実施される。「プロセッサ」という用語は、CPU、処理ユニット、ASIC、論理ユニット又はプログラマブルゲートアレイなどを含むものと広く解釈されるべきである。方法及び機能モジュールは、すべて、シングルプロセッサによって実行されるか、又は、いくつかのプロセッサ間で分けられる。
この種の機械可読命令はまた、コンピュータ又は他のプログラマブルデータ処理デバイスをガイドして特定のモードで動作することができるコンピュータ可読記憶媒体内に格納される。
この種の機械可読命令はまた、コンピュータ又は他のプログラマブルデータ処理デバイス上にロードされ、その結果、コンピュータ又は他のプログラマブルデータ処理デバイスは、コンピュータ実施処理を生成するための一連の動作を実行し、したがって、コンピュータ又は他のプログラマブルデバイス上で実行される命令は、フローチャート及び/又はブロック図のブロックにより特定される機能を実現する。
さらに、本願明細書における教示は、コンピュータプログラム製品の形で実施され、コンピュータプログラム製品は、記憶媒体内に格納され、本開示の実施形態において詳述される方法をコンピュータに実施させるための複数の命令を備える。
一実施形態に関して記載されている要素又はステップは、他の実施形態に関して記載されている要素又はステップと組み合わせてもよいし、又は、置換されてもよい。開示された実施形態に対する他のバリエーションは、当業者が、請求された本発明を実行する際に、図面、明細書及び添付の請求項を検討することによって理解可能であり、かつ、遂行可能である。請求項において、「有する」という単語は、他の要素又はステップを除外せず、単数の記載は、複数を除外しない。シングルプロセッサ又は他のユニットは、請求項において詳述されるいくつかのアイテムの機能を果たす。特定の手段が相互に異なる従属請求項において詳述されるという単なる事実は、これらの手段の組み合わせを有効に用いることができないということを示すわけではない。コンピュータプログラムは、適切な媒体、例えば、他のハードウェアと一緒に、又は、それの一部として供給される光記憶媒体又は固体媒体上に格納されるか、又は、配信されるが、他の形で、例えばインターネット又は他の有線若しくは無線通信システムを介して配信されてもよい。請求項の任意の参照符号は、範囲を制限するものとして解釈されるべきではない。
Claims (15)
- コンピュータにより実施される方法であって、前記方法は、
ユーザのイメージングデータから特定の顔面ジェスチャを識別するステップと、
前記特定の顔面ジェスチャが前記ユーザの顔を表示するのに用いられる特定のズームレベルを示すかを決定するステップと、
前記ユーザの顔を表示するのに用いられる以前に決定されたズームレベルの代わりに、前記特定のズームレベルが用いられるべきであると決定するステップに応答して、前記特定のズームレベルと以前に決定された前記ズームレベルとの差に基づいて、前記ユーザの顔のビデオ画像を示しているディスプレイに、前記ビデオ画像上の前記ユーザの顔の少なくとも一部の表示されたサイズを変更させるステップと、
を有する、方法。 - 前記イメージングデータから前記特定の顔面ジェスチャを識別するステップは、基準の方向に対して前記ユーザの頭部の方向を識別するステップを有し、識別された前記方向は、用いられる前記特定のズームレベルを示す、
請求項1に記載の方法。 - 前記ユーザのイメージングデータから前記特定の顔面ジェスチャを識別するステップは、前記ユーザが前記特定の顔面ジェスチャを実行したか否かを決定するために、基準点又は基準軸に対する前記ユーザの顔の位置を追跡するステップを有し、
前記基準点又は基準軸に対する前記ユーザの顔の前記位置を追跡するステップは、顔面ランドマークと前記基準点との間の距離及び/又は前記基準軸に対する前記ユーザの頭部の方向を、用いられる前記特定のズームレベルに対する変化を示す閾値と比較するステップを有する、
請求項1又は2に記載の方法。 - 前記ユーザの頭部の前記方向のための前記閾値は、ユーザの頭部ヨーのために1度と45度との間であり、前記ユーザの頭部ピッチのために1度と45度との間である、
請求項3に記載の方法。 - 前記特定のズームレベルを決定するステップは、前記基準点又は基準軸に対する前記ユーザの顔の位置の変化が、用いられる前記特定のズームレベルを示す前記特定の顔面ジェスチャに対応するか否かを決定するステップを有する、
請求項3又は4に記載の方法。 - 前記基準点又は基準軸は、
前記ユーザの頭部の基準のヨー、
前記ユーザの頭部の基準のピッチ、及び/又は、
前記ユーザの頭部と前記ディスプレイ又は前記イメージングデータを獲得するためのイメージングデバイスとの間で定義される軸に対する前記ユーザの頭部の基準の横方向オフセットに対応する、
請求項3から5のいずれか一項に記載の方法。 - 前記特定の顔面ジェスチャは、それぞれ前記基準のヨー、基準のピッチ及び/又は基準の横方向オフセットに対する前記ユーザの頭部のヨー、ピッチ及び/又は横方向オフセットの変化を備える、
請求項1から6のいずれか一項に記載の方法。 - 前記特定のズームレベルが用いられるべきであると決定するステップは、前記ユーザの頭部のヨー、ピッチ及び/又は横方向オフセットの前記変化に基づき、用いられる前記特定のズームレベルは、
それぞれ前記基準のヨー、基準のピッチ及び/又は基準の横方向オフセットに対する前記ユーザの頭部の前記ヨー、ピッチ及び/又は横方向オフセットの差に依存して連続的に変化するか、又は、
それぞれ閾値を越える、前記基準のヨー、基準のピッチ及び/又は基準の横方向オフセットに対する前記ユーザの頭部の前記ヨー、ピッチ及び/又は横方向オフセットの差に応じて急激に変化する、
請求項7に記載の方法。 - 前記方法は、
前記ユーザの顔の寸法、前記ユーザの顔と前記イメージングデータを獲得するためのイメージングデバイスとの間の距離及び/又は前記ディスプレイの解像度に基づいて、前記ユーザの顔が完全に前記ディスプレイ上に表示されることを確実にするために、第1の特定のズームレベルが用いられるべきであると決定するステップと、
前記ユーザが前記特定の顔面ジェスチャを実行したことを識別すると、前記ユーザの顔の少なくとも前記一部を示すために、第2の増加した特定のズームレベルが用いられるべきであると決定するステップとを有する、
請求項1から8のいずれか一項に記載の方法。 - 前記第1及び/又は第2の特定のズームレベルは、画像品質測定基準が、前記第1及び第2の特定のズームレベルの両方で前記ユーザの顔を前記ディスプレイ上に表示するために満たされるように、前記ディスプレイの解像度及び/又は前記第1及び第2の特定のズームレベルで前記ユーザの顔を表示するのに用いられる前記ディスプレイの比例エリアを定義する特定のフィルファクタに基づいて計算される、
請求項9に記載の方法。 - 前記ユーザの顔の前記ビデオ画像を示している前記ディスプレイに、前記特定のズームレベルで前記ユーザの顔の少なくとも前記一部を示させるステップは、
識別された前記特定の顔面ジェスチャに基づいて、前記第1及び第2の特定のズームレベルの一方が、前記第1及び第2の特定のズームレベルの他方の代わりに用いられることを決定するステップと、
前記ディスプレイに、時間遅延の後用いられる前記第1又は第2の特定のズームレベルで前記ユーザの顔の少なくとも前記一部を示させるステップとを有する、
請求項9又は10に記載の方法。 - 前記方法は、イメージングデバイスに前記イメージングデータを獲得させるステップをさらに有する、
請求項1から11のいずれか一項に記載の方法。 - 命令を格納する有形の機械可読媒体であって、前記命令は、少なくとも1つのプロセッサによって実行されるとき、前記少なくとも1つのプロセッサに、請求項1から12のいずれか一項に記載の方法を実施させる、
有形の機械可読媒体。 - 処理回路を備える装置であって、前記処理回路は、
ユーザのイメージングデータから特定の顔面ジェスチャを識別する識別モジュールと、
前記特定の顔面ジェスチャが前記ユーザの顔を表示するのに用いられる特定のズームレベルを示すかを決定する決定モジュールと、
前記ユーザの顔を表示するのに用いられる以前に決定されたズームレベルの代わりに、前記特定のズームレベルが用いられるべきであると決定することに応答して、前記特定のズームレベルと以前に決定された前記ズームレベルとの差に基づいて、前記ユーザの顔のビデオ画像を示しているディスプレイに、前記ビデオ画像上の前記ユーザの顔の少なくとも一部の表示されたサイズを変更させる制御モジュールと、
を備える、装置。 - 前記装置は、前記ディスプレイ及び/又は前記イメージングデータを獲得するためのイメージングデバイスをさらに備える、
請求項14に記載の装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP20174074.3A EP3910530A1 (en) | 2020-05-12 | 2020-05-12 | Determining display zoom level |
EP20174074.3 | 2020-05-12 | ||
PCT/EP2021/061209 WO2021228560A1 (en) | 2020-05-12 | 2021-04-29 | Determining display zoom level |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023526011A true JP2023526011A (ja) | 2023-06-20 |
JPWO2021228560A5 JPWO2021228560A5 (ja) | 2024-05-09 |
Family
ID=70681749
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022568525A Pending JP2023526011A (ja) | 2020-05-12 | 2021-04-29 | ディスプレイズームレベルの決定 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230171370A1 (ja) |
EP (2) | EP3910530A1 (ja) |
JP (1) | JP2023526011A (ja) |
CN (1) | CN115605926A (ja) |
WO (1) | WO2021228560A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11960633B1 (en) * | 2022-11-18 | 2024-04-16 | Verizon Patent And Licensing Inc. | Systems and methods for enabling facial browsing of a display based on movement of facial features |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009294728A (ja) * | 2008-06-02 | 2009-12-17 | Sony Ericsson Mobilecommunications Japan Inc | 表示処理装置、表示処理方法、表示処理プログラム、及び携帯端末装置 |
JP6366395B2 (ja) * | 2014-07-16 | 2018-08-01 | キヤノン株式会社 | ズーム制御装置、撮像装置、ズーム制御装置の制御方法、被写体検出装置の制御プログラムおよび記憶媒体 |
KR101819735B1 (ko) * | 2016-06-07 | 2018-01-17 | 주식회사 매직내니 | 미러 디스플레이 장치 및 그 동작 방법 |
-
2020
- 2020-05-12 EP EP20174074.3A patent/EP3910530A1/en not_active Withdrawn
-
2021
- 2021-04-29 WO PCT/EP2021/061209 patent/WO2021228560A1/en unknown
- 2021-04-29 US US17/921,661 patent/US20230171370A1/en active Pending
- 2021-04-29 CN CN202180034683.0A patent/CN115605926A/zh active Pending
- 2021-04-29 EP EP21720790.1A patent/EP4150506A1/en active Pending
- 2021-04-29 JP JP2022568525A patent/JP2023526011A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
EP4150506A1 (en) | 2023-03-22 |
US20230171370A1 (en) | 2023-06-01 |
WO2021228560A1 (en) | 2021-11-18 |
EP3910530A1 (en) | 2021-11-17 |
CN115605926A (zh) | 2023-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10810438B2 (en) | Setting apparatus, output method, and non-transitory computer-readable storage medium | |
KR102291461B1 (ko) | 디스플레이를 위한 캡처된 이미지의 시각을 조정하는 기술들 | |
CN110050251B (zh) | 向用户显示引导指示符 | |
US20120133754A1 (en) | Gaze tracking system and method for controlling internet protocol tv at a distance | |
JP6529208B2 (ja) | 鑑賞者の着用メガネの補正レンズの屈折力を推定する方法及び装置 | |
KR101706992B1 (ko) | 시선 추적 장치 및 방법, 이를 수행하기 위한 기록매체 | |
US20170351327A1 (en) | Information processing apparatus and method, and program | |
JP6737057B2 (ja) | 視線検出装置、視線検出方法、及び視線検出プログラム | |
JP2016515242A (ja) | 校正不要な注視点推定の方法と装置 | |
US10254831B2 (en) | System and method for detecting a gaze of a viewer | |
KR20140104661A (ko) | 시선 인식을 이용한 사용자 인터페이스 방법 및 장치 | |
EP3349095B1 (en) | Method, device, and terminal for displaying panoramic visual content | |
AU2017357216B2 (en) | Image rendering method and apparatus, and VR device | |
JP6221292B2 (ja) | 集中度判定プログラム、集中度判定装置、および集中度判定方法 | |
JP2023526011A (ja) | ディスプレイズームレベルの決定 | |
WO2019095117A1 (zh) | 一种人脸图像检测方法及终端设备 | |
Dostal et al. | Estimating and using absolute and relative viewing distance in interactive systems | |
US11061473B2 (en) | Updating a cornea model | |
US20230300290A1 (en) | Information display system, information display method, and non-transitory recording medium | |
JP2020509685A (ja) | 画像の撮影 | |
CN116086396A (zh) | 一种获取距离的方法、装置、系统及存储介质 | |
KR102558976B1 (ko) | 인공지능을 이용하여 영상으로부터 판서 동작을 인식하는 방법 및 장치 | |
WO2013005560A1 (ja) | 瞼検出装置、瞼検出方法及びプログラム | |
JP2008282102A (ja) | 表示情報制御装置 | |
KR102596487B1 (ko) | 표시 제어 시스템, 방법 및 컴퓨터 판독 가능한 기록 매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240424 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240424 |