JP2023520448A - ガイダンスを提供するためのシステム - Google Patents

ガイダンスを提供するためのシステム Download PDF

Info

Publication number
JP2023520448A
JP2023520448A JP2022559882A JP2022559882A JP2023520448A JP 2023520448 A JP2023520448 A JP 2023520448A JP 2022559882 A JP2022559882 A JP 2022559882A JP 2022559882 A JP2022559882 A JP 2022559882A JP 2023520448 A JP2023520448 A JP 2023520448A
Authority
JP
Japan
Prior art keywords
subject
body part
biological parameter
determining
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022559882A
Other languages
English (en)
Other versions
JPWO2021197985A5 (ja
Inventor
ムルタザ ブルト
ライナー ヒルビッヒ
ジュン シ
ジョナサン アランブラ パレロ
チューシ チャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from EP20172496.0A external-priority patent/EP3903668A1/en
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2023520448A publication Critical patent/JP2023520448A/ja
Publication of JPWO2021197985A5 publication Critical patent/JPWO2021197985A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • A61B5/0079Devices for viewing the surface of the body, e.g. camera, magnifying lens using mirrors, i.e. for self-examination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0088Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7405Details of notification to user or communication with user or patient ; user input means using sound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Dermatology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Epidemiology (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Primary Health Care (AREA)
  • Physiology (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

システムを制御するためのコンピュータ実装方法が提供され、方法は、第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる条件を獲得するステップと、条件に基づいて、身体の部位の向き、身体の部位の位置、身体の部位の動き、及び/又は第2の生物学的パラメータのレベルに関連付けられた要件を決定するステップと、要件に基づいて、身体の部位の現在の向き、身体の部位の現在の位置、対象者の身体部位の現在の動き、及び/又は第2の生物学的パラメータの現在のレベルを獲得するステップと、それぞれの要件及びそれぞれの要件に関連付けられた情報に基づいて、身体の部位の向き、身体の部位の位置、及び/又は第2の生物学的パラメータの必要な調節を決定するステップと、決定された必要な調節に基づいて対象者のためのガイダンスを生成するステップとを有する。

Description

本開示は、ガイダンスを対象者に提供するように構成されたシステム、及び、システムを制御するための方法に関する。本開示は、また、ガイダンスを対象者に提供するように構成された反射構成要素及びシステムを備えるデバイスに関する。
皮膚状態の画像ベース分析及びモニタリングは典型的に、大量の画像データ、好ましくは、毎日(又はさらにいっそう頻繁に)収集される画像データを必要とする。現在利用可能な技法のうちのいくつかは、例えば、データが有用であるかどうかについて何らかの事前の決定を行うことなく、センサがユーザの存在を検出したとき、可能であればいつでも大量の画像データ収集することによってこれを実現する。このアプローチは、通常、意図した分析に必要でないデータを収集することになるので、ユーザのプライバシに過度に介入するものとみなされる。
代替の現在利用可能なアプローチは、例えば、画像キャプチャのために特定の位置若しくは向きをとることをユーザに求めること、又は、画像をキャプチャするために照明状態を変えることをユーザに求めることによって、ユーザを直接参加させること、及び、データ収集にユーザの協力を要請することである。このような直接のアプローチを使用するデバイスの例は、WO2011/054158A1において見つけることができる。この特許出願は、正確な測定のためのデバイスの正しい位置付けを実現するためにユーザにメッセージを出力するためのディスプレイを有する電子脈圧形を開示している。これらのメッセージは、上方向を示すパターン、下方向を示すパターン、及び「OK」を有する指示情報、又は「UP」、「DOWN」、及び「OK」というテキスト・メッセージであると開示されている。
この直接のアプローチを用いると、データ収集はユーザとの直接の関与に依存するので、ユーザは頻繁に邪魔をされ、これは、ユーザを不快にし、いらだたせる。さらに、これは、関連システム又はアプリケーションの継続的又は長期間使用をユーザに思いとどまらせる。
(例えば対象者の顔の)画像分析による皮膚状態及び皮膚治療の数量化及び追跡は、同様の角度、位置、及び照明状態で獲得された大量の画像、並びに、異なる角度、位置、及び照明状態で獲得された大量の画像を収めるデータベースを必要とする。
上述のように、皮膚状態又は他の健康の状態のモニタリングの画像ベース分析のためのデータ収集のための現在利用可能な解決策に関連付けられたいくつかの短所があり、例えば、いくつかのシステムは、画像が獲得される前に特定の位置及び向きをとることをユーザに求めること、常に画像を獲得すること、又はプリセットされた間隔で画像を獲得することを伴う。これらのアプローチの限界は、非常に目立ちすぎること、プライバシに敏感でないこと、又は重要なデータを見落とす可能性があることである。個人用ケア・デバイス及びアプリケーションのために、偏在的であるように、すなわち対象者によって実行されている主な活動にはっきりと邪魔をしないように、代表的なデータを収集することが望まれる。
したがって、情報がキャプチャされる前に、(例えば、対象者の身体、頭、胴などで)要求された位置若しくは向きをとること、又は、対象者の身体の部位で特定の動きを実施することを行うように対象者を自然に誘導することによって、プライバシにも敏感であると同時に、目立ちすぎないようにデータ(例えば画像データ)を収集することを可能にすることができる、ガイダンスを対象者に提供するように構成された改善されたシステム、及びシステムを制御する方法を提供することが有利である。本開示の一部は、皮膚状態又は他の健康の状態のモニタリングに関する情報を収集するためのミラーを収集するためのスマート・ミラーの使用に関する。スマート・ミラー、又は他のタイプのスマートな接続されたデバイスは、個人のスタイル及び外見、並びに老化の過程に関して、ユーザの変化するニーズ及び状況に適合させることができる。個人的ケアのニーズを満たすことに加えて、本開示の実施形態によるシステム及び方法は、また、皮膚の健康状態、髪及び歯の状態、睡眠不足の影響、並びに妊娠の進行、対象者の動き(例えば皮膚の引っ掻き)、感情及び気分の変動、疲労、虚弱さ(特に、年配の対象者にとってのもの)、疾患(例えばパーキンソン病)、注意力及び反応性、用心深度などの態様を、慎重に測定及びモニタすることができる。
初めに言及した懸念のうちの1つ又は複数により良く対処するために、第1の態様では、ガイダンスを対象者に提供するように構成されたシステムを制御するためのコンピュータ実施方法が提供される。方法は、対象者の第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる1つ又は複数の条件を獲得することと、1つ又は複数の条件に基づいて、対象者の身体部位の向き、対象者の身体部位の位置、対象者の身体部位の動き、及び対象者の第2の生物学的パラメータのレベルのうちの少なくとも1つに関連付けられた1つ又は複数の要件を決定することと、1つ又は複数の要件に基づいて、対象者の身体部位の現在の向き、対象者の身体部位の現在の位置、対象者の身体部位の現在の動き、及び対象者の第2の生物学的パラメータの現在のレベルのうちの少なくとも1つを獲得することと、それぞれの要件及びそれぞれの要件に関連付けられた獲得された情報に基づいて、対象者の身体部位の向き、対象者の身体部位の位置、及び対象者の第2の生物学的パラメータのうちの少なくとも1つの必要な調節を決定することと、対象者のためのガイダンスを生成することであって、システムのユーザ・インターフェースによって出力されることになる指向性音響効果を生成することであって、指向性音響効果が、必要な調節を実現するように対象者を誘発するように構成される、生成すること、及び必要な調節を実現するように対象者を誘発するように、システムのユーザ・インターフェースによって出力されることになる視覚要素の相対位置及び属性のうちの少なくとも1つを決定することのうちの少なくとも1つを実施することによって、決定された必要な調節に基づいて対象者のためのガイダンスを生成することとを有する。
システムのユーザ・インターフェースによって出力されることになる視覚要素の属性は、視覚要素の視野角、視覚要素の視深度、視覚要素の視距離、及び視覚要素のサイズのうちの少なくとも1つである。
いくつかの実施形態では、視覚要素の相対位置は、座標によって表され、システムの1つ又は複数の検知ユニットに対する視覚要素の位置を示す。これらの実施形態では、システムのユーザ・インターフェースによって出力されることになる視覚要素の少なくとも相対位置を決定することは、視覚要素の座標を決定することを有する。
いくつかの実施形態では、ユーザ・インターフェースによって出力されることになる視覚要素の相対位置及び属性のうちの少なくとも1つを決定することは、第1の生物学的パラメータにさらに基づく。
決定された必要な調節に基づいて対象者のためのガイダンスを生成することが、指向性音響効果を生成することを有するいくつかの実施形態では、方法は、指向性音響効果の属性を決定することをさらに有する。
いくつかの実施形態では、方法は、対象者の第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる1つ又は複数の条件を獲得することの前に、対象者、対象者によって使用されるデバイス、及び対象者によって使用されるアプリケーション・プログラムのうちの少なくとも1つに関連付けられた初期データを獲得することと、獲得された初期データが、所定の閾値より高い正確さのレベル、及び所定の閾値より高いスピードのレベルのうちの少なくとも1つで第1の生物学的パラメータの分析を実施するのに十分であるかどうかを決定することとを行うステップをさらに有する。これらの実施形態では、対象者の第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる1つ又は複数の条件を獲得することは、獲得された初期データが、所定の閾値より高い正確さのレベル、及び所定の閾値より高いスピードのレベルのうちの少なくとも1つで第1の生物学的パラメータの分析を実施するのに十分でないと決定すると実施される。
いくつかの実施形態では、獲得された初期データは、対象者の好みに関連付けられたデータ、対象者の環境に関連付けられたデータ、対象者によって使用されるデバイスの使用データ、対象者によって使用されるアプリケーション・プログラムの使用データ、第2の生物学的パラメータの値、第1の生物学的パラメータに関連付けられた対象者の身体部位の画像データ、及び対象者、対象者の環境、対象者によって使用されるデバイス、又は対象者によって使用されるアプリケーション・プログラムのうちの少なくとも1つによって生成された音響データのうちの少なくとも1つを有する。
いくつかの実施形態では、対象者の身体部位の現在の向き、対象者の身体部位の現在の位置、対象者の身体部位の現在の動き、及び対象者の第2の生物学的パラメータの現在のレベルのうちの少なくとも1つを獲得することは、対象者の身体部位の画像及び対象者の環境の音のうちの少なくとも1つを獲得することと、対象者の獲得された画像及び環境の音のうちの少なくとも1つの分析を実施することによって、対象者の身体部位の1つ又は複数の物理的特徴を検出することと、検出された1つ又は複数の物理的特徴に基づいて、対象者の身体部位の現在の向き、対象者の身体部位の現在の位置、対象者の身体部位の現在の動き、及び対象者の第2の生物学的パラメータの現在のレベルのうちの少なくとも1つを決定することとを有する。
いくつかの実施形態では、方法は、生成されたガイダンスに応じて対象者からのフィードバックを獲得することであって、フィードバックが、対象者の身体部位の動き及び対象者の第3の生物学的パラメータのうちの少なくとも1つに関連付けられる、獲得することと、獲得されたフィードバックに基づいてガイダンスの更新が必要であるかどうかを決定することと、ガイダンスの更新が必要であると決定されたとき、対象者のための新しいガイダンスを生成することとをさらに有する。
いくつかの実施形態では、生物学的パラメータは、対象者の生理学的状態及び対象者の心理的状態のうちの1つに関連付けられる。
いくつかの実施形態では、対象者の第1の生物学的パラメータを分析するのに必要なデータは、対象者の身体部位の1つ又は複数の画像を有し、対象者の第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる1つ又は複数の条件のそれぞれは、1つ又は複数の画像の鮮明さ、対象者の身体部位の照明のレベル、1つ又は複数の画像がキャプチャされる角度、及びその間に1つ又は複数の画像がキャプチャされるユーザによって実施される活動のうちの少なくとも1つに関連付けられる。
第2の態様では、コンピュータ可読媒体を備えるコンピュータ・プログラム製品が提供され、コンピュータ可読媒体は、コンピュータ可読媒体において具体化されたコンピュータ可読コードを有し、コンピュータ可読コードは、適切なコンピュータ又はプロセッサによる実行時、本明細書で説明されるような方法を実施することをコンピュータ又はプロセッサに行わせるように構成される。
第3の態様では、ガイダンスを対象者に提供するように構成されたシステムが提供され、システムは、1つ又は複数の視覚又は聴覚要素を出力するように構成されたユーザ・インターフェースと、対象者の第1の生物学的パラメータを分析するのに必要なデータをキャプチャするように構成された検知ユニットと、制御ユニットであって、第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる1つ又は複数の条件を獲得すること、1つ又は複数の条件に基づいて、対象者の身体部位の向き、対象者の身体部位の位置、対象者の身体部位の動き、及び対象者の第2の生物学的パラメータのレベルのうちの少なくとも1つに関連付けられた1つ又は複数の要件を決定すること、1つ又は複数の要件に基づいて、対象者の身体部位の現在の向き、対象者の身体部位の現在の位置、対象者の身体部位の現在の動き、及び対象者の第2の生物学的パラメータの現在のレベルのうちの少なくとも1つを獲得すること、それぞれの要件及びそれぞれの要件に関連付けられた獲得された情報に基づいて、対象者の身体部位の向き、対象者の身体部位の位置、及び対象者の第2の生物学的パラメータのうちの少なくとも1つの必要な調節を決定すること、対象者のためのガイダンスを生成することであって、ユーザ・インターフェースによって出力されることになる指向性音響効果を生成することであって、指向性音響効果が、必要な調節を実現するように対象者を誘発するように構成される、生成すること、及び必要な調節を実現するように対象者を誘発するように、ユーザ・インターフェースによって出力されることになる視覚要素の相対位置及び属性のうちの少なくとも1つを決定することのうちの少なくとも1つを実施することによって、決定された必要な調節に基づいて対象者のためのガイダンスを生成することを行うように構成された、制御ユニットとを備える。
いくつかの実施形態では、制御ユニットは、必要なデータがキャプチャされることになる1つ又は複数の条件を獲得することの前に、対象者、対象者によって使用されるデバイス、及び対象者によって使用されるアプリケーション・プログラムのうちの少なくとも1つに関連付けられた初期データを獲得することと、獲得された初期データが、所定の閾値より高い正確さのレベル、及び所定の閾値より高いスピードのレベルのうちの少なくとも1つで第1の生物学的パラメータの分析を実施するのに十分であるかどうかを決定することとを行うようにさらに構成される。さらに、制御ユニットは、獲得された初期データが、所定の閾値より高い正確さのレベル、及び所定の閾値より高いスピードのレベルのうちの少なくとも1つで第1の生物学的パラメータの分析を実施するのに十分でないと決定されたとき、対象者の第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる1つ又は複数の条件を獲得するようにさらに構成される。
第4の態様では、入射光を反射するように構成された反射構成要素、及び本明細書で説明されるようなシステムを備えるデバイスが提供される。
上記で説明された態様及び実施形態によれば、既存の技法の限界が対処される。特に、上述の態様及び実施形態は、データ収集のための所望の状態を実現できるようなやり方で動く又はふるまうように対象者を誘発するために、ガイダンスを対象者に提供することを可能にする。上記で説明された実施形態は、対象者を「説得する」ために、このようなガイダンスが生成及び提供されることが可能な、いくつかの異なるやり方を提供する。このようにして、偏在的であるように及び目立ちすぎないように、所望のデータが収集されることが可能である。
したがって、ガイダンスを対象者に提供するように構成された改善されたシステム、及びシステムを制御する方法が提供される。本開示のこれら及び他の態様は、以下で説明される実施形態から明らかになり、この実施形態を参照すると明瞭になるであろう。
実施形態をより良く理解するため、及び実施形態をどのように実行に移すかをより明確に示すために、ほんの一例として、添付の図面への参照がこれから行われる。
実施形態による、ガイダンスを対象者に提供するように構成されることが可能なシステムのブロック図である。 実施形態による、ガイダンスを対象者に提供するように構成されたシステムを制御するためのコンピュータ実施方法を示す図である。 実施形態による、ユーザ・インターフェースによって出力された視覚要素の異なる相対位置を決定する実装形態を示す図である。
上述のように、既存の問題に対処する改善されたシステム、及び改善されたシステムを制御するため方法が提供される。
図1は、実施形態によるシステム100のブロック図を示し、システム100は、ガイダンスを対象者に提供するように構成されることが可能である。ガイダンスは、暗黙的又は明示的なものであることが可能であり、対象者は、対象者の身体又は身体の部位の姿勢及び/又は位置付けに関して、意識的な又は無意識の変化又は適合を行う。システムは、以下でより詳細に説明されるような、対象者との一方向の対話及び双方向の対話を誘発することができる。
システム100の動作は下記で、単一の対象者のコンテキストで説明されるが、システム100は、ガイダンスを複数の対象者に提供できることが理解されよう。また、本明細書で説明される実施形態は、画像データの収集に関連して説明されるが、本実施形態は、例えば対象者の発言及び他の音など、他のタイプのデータに対して適用可能であることが理解されよう。さらに、システム100の動作は、特に皮膚ケア及び歯のケアといった個人の健康ドメインのコンテキストで、下記で説明されるが、システム100は、画像データ又は他のタイプのデータの獲得を必要とする用途で使用されることが理解されよう。
図1に示されているように、システム100は、ユーザ・インターフェース110、検知ユニット120、及び制御ユニット130を備える。
ユーザ・インターフェース110は、1つ又は複数の視覚又は聴覚要素を出力するように構成される。いくつかの実施形態では、ユーザ・インターフェース110は、1つ又は複数の視覚要素及び1つ又は複数の聴覚要素のうちの少なくとも1つを出力するように構成された装着可能ユニットを備える。装着可能ユニットは、3Dフォーマット、ホログラフィ・フォーマット、仮想現実(VR)フォーマット、及び拡張現実(AR)フォーマットのうちの少なくとも1つで、1つ又は複数の視覚要素を出力するように構成される。いくつかの実施形態では、ユーザ・インターフェース110は、1つ又は複数の視覚要素を出力するための液体レンズ技術を採用する。
その上、ユーザ・インターフェース110は、聴覚又は視覚フォーマットでシステム100のユーザへの情報のレンダリング(又は出力若しくは表示)を可能にする任意のユーザ・インターフェースである。さらに、ユーザ・インターフェース110は、システム100のユーザ(例えば対象者)がユーザ入力を行うこと、システム100と対話すること、及び/又はシステム100を制御することを可能にするユーザ・インターフェースである。例えば、ユーザ・インターフェース110は、1つ若しくは複数のスイッチ、1つ若しくは複数のボタン、キーパッド、キーボード、(例えば、タブレット若しくはスマートフォン上の)タッチ・スクリーン若しくはアプリケーション、ディスプレイ画面、グラフィカル・ユーザ・インターフェース(GUI)若しくは他の視覚レンダリング構成要素、1つ若しくは複数のスピーカ、1つ若しくは複数のマイクロフォン若しくは任意の他の聴覚構成要素、1つ若しくは複数のライト、触覚フィードバック(例えば振動機能)を提供するための構成要素、又は任意の他のユーザ・インターフェース、或いはユーザ・インターフェースの組合せを備える。
検知ユニット120は、対象者の第1の生物学的パラメータを分析するのに必要なデータをキャプチャするように構成される。検知ユニット120は、いくつかの実施形態では、(例えば皮膚コンダクタンス、心拍数、温度、音、動きなどのための)カメラ及び装着可能センサのうちの少なくとも1つを備える。生物学的パラメータは、対象者の生理学的状態及び対象者の心理的状態のうちの1つに関連付けられる。
制御ユニット130は、システム100の動作を制御し、本明細書で説明される方法を実施することができる。制御ユニット130は、1つ若しくは複数のプロセッサ、処理ユニット、マルチコア・プロセッサ、又は、本明細書で説明されるようにシステム100を制御するように構成又はプログラムされたモジュールを備えることができる。特定の実装形態では、制御ユニット130は、本明細書で説明される方法の個々の又は複数のステップを実施するようにそれぞれ構成された又は実施するための、複数のソフトウェア及び/又はハードウェア・モジュールを備えることができる。
手短に言えば、制御ユニット130は、第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる1つ又は複数の条件を獲得することと、1つ又は複数の条件に基づいて、対象者の身体部位の向き、対象者の身体部位の位置、対象者の身体部位の動き、及び対象者の第2の生物学的パラメータのレベルのうちの少なくとも1つに関連付けられた1つ又は複数の要件を決定することとを行うように構成される。制御ユニット130は、また、1つ又は複数の要件に基づいて、対象者の身体部位の現在の向き、対象者の身体部位の現在の位置、対象者の身体部位の現在の動き、及び対象者の第2の生物学的パラメータの現在のレベルのうちの少なくとも1つを獲得するように構成される。制御ユニット130は、次に、それぞれの要件及びそれぞれの要件に関連付けられた獲得された情報に基づいて、対象者の身体部位の向き、対象者の身体部位の位置、及び対象者の第2の生物学的パラメータのうちの少なくとも1つの必要な調節を決定するように構成される。
制御ユニット130は、ユーザ・インターフェースによって出力されることになる指向性音響効果を生成することであって、指向性音響効果が、必要な調節を実現するように対象者を誘発するように構成される、生成することと、必要な調節を実現するように対象者を誘発するように、ユーザ・インターフェースによって出力されることになる視覚要素の相対位置及び属性のうちの少なくとも1つを決定することとのうちの少なくとも1つを実施することによって、決定された必要な調節に基づいて対象者のためのガイダンスを生成することを行うようにさらに構成される。いくつかの実施形態では、視覚要素は、ユーザ・インターフェース110を介して表示されたアクティブ・ウィンドウの形で提供される。
いくつかの実施形態では、制御ユニット130は、必要なデータがキャプチャされることになる1つ又は複数の条件を獲得することの前に、対象者、対象者によって使用されるデバイス、及び対象者によって使用されるアプリケーション・プログラムのうちの少なくとも1つに関連付けられた初期データを獲得することと、獲得された初期データが、所定の閾値より高い正確さのレベル、及び所定の閾値より高いスピードのレベルのうちの少なくとも1つで第1の生物学的パラメータの分析を実施するのに十分であるかどうかを決定することとを行うようにさらに構成される。関連する所定の閾値は、静的な閾値又は動的な閾値である。これらの実施形態では、制御ユニット130は、獲得された初期データが、所定の閾値より高い正確さのレベル、及び所定の閾値より高いスピードのレベルのうちの少なくとも1つで第1の生物学的パラメータの分析を実施するのに十分でないと決定されたとき、対象者の第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる1つ又は複数の条件を獲得するように構成される。
いくつかの実施形態では、制御ユニット130は、獲得された1つ又は複数の条件(初期データの有無に関わらず)でキャプチャされたデータに基づいて、第1の生物学的パラメータの分析を実施するように構成される。
その上、制御ユニット130は、検知ユニット120によってキャプチャされたデータの(例えば発言又は画像からの)ジェスチャ認識、表情認識、言語認識、感情認識のうちの少なくとも1つを実施することによって、対象者の身体部位の現在の向き、対象者の身体部位の現在の位置、対象者の身体部位の現在の動き、及び対象者の第2の生物学的パラメータの現在のレベルのうちの少なくとも1つを獲得するように構成される。
いくつかの実施形態では、ユーザ・インターフェース110は、検知ユニット120及び制御ユニット130とは別個の別のデバイスの一部である。ユーザ・インターフェース110は、本明細書で説明される方法から生じた情報を装置100のユーザに提供する際に使用するためのものである。さらに、ユーザ・インターフェース110は、ユーザ入力を受け取るように構成される。例えば、ユーザ・インターフェース110は、システム100のユーザが、指示、データ、又は情報を手動でエンターすることを可能にする。これらの実施形態では、制御ユニット130は、ユーザ・インターフェース110からユーザ入力を獲得するように構成される。
図面に示されていないが、システム100は、メモリを備える。代替として又はさらに、1つ又は複数のメモリは、システム100の外部にある(すなわち、システム100とは別個、又はシステム100から離れている)。例えば、1つ又は複数のメモリは、別のデバイスの一部である。メモリは、本明細書で説明される方法を実施するための、制御ユニット130によって実行可能なプログラム・コードを格納するように構成されることが可能である。メモリは、システム100の制御ユニット130によって獲得された又は作られた情報、データ、信号、及び測定値を格納するために使用されることが可能である。例えば、メモリは、第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる獲得された1つ又は複数の条件を(例えば、ローカル・ファイルに)格納するために使用される。制御ユニット130は、第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる獲得された1つ又は複数の条件を格納するようにメモリを制御するように構成される。
図面に示されていないが、システム100は、システム100が、システム100の内部又は外部にある任意のインターフェース、メモリ、及び/又はデバイスと通信することを可能にするための、通信インターフェース(又は回路機器)を備える。通信インターフェースは、ワイヤレスで又は有線接続を介して、任意のインターフェース、メモリ、及び/又はデバイスと通信する。例えば、通信インターフェースは、ワイヤレスで又は有線接続を介して、ユーザ・インターフェース110と通信する。同様に、通信インターフェースは、ワイヤレスで又は有線接続を介して、1つ又は複数のメモリと通信する。
図1は、システム100の態様を示すのに必要な構成要素だけを示しているが、実際的な実装形態では、システム100は、示されたものに対する代替又は追加の構成要素を備えることが理解されよう。
その上、いくつかの実施形態では、入射光を反射するように構成された反射構成要素を備えるデバイス、及び本明細書で説明されるようなシステム100が提供される。例えば、デバイスは、スマート・ミラーである。この例では、ユーザ・インターフェース110は、反射(ミラー)構成要素に組み込まれたタッチ・スクリーンであり、センサ・ユニット120は、スマート・ミラーの反射構成要素に組み込まれたカメラを備える。デバイスは、健康診断、並びに、個人用ケア製品の改善された主要な性能、スタイリングのアドバイス、及び他の個人の健康又はグルーミング関連サービスに関して、デバイス及びシステム100を補完することができる追加の構成要素を備える(例えば、対象者のバスルームに実施された)ネットワークの一部である。さらに、いくつかの実施形態では、本明細書で説明されるようなシステム100を備える個人用ケア・デバイス又は個人用健康デバイスが提供される。
図2は、実施形態による、ガイダンスを対象者に提供するように構成されたシステムを制御するためのコンピュータ実施方法を示す。図示の方法は、一般に、システム100の制御ユニット130によって、又はその制御下で、実施されることが可能である。図示の方法は、図1のシステム100及びその構成要素を参照しながら、下記で説明されることになる。
図2を参照すると、ブロック202において、対象者の第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる1つ又は複数の条件が獲得される。上記で図1を参照しながら説明されたように、生物学的パラメータは、対象者の生理学的状態及び対象者の心理的状態のうちの1つに関連付けられる。第1の生物学的パラメータは、例えば皮膚分析のコンテキストでは、対象者の皮膚の油性のレベル、対象者の皮膚の伸縮性のレベル、又は湿疹領域の発赤のレベルなどの対象者の顔の状態(例えばざ瘡、湿疹)に関するパラメータである。別の例として、第1の生物学的パラメータは、歯の分析のコンテキストでは、対象者の歯のプラークの程度である。分析に必要なデータは、例えば、対象者の現在の血糖レベル、1つ又は複数の画像、1つ又は複数のビデオなど、他の生物学的パラメータの測定された値を有する。
いくつかの実施形態では、対象者の第1の生物学的パラメータを分析するのに必要なデータは、対象者の身体部位(例えば、顔、手、又は歯)の1つ又は複数の画像を有する。これらの実施形態では、対象者の第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる1つ又は複数の条件のそれぞれは、1つ又は複数の画像の鮮明さ、対象者の身体部位の照明のレベル、1つ又は複数の画像がキャプチャされる角度、及びその間に1つ又は複数の画像がキャプチャされるユーザによって実施される活動のうちの少なくとも1つに関連付けられる。これは、典型的には、大量の時間的に分散した高品質の代表的な画像が、関連した生物学的パラメータの分析に必要であるからであり、品質は、鮮明さ、コンテンツ、色などに加えて、関連した分析についての代表性を示すものである。例えば、湿疹箇所の領域境界を識別できるように、対象者の左頬の湿疹箇所を分析するために、対象者の左頬の高品質画像が必要である。さらに、場合によっては、発赤のレベル及び/又は湿疹領域の荒れのレベルを数量化できるように、同様の照明状態及び/又は角度での過去の画像が必要である。さらに、例えば、(なんらかの引っかき傷が作られたかどうかなど)引っ掻き又は接触、及び引っ掻き又は接触の程度又は強度など、湿疹領域と相互作用する対象者の画像及び/又はビデオが、湿疹状態によって引き起こされるいらだち、痛み、又は苦痛のレベルを分析するために獲得される。
いくつかの実施形態では、ブロック202における、対象者の第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる1つ又は複数の条件を獲得することの前に、方法は、対象者、対象者によって使用されるデバイス、及び対象者によって使用されるアプリケーション・プログラムのうちの少なくとも1つに関連付けられた初期データを獲得することと、獲得された初期データが、所定の閾値より高い正確さのレベル、及び所定の閾値より高いスピードのレベルのうちの少なくとも1つで第1の生物学的パラメータの分析を実施するのに十分であるかどうかを決定することとを行うステップを実施することを有する。関連する所定の閾値は、静的又は動的である。
場合によっては、獲得された初期データが、所定の閾値より高い正確さのレベル、及び所定の閾値より高いスピードのレベルのうちの少なくとも1つでの、第1の生物学的パラメータ(例えば対象者の皮膚の油性のレベル)の分析を実施するのに十分でないと決定される。このような場合、方法は、獲得された累積的な初期データが、所定の閾値より高い正確さのレベル、及び所定の閾値より高いスピードのレベルのうちの少なくとも1つで第1の生物学的パラメータの分析を実施するのに十分であると決定されるまで、さらなる初期データを獲得することを有する。第1の生物学的パラメータの分析は、即時の(例えば、リアル・タイムの、若しくはリアル・タイムに近い)分析、又は予定される分析である。例えば、対象者は皮膚状態の治療で心配し、治療は数週間続く-この例では、制御ユニット130は、特定のタイプの情報が、将来の予定される分析に必要であると予測する。このようにして、データは、第1の生物学的パラメータの現在の分析のために獲得されるだけでなく、(例えば皮膚状態の治療の進行を追跡するために)実行されることになるスケジュールされる分析のためにも予測的に獲得される。
これらの実施形態では、ブロック202において、対象者の第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる1つ又は複数の条件を獲得することは、獲得された初期データが、所定の閾値より高い正確さのレベル、及び所定の閾値より高いスピードのレベルのうちの少なくとも1つで第1の生物学的パラメータの分析を実施するのに十分でないと決定すると実施される。
その上、これらの実施形態では、獲得された初期データは、対象者の好みに関連付けられたデータ、対象者の環境に関連付けられたデータ、対象者によって使用されるデバイスの使用データ、対象者によって使用されるアプリケーション・プログラムの使用データ、第2の生物学的パラメータの値、第1の生物学的パラメータに関連付けられた対象者の身体部位の画像データ、及び対象者、対象者の環境、対象者によって使用されるデバイス、又は対象者によって使用されるアプリケーション・プログラムのうちの少なくとも1つによって生成された音響データ(例えば発言)のうちの少なくとも1つを有する。
例えば、対象者の好みに関連付けられたデータは、例えばスマート・ミラーなど、システム100に関連付けられた又はこれを備えるデバイスに関する対象者によって好まれる時間及び/又は日付に関する情報を有する。対象者の好みに関連付けられたデータは、追加又は代替として、例えば、心拍数、対象者が特定の活動中に動くことを好むかどうか、対象者が特定の活動中の聴覚又は視覚刺激を好むかどうか、対象者によって好まれるコンテンツのタイプなど、対象者の生理学的パラメータを有する。対象者の環境に関連付けられたデータは、例えば、ロケーション・データ及び/又はローカルな天候情報を有する。対象者によって使用されるデバイスは、個人用ケア・デバイス(例えば電気歯ブラシ、スキンケア・デバイス、電気フェイスブラシ)、個人用健康デバイス(例えば体重計)、又は、対象者の健康状態の態様に関連付けられたデバイス(例えば、対象者によって消費される食品の栄養情報を提供することができる調理器具)である。対象者によって使用されるアプリケーション・プログラムは、例えば、個人用ケア・デバイス、個人用健康デバイス、又は対象者の健康状態の態様に関連付けられたデバイスに関連付けられたアプリケーション・プログラムである。代替として又はさらに、対象者によって使用されるアプリケーション・プログラムは、対象者の健康状態(例えば口腔の健康状態、睡眠分析)をモニタするためのスマートフォン・アプリケーションである。
初期データを獲得することは、システム100のユーザ・インターフェース110を介した対象者による入力を通じて初期データを受け取ることを有する。いくつかの実施形態では、初期データは、システム100による対象者との対話を介して自動的に学習される。
図2に戻ると、ブロック204において、対象者の身体部位の向き、対象者の身体部位の位置、対象者の身体部位の動き、及び対象者の第2の生物学的パラメータのレベルのうちの少なくとも1つに関連付けられた1つ又は複数の要件が決定される。この決定は、ブロック202において獲得された1つ又は複数の条件に基づく。いくつかの実施形態では、ブロック204における1つ又は複数の要件の決定は、対象者によって実施されている現在の活動にさらに基づく。
図2に戻ると、ブロック206において、対象者の身体部位の現在の向き、対象者の身体部位の現在の位置、対象者の身体部位の現在の動き、及び対象者の第2の生物学的パラメータの現在のレベルのうちの少なくとも1つが獲得される。この獲得は、ブロック204において決定された1つ又は複数の要件に基づく。
いくつかの実施形態では、ブロック206において、対象者の身体部位の現在の向き、対象者の身体部位の現在の動き、対象者の身体部位の現在の位置、及び対象者の第2の生物学的パラメータの現在のレベルのうちの少なくとも1つを獲得することは、対象者の身体部位の画像及び対象者の環境の音のうちの少なくとも1つを獲得することと、獲得された画像及び獲得された音のうちの少なくとも1つの分析を実施することによって、対象者の身体部位の1つ又は複数の物理的特徴を検出することと、検出された1つ又は複数の物理的特徴に基づいて、対象者の身体部位の現在の向き、対象者の身体部位の現在の位置、対象者の身体部位の現在の動き、及び対象者の第2の生物学的パラメータの現在のレベルのうちの少なくとも1つを決定することとを有する。
図2に戻ると、ブロック208において、対象者の身体部位の向き、対象者の身体部位の位置、及び対象者の第2の生物学的パラメータのうちの少なくとも1つの必要な調節が決定される。この決定は、ブロック204において決定されたそれぞれの要件、及びブロック206において獲得されたそれぞれの要件に関連付けられた情報に基づく。
図2に戻ると、ブロック210において、対象者のためのガイダンスが、ブロック208において決定された必要な調節に基づいて生成される。ガイダンスの生成は、
- システムのユーザ・インターフェースによって出力されることになる指向性音響効果を生成することであって、指向性音響効果が、必要な調節を実現するように対象者を誘発するように構成される、生成すること、及び
- 必要な調節を実現するように対象者を誘発するように、システムのユーザ・インターフェースによって出力されることになる視覚要素(例えばアクティブ・ウィンドウ)の相対位置及び属性(例えば視野角、深度など)のうちの少なくとも1つを決定すること
のうちの少なくとも1つを実施することによって実現される。
例として、対象者のためのガイダンスは、対象者の頭を動かして必要な調節を実現するように対象者を誘発するために、指向性音響効果を生成することによって生成されることが可能である。例えば、指向性音響効果は、ビーム形成を使用して提供されることが可能であり、ビーム形成は、対象者の頭を音の方に向けて対象者の頭の1つの側面の画像キャプチャを可能にするように対象者を誘発することができる。方法が指向性音響効果を生成することを有するいくつかの実施形態では、方法は、指向性音響効果の属性を決定することをさらに有する。音響効果の属性は、ピッチ、音の大きさ、テンポ、及び、沈黙又は休止周期のうちの少なくとも1つに関連付けられる。
例として、対象者のためのガイダンスは、特定の方向を見て、対象者の側面プロフィールの画像キャプチャを可能にするように対象者を誘発するシステムのユーザ・インターフェースによって出力されることになる、例えば小さい赤い点など、視覚要素の相対位置を決定することによって生成されることが可能である。代替として、視覚要素の相対位置は、対象者の手及び腕が、画像キャプチャに適した角度及び適した照明状態の場所にあるように、スワイプ・アクション実施するように対象者を誘発するために決定される。
いくつかの実施形態では、視覚要素の相対位置及び属性のうちの少なくとも1つを決定する際に、分析技法(例えば画像分析技法)が用いられることが可能である。これは、検知ユニットの位置及び向きが固定されているという仮定の下で実施される。対象者のキャプチャされた画像における対象者の身体特徴(例えば、頭、肩、目、鼻、耳など)に対応するピクセルを見つけるために、画像認識が使用されることが可能である。視覚要素の相対位置は、相対位置を表す座標が、身体特徴に対応するピクセルの座標と合致するように、決定されることが可能である。その上、場合によっては、対象者の左耳に対応するピクセルと右耳に対応するピクセルとの間の距離を決定することによって、ユーザ・インターフェース(及び/又は検知ユニット)からの対象者の距離が、ベースラインを設定するために決定される。このようにして、ブロック204において決定された要件のうちの1つ又は複数に従って対象者が位置付けられない場合、視覚要素は、ぼやける(ぼやけ効果は決定された属性である)。
いくつかの実施形態では、システムのユーザ・インターフェースによって出力されることになる視覚要素の相対位置を決定することは、相対位置の複数の候補のセットからの相対位置のセットを選択することと、選択された候補のセットから相対位置を決定することとを有する。これらの実施形態では、複数の候補のセットのそれぞれが、生物学的パラメータ、健康の状態、及び/又は治療に関連付けられる。例えば、相対位置の候補のセット1は、(生物学的パラメータとしての)皮膚の色の分析に関連付けられ、候補のセット2は、しわの分析、モニタリング、及び治療に関連付けられる。候補のセットは、1つ又は複数の対象者に関連付けられた以前のデータに基づいて、並びに/又は、同様の身体及び頭の寸法を有する対象者の母集団データに基づいて、決定される。
同様に、いくつかの実施形態では、システムのユーザ・インターフェースによって出力されることになる視覚要素の属性を決定することは、属性の複数の候補のセットから属性のセットを選択することと、選択された候補のセットから属性を決定することとを有する。
いくつかの実施形態では、視覚要素に関連付けられたコンテンツは、必要な調節を実施するように対象者を誘導するための非指示的プロンプトを有する。例えば、あくびをしている人々の(視覚要素の少なくとも一部としての)ビデオが、あくびするように対象者を誘発するように示され、これは、対象者の顔の皮膚の伸縮性を評価するのに有用である。同じ原理が、微笑む又は笑うように対象者を誘発するために、笑い(例えば、笑っている人々のビデオ、又は笑っている人々のサウンド・クリップ)に対して適用されることが可能であり、これは、対象者をリラックスさせるのに有用であり、第1の生物学的パラメータの分析のために所望のデータがキャプチャされる。
ブロック210におけるガイダンスの生成が、少なくとも、システムのユーザ・インターフェースによって出力されることになる視覚要素の相対位置及び属性のうちの少なくとも1つを決定することによって実現されるいくつかの実施形態では、視覚要素は、3Dフォーマット、ホログラフィ・フォーマット、仮想現実フォーマット、及び拡張現実フォーマットのうちの少なくとも1つで提供される。特に、視覚要素が3Dフォーマットで提供される実施形態では、視覚要素の属性は、異なる角度から鑑賞するように対象者を動機づけ、したがって、検知ユニットによって異なる角度から対象者の頭の画像をキャプチャできるように決定される。視覚要素がホログラフィ・フォーマットで提供される実施形態では、視覚要素は、対象者の身体の部位で特定の位置及び/若しくは向きをとること、又は、対象者の身体の部位で特定の動きを実施することを行うように対象者を誘発するように、コンテンツが特定の角度からでのみ鑑賞可能であるように提供される。さらに、システム100のユーザ・インターフェース110が装着可能ユニットを備えるいくつかの実施形態では、このような装着可能ユニットを介して出力された視覚要素の相対位置及び属性は、特定の位置及び/若しくは向きをとること、又は身体の部位の特定の動きを実施することを行うように対象者を誘発するように、適宜決定されることが可能である。また、システム100のユーザ・インターフェース110が、その出力において液体レンズ技術を使用するいくつかの実施形態では、液体レンズ・ディスプレイに関する属性は、必要な調節を実現するように対象者を誘発するように決定される。
いくつかの実施形態では、ブロック210におけるガイダンスの生成は、第1の生物学的パラメータにさらに基づく。例えば、第1の生物学的パラメータが、対象者の左頬の皮膚の領域の発赤のレベルである場合、視覚要素の相対位置は、対象者の左頬が検知ユニット(例えばカメラ)の視野内にあるように、対象者の頭を向けるように対象者を誘発するようなやり方で決定される。代替として又はさらに、指向性音響効果は、対象者の頭を向けるように対象者を誘発するように生成される。
さらに、視覚要素の相対位置及び/若しくは属性、又は検知ユニットの設定は、対象者の身体部位の向き、対象者の身体部位の位置、及び対象者の第2の生物学的パラメータのうちの少なくとも1つに対する変化する要件を満たすように周期的に(例えば毎日)調節される。これらの変化する要件は、対象者の第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる変化する条件により変動する。例えば、視覚要素の相対位置は、対象者の顔の画像が、検知ユニットによって異なる角度でキャプチャされるように、対象者の頭を異なる方向に動かすように対象者を誘発するように周期的に調節される。別の例として、視覚要素の視野角は、ユーザ・インターフェース(及びしたがって検知ユニット)に対して特定の角度で、自身を位置付けるように対象者を誘発するように狭められ、並びに/又は、視覚要素の視距離は、ユーザ・インターフェース(及びしたがって検知ユニット)に対して特定の範囲の距離に自身を位置付けるように対象者を誘発するように制限される。視覚要素の相対位置及び/又は属性の調節は、例えば小さい垂直又は水平シフトによって視覚要素の相対位置を変化させるなど、調節が対象者には知覚できないように実施される。視覚要素が3Dフォーマットで提供される場合、視覚要素の3D属性は、深度知覚の変動に関して調節される。
場合によっては、視覚要素の相対位置に関する小さいシフトは、対象者の身体部位の向き、対象者の身体部位の位置、及び/又は対象者の第2の生物学的パラメータに対する決定された必要な調節を実現するように対象者を必ずしも誘発しない。例えば、小さいシフトは、頭を動かさずに、対象者による目の急速な動き又は素早い目の凝視だけを引き起こす。実際には、約20°より大きい凝視の何らかのシフトが、頭の動きに伴う。この理由から、視覚要素の相対位置の調節は、身体の部位の向き、身体の部位の位置、及び/又は第2の生物学的パラメータに関する必要な調節を実現するように対象者を誘発するのに、大きいシフトが必要になるので、必ずしも巧みな「説得」ではない。代替として、例えば、ユーザ・インターフェース若しくは対象者の環境の物理的な抑制、又は対象者の健康状態に関連した抑制により、或いは対象者の好みにより、視覚要素の相対位置のより大きい調節が可能でない場合、視覚要素の属性は、身体の部位の向き、身体の部位の位置、及び/又は第2の生物学的パラメータに関して必要な調節を実現するように対象者を誘発するように調節される。いくつかの実施形態では、視覚要素の相対位置と視覚要素の1つ又は複数の属性(例えば視野角)両方の調節が可能である。
いくつかの実施形態では、視覚要素の相対位置を決定することは、例えばスマート・タイル又は体重計など、対象者によって使用されるデバイスから獲得された情報に基づく。例えば、出力されることになる視覚要素の相対位置を決定するために、対象者の左右又は前後のバランスに関連付けられたデータが使用される。
ブロック210におけるガイダンスの生成が、少なくとも、必要な調節を実現するように対象者を誘発するように、システム100のユーザ・インターフェース110によって出力されることになる視覚要素の相対位置を決定することによって実現される実施形態では、相対位置は、座標(例えばデカルト平面上の座標)によって表される。その上、相対位置は、システム100の1つ又は複数の検知ユニット120に対する視覚要素の位置を示す。さらに、これらの実施形態では、システム100のユーザ・インターフェース110によって出力されることになる視覚要素の相対位置のうちの少なくとも1つの決定は、視覚要素の座標を決定することを有する。
システム100のユーザ・インターフェース110によって出力されることになる視覚要素の相対位置の決定は、視覚要素の以前の相対位置に基づく。例えば、視覚要素は、ユーザ・インターフェース110を介して出力されたアクティブ・ウィンドウである。この例では、(座標によって提示される)相対位置は、メモリに格納され、同じアクティブ・ウィンドウ又は同様のアクティブ・ウィンドウが出力されることになるとき、後で取り出される。(新しい)アクティブ・ウィンドウの相対位置の決定は、以前の相対位置と同じであるか、さらなる調節を伴う以前の相対位置に基づく。さらなる調節は、それぞれの身体の部位の向き、それぞれの身体の部位の位置、及び第2の生物学的パラメータのレベルに関する変化する要件に基づく。
さらに、ブロック210におけるガイダンスの生成が、少なくとも、システムのユーザ・インターフェースによって出力されることになる視覚要素の相対位置のうちの少なくとも1つを決定することによって実現される実施形態では、相対位置を決定することは、対象者に対する視覚要素のデフォルトの相対位置を決定することを有する。デフォルトの相対位置は、座標によって表され、対象者に対する視覚要素のデフォルトの相対位置の決定は、対象者の身体の姿勢、対象者の1つ又は複数の顔の特徴、対象者の身長などの要因に基づく。このような情報は、ブロック206における、対象者の身体部位の現在の向き、対象者の身体部位の現在の動き、対象者の身体部位の現在の位置、及び対象者の第2の生物学的パラメータの現在のレベルのうちの少なくとも1つと一緒に獲得される。このような情報は、対象者に対する視覚要素のデフォルトの相対位置の決定前のいずれかの時点で獲得されることが理解されよう。
ブロック210におけるガイダンスの生成が、少なくとも、必要な調節を実現するように対象者を誘発するように、システムのユーザ・インターフェースによって出力されることになる視覚要素の少なくとも属性を決定することによって実現される実施形態では、属性を決定することは、視覚要素の視野角、視覚要素のサイズ、視覚要素の視深度、及び視覚要素の視距離のうちの少なくとも1つを決定することを有する。
図面に示されていないが、いくつかの実施形態では、方法は、生成されたガイダンスに応じて対象者からのフィードバックを獲得することであって、フィードバックが、対象者の身体部位の動き及び対象者の第3の生物学的パラメータのうちの少なくとも1つに関連付けられる、獲得することと、獲得されたフィードバックに基づいてガイダンスの更新が必要であるかどうかを決定することと、ガイダンスの更新が必要であると決定されたとき、対象者のための新しいガイダンスを生成することとを行うステップをさらに有する。フィードバックは、システム100の検知ユニット120によって獲得される。さらに、これらの実施形態では、第3の生物学的パラメータは、対象者の生理学的状態(例えば心拍数)、及び対象者の心理的状態(例えば表情によって示されるような感情)のうちの1つに関連付けられる。対象者の身体部位の動きは、例えば、生成された視覚要素に応じた対象者の頭の動きである。
このようなフィードバックを獲得する目的は、生成されたガイダンスに対する対象者の反応をモニタして、対象者が、生成されたガイダンスによって引き起こされるどのような注意散漫もなく、自分の主な活動を実施できるかどうかを決定することである。
1つの例では、視覚要素(例えばアクティブ・ウィンドウ)の属性(例えば視深度)が決定され、その後、視覚要素の出力で効果が発揮される。この例では、対象者の動きは、例えば、対象者が前後に動いており、このことが、対象者がユーザ・インターフェースから正しい距離を維持すること、及び視覚要素を明確且つはっきりと見ることを妨げるかどうかなど、視覚要素の決定された属性に対する適合に対象者が苦労しているかどうかを検出するためのフィードバックとしてモニタされる。この場合、動くこと及び潜在的に不快な位置をとることを対象者に強いるのではなく、視覚要素の相対位置及び属性の少なくとも1つがさらに調節されることが可能である。より詳細には、ユーザ・インターフェースの近くに移動するように対象者を説得するのではなく、位置が、対象者の頭をわずかに左に、次にその後わずかに右に向けるように対象者を説得するような、視覚要素の新しい相対位置が決定される。このようにして、第1の生物学的パラメータを分析するために、対象者が自分の頭を右に向けたときにキャプチャされた画像と一緒に、対象者が自分の頭を左に向けたときにキャプチャされた画像が使用されることが可能である。これらの画像は、意図する分析の有用性に関して、対象者がユーザ・インターフェースの近くに位置付けられた場合にキャプチャされる画像と同等であるとみなされる。言い換えれば、この例では、第1の生物学的パラメータを分析するために、異なるデータ獲得方法が使用される。2つの獲得方法の間の違いは、後者の方法が、キャプチャされることになるより多くの画像、及びキャプチャされることになる画像のためにより多くの時間を必要とすることである。それでも、後者の方法は、対象者が、視覚要素をより便利に鑑賞すること、及び視覚要素と潜在的に対話することができつつ、より快適であるという長所をもたらす。
別の例では、システム100の検知ユニット120を介して決定されることが可能な、疲労に関するパラメータ(例えば心拍数、呼吸数など)などの、対象者の生理学的状態に関するフィードバックが獲得される。検知ユニット120は、例えば呼吸数を決定するために、対象者の胸郭の動きを追跡することができるカメラを備える。代替として又はさらに、検知ユニット120は、対象者の心拍数を検出することができる装着可能センサを備える。これらの実施形態における方法は、検出された心拍数及び検出された呼吸数のうちの少なくとも1つに基づいて疲労のレベルを決定することと、疲労のレベルに基づいてガイダンスの更新が必要であると決定することとをさらに有する。新しいガイダンスは、視覚要素の相対位置及び属性のうちの少なくとも1つを調節するやり方によって生成される。
さらに別の例では、対象者の心理的状態(例えば感情)に関するフィードバックが獲得される。例えば、フィードバックは、(システム100の検知ユニット120の一部である)カメラを使用した対象者の表情のモニタリング、又は装着可能センサからの信号(例えば皮膚コンダクタンス、心拍変動など)のモニタリングを介して獲得されることが可能である。例えば、対象者の感情の誘意性の値は、表情、及び装着可能センサからの信号のうちの少なくとも1つに基づいて決定され、誘意性の値が所定の閾値を下回ると決定された場合、ガイダンスの更新が必要であると決定される。
図3は、1つの実施形態による、ユーザ・インターフェースによって出力された視覚要素の異なる相対位置を決定する実装形態を示す。本実施形態では、視覚要素は、情報(例えば現在の天候、個人のケア・データ、スキンケア指示など)を対象者に提供するために、スマート・ミラー・デバイスに提供された画面に表示されたアクティブ・ウィンドウであり、画面は、システムのユーザ・インターフェースの一部である。アクティブ・ウィンドウは、数あるデータの中でも、テキスト及び/又はグラフィックス(画像)から成るコンテンツを有する。アクティブ・ウィンドウのコンテンツは、顔(特に目及び鼻)並びに/又は身体(特に肩甲骨)が、画面に表示されたアクティブ・ウィンドウの相対位置に対して特定の位置及び/又は向きにあるときだけ、(最も良く)見ることができる。例えば、アクティブ・ウィンドウは、対象者の目が、画面に表示されたアクティブ・ウィンドウの相対位置と合致したときだけ、アクティブ・ウィンドウに提示された情報を(最も良く)読み取れるようなやり方で表示される。したがって、画面上のアクティブ・ウィンドウの異なる相対位置を調節すること又は変えることによって、対象者は、自分の身体の部位で適切又は理想的な位置及び/又は向きをとることと、データを途切ることなく収集できるように、検知ユニットのおそらく固定された照明状態及び固定された位置に対して動きを実施することとを誘発されることが可能である。
本実施形態におけるアクティブ・ウィンドウによってとられることが可能な異なる相対位置のうちの4つが、図3に示されている。相対位置の説明を容易にするために、画面は、画面の隅に対するアクティブ・ウィンドウの相対位置を明確に示すために、隅に陰影をつけた4つのグリッドによって表されている。いくつかの実施形態では、隅のそれぞれには、例えば、スマート・ミラー・デバイスの前に立っている対象者の画像データをキャプチャするためのカメラなど、検知ユニットが設置される。実際的な実装形態では、グリッドが画面を介して出力されないことが理解されよう。
図3に示されているように、アクティブ・ウィンドウは、最初に、画面の右上隅の近くに位置付けられたデフォルトの相対位置(「位置0」)をとる。図2を参照しながら上記で説明されたように、このデフォルトの相対位置は、対象者の身体の姿勢、対象者の1つ又は複数の顔の特徴、対象者の身長などの要因に基づく。
その上、図2を参照しながら上記で説明されたように、アクティブ・ウィンドウの相対位置は、対象者の身体部位の現在の向き、対象者の身体部位の現在の位置、対象者の身体部位の現在の動き、及び対象者の第2の生物学的パラメータの現在のレベルのうちの少なくとも1つに関連付けられた要件に応じて適合又は調節される。これらの要件は、対象者の第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる変化する条件に応じて変動する。例えば、アクティブ・ウィンドウの相対位置は、対象者の頭を右の方に動かすように対象者を誘発するために、(右への方向によって表された)「東」に、すなわちデフォルトの相対位置(「位置0」)から新しい位置(「位置1」)にシフトされる。同様に、アクティブ・ウィンドウの相対位置は、対象者の頭を下の方に(及び左の方に)傾けるように対象者を誘発するために、(下方向によって表された)「南」又は(左への方向と共に下方向によって表された)「南西」に、すなわちデフォルトの相対位置(「位置0」)から新しい位置(「位置2」又は「位置3」)に、シフトされる。上記で説明されたように、図3に示されたような相対位置のシフトは比較的小さいので、変化は、対象者によって知覚可能なものではない。
したがって、ガイダンスを対象者に提供するように構成された改善されたシステム、及びシステムを制御する方法が提供され、これらは既存の問題を克服する。本明細書で説明されるようなシステム及び方法を使用して生成されたガイダンスは、特定のアクションを実施するように直接求められるのではなく、データ収集に適した特定のやり方で移動する又はふるまうように、対象者が巧みに「説得される」ので、目立ちすぎないように及び偏在的であるように、データ収集を実施することを可能にする。「説得」(ガイダンス)は、対象者によって実施されている現在の活動に基づいて決定され、データ収集の理想的な状態が望まれる場合に対象者からの自発的な協力を必要とする。対象者によって必要とされる適合は、物理的又は精神的に要求することではないので、生成されたガイダンスが、何らかのじゃま又はいらだちを対象者に生じさせず、したがって協力を促進できることが期待される。本開示のコンテキストでは、「目立ちすぎないように及び偏在的であるように」は、知覚可能なガイダンスを必ずしも除外しないことに留意されたい。いくつかの事例では、生成されたガイダンスは、対象者によって知覚可能である。
コンピュータ可読媒体を備えるコンピュータ・プログラム製品も提供され、コンピュータ可読媒体は、コンピュータ可読媒体において具体化されたコンピュータ可読コードを有し、コンピュータ可読コードは、適切なコンピュータ又はプロセッサによる実行時、本明細書で説明される1つ又は複数の方法を実施することをコンピュータ又はプロセッサに行わせるように構成される。したがって、本開示は、コンピュータ・プログラム、特に、実施形態を実践するように適合された、キャリア上又は内のコンピュータ・プログラムにも適用されることが理解されよう。プログラムは、ソース・コード、オブジェクト・コード、コード中間ソース、及び、部分的にコンパイルされた形式、又は本明細書で説明される実施形態による方法の実施時の使用に適した任意の他の形式などの、オブジェクト・コードの形である。
このようなプログラムが多くの異なるアーキテクチャ・デザインを有することも認識されよう。例えば、方法又はシステムの機能を実施するプログラム・コードは、1つ又は複数のサブルーチンに再分割される。これらのサブルーチンの間に機能を分散させる多くの異なるやり方が、当業者には明らかであろう。サブルーチンは、自己完結型プログラムを形成するために、1つの実行可能ファイルに一緒に格納される。このような実行可能ファイルは、例えば、プロセッサ命令及び/又はインタープリタ命令(例えばJavaインタープリタ命令)などの、コンピュータ実行可能命令を有する。代替として、サブルーチンの1つ若しくは複数又は全てが少なくとも1つの外部ライブラリ・ファイルに格納され、例えば実行時に、メイン・プログラムと静的又は動的にリンクされる。メイン・プログラムは、サブルーチンのうちの少なくとも1つへの少なくとも1つのコールを収める。サブルーチンは、互いへのファンクション・コールも有する。
コンピュータ・プログラム製品に関する実施形態は、本明細書で示された方法のうちの少なくとも1つの各処理ステージに対応するコンピュータ実行可能命令を有する。これらの命令は、サブルーチンに再分割され、及び/又は、静的若しくは動的にリンクされた1つ又は複数のファイルに格納される。コンピュータ・プログラム製品に関する別の実施形態は、本明細書で示されたシステム及び/又は製品のうちの少なくとも1つの各手段に対応するコンピュータ実行可能命令を有する。これらの命令は、サブルーチンに再分割され、及び/又は、静的若しくは動的にリンクされた1つ又は複数のファイルに格納される。
コンピュータ・プログラムのキャリアは、プログラムを搬送することができる任意のエンティティ又はデバイスである。例えば、キャリアは、例えばCD ROM若しくは半導体ROMなどのROM、又は例えばハードディスクなどの磁気記録媒体などの、データ・ストレージを含む。さらに、キャリアは、電気若しくは光ケーブルを介して、又は無線若しくは他の手段によって伝えられる、電気又は光信号などの伝送可能なキャリアである。プログラムがこのような信号で具体化されるとき、キャリアは、このようなケーブル又は他のデバイス若しくは手段によって構成される。代替として、キャリアは、プログラムが組み込まれた集積回路であり、集積回路は、関連した方法を実施するように適合されるか、関連した方法の実施時に使用される。
開示の実施形態に対する変形形態は、特許請求された発明を実践する際に、図面、本開示、及び添付の特許請求の範囲の検討から、当業者によって理解及び実施されることが可能である。特許請求の範囲において、単語「備える」は、他の要素又はステップを除外せず、単数形は、複数を除外しない。単一のプロセッサ又は他のユニットは、特許請求の範囲に列挙された、いくつかの項目の機能を実現させる。特定の措置が相互に異なる従属請求項に列挙されるという単なる事実は、これらの措置の組合せを都合よく使用できないことを示しているわけではない。コンピュータ・プログラムは、他のハードウェアと一緒に又はその一部として供給された光ストレージ媒体又はソリッドステート媒体などの、適切な媒体に格納/配布されるが、インターネット又は他の有線若しくはワイヤレス・テレコミュニケーション・システムを介するなどして、他の形式でも配布される。特許請求の範囲におけるどの参照符号も、範囲を限定するものと解釈されるべきではない。

Claims (14)

  1. ガイダンスを対象者に提供するシステムを制御するためのコンピュータ実施方法であって、前記コンピュータ実施方法が、
    前記対象者の第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる1つ又は複数の条件を獲得するステップと、
    前記1つ又は複数の条件に基づいて、前記対象者の身体部位の向き、前記対象者の身体部位の位置、前記対象者の身体部位の動き、及び前記対象者の第2の生物学的パラメータのレベルのうちの少なくとも1つに関連付けられた1つ又は複数の要件を決定するステップと、
    前記1つ又は複数の要件に基づいて、前記対象者の前記身体部位の現在の向き、前記対象者の前記身体部位の現在の動き、前記対象者の前記身体部位の現在の位置、及び前記対象者の前記第2の生物学的パラメータの現在のレベルのうちの少なくとも1つを獲得するステップと、
    それぞれの前記要件及びそれぞれの前記要件に関連付けられた獲得された情報に基づいて、前記対象者の前記身体部位の向き、前記対象者の前記身体部位の位置、及び前記対象者の前記第2の生物学的パラメータのうちの少なくとも1つの必要な調節を決定するステップと、
    前記対象者のためのガイダンスを生成するステップであって、
    前記システムのユーザ・インターフェースによって出力されることになる指向性音響効果を生成するステップであって、前記指向性音響効果が、前記必要な調節を実現するように前記対象者を誘発する、生成するステップ、及び
    前記必要な調節を実現するように前記対象者を誘発するように、前記システムのユーザ・インターフェースによって出力されることになる視覚要素の相対位置及び属性のうちの少なくとも1つを決定するステップであって、前記システムのユーザ・インターフェースによって出力されることになる視覚要素の前記属性が、前記視覚要素の視野角、前記視覚要素の視深度、前記視覚要素の視距離、及び前記視覚要素のサイズのうちの少なくとも1つを有する、ステップ
    のうちの少なくとも1つを実施することによって、決定された前記必要な調節に基づいて前記対象者のためのガイダンスを生成するステップと
    を有する、コンピュータ実施方法。
  2. 前記視覚要素の相対位置が、座標によって表され、前記システムの1つ又は複数の検知ユニットに対する前記視覚要素の位置を示し、前記システムのユーザ・インターフェースによって出力されることになる前記視覚要素の少なくとも相対位置を決定するステップが、前記視覚要素の前記座標を決定するステップを有する、請求項1に記載のコンピュータ実施方法。
  3. ユーザ・インターフェースによって出力されることになる視覚要素の相対位置及び属性のうちの少なくとも1つを決定することが、前記第1の生物学的パラメータにさらに基づく、請求項1又は2に記載のコンピュータ実施方法。
  4. 決定された前記必要な調節に基づいて前記対象者のためのガイダンスを生成するステップが、指向性音響効果を生成するステップを有し、前記方法が、前記指向性音響効果の属性を決定するステップをさらに有する、請求項1から3のいずれか一項に記載のコンピュータ実施方法。
  5. 前記対象者の第1の生物学的パラメータを分析するのに必要な前記データがキャプチャされることになる1つ又は複数の条件を獲得するステップの前に、
    前記対象者、前記対象者によって使用されるデバイス、及び前記対象者によって使用されるアプリケーション・プログラムのうちの少なくとも1つに関連付けられた初期データを獲得するステップと、
    獲得された前記初期データが、所定の閾値より高い正確さのレベル、及び所定の閾値より高いスピードのレベルのうちの少なくとも1つで前記第1の生物学的パラメータの分析を実施するのに十分であるかどうかを決定するステップと
    というステップをさらに有し、
    前記対象者の第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる1つ又は複数の条件を獲得するステップは、獲得された前記初期データが、前記所定の閾値より高い正確さのレベル、及び前記所定の閾値より高いスピードのレベルのうちの少なくとも1つで前記第1の生物学的パラメータの分析を実施するのに十分でないと決定すると実施される、
    請求項1から4のいずれか一項に記載のコンピュータ実施方法。
  6. 獲得された前記初期データが、前記対象者の好みに関連付けられたデータ、前記対象者の環境に関連付けられたデータ、前記対象者によって使用されるデバイスの使用データ、前記対象者によって使用されるアプリケーション・プログラムの使用データ、前記第2の生物学的パラメータの値、前記第1の生物学的パラメータに関連付けられた前記対象者の身体部位の画像データ、及び前記対象者、前記対象者の環境、前記対象者によって使用されるデバイス、又は対象者によって使用されるアプリケーション・プログラムのうちの少なくとも1つによって生成された音響データのうちの少なくとも1つを有する、請求項5に記載のコンピュータ実施方法。
  7. 前記対象者の前記身体部位の現在の向き、前記対象者の前記身体部位の現在の位置、前記対象者の前記身体部位の現在の動き、及び前記対象者の前記第2の生物学的パラメータの現在のレベルのうちの少なくとも1つを獲得するステップが、
    前記対象者の前記身体部位の画像及び前記対象者の前記環境の音のうちの少なくとも1つを獲得するステップと、
    前記対象者の獲得された画像及び前記環境の音のうちの前記少なくとも1つの分析を実施することによって、前記対象者の前記身体部位の1つ又は複数の物理的特徴を検出するステップと、
    検出された前記1つ又は複数の物理的特徴に基づいて、前記対象者の前記身体部位の現在の向き、前記対象者の前記身体部位の現在の位置、前記対象者の前記身体部位の現在の動き、及び前記対象者の前記第2の生物学的パラメータの現在のレベルのうちの前記少なくとも1つを決定するステップと
    を有する、請求項1から6のいずれか一項に記載のコンピュータ実施方法。
  8. 生成された前記ガイダンスに応じて前記対象者からのフィードバックを獲得するステップであって、前記フィードバックが、前記対象者の前記身体部位の動き及び前記対象者の第3の生物学的パラメータのうちの少なくとも1つに関連付けられる、獲得するステップと、
    獲得された前記フィードバックに基づいて前記ガイダンスの更新が必要であるかどうかを決定するステップと、
    前記ガイダンスの更新が必要であると決定されたとき、前記対象者のための新しいガイダンスを生成するステップと
    をさらに有する、請求項1から7のいずれか一項に記載のコンピュータ実施方法。
  9. 生物学的パラメータが、前記対象者の前記生理学的状態及び前記対象者の前記心理的状態のうちの1つに関連付けられる、請求項1から8のいずれか一項に記載のコンピュータ実施方法。
  10. 前記対象者の第1の生物学的パラメータを分析するのに必要な前記データが、前記対象者の前記身体部位の1つ又は複数の画像を有し、前記対象者の第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる前記1つ又は複数の条件のそれぞれが、前記1つ又は複数の画像の鮮明さ、前記対象者の前記身体部位の照明のレベル、1つ又は複数の画像がキャプチャされる角度、及びその間に前記1つ又は複数の画像がキャプチャされる前記ユーザによって実施される活動のうちの少なくとも1つに関連付けられる、請求項1から9のいずれか一項に記載のコンピュータ実施方法。
  11. コンピュータ可読媒体を備えるコンピュータ・プログラムであって、前記コンピュータ可読媒体が、前記コンピュータ可読媒体において具体化されたコンピュータ可読コードを有し、前記コンピュータ可読コードが、適切なコンピュータ又はプロセッサによる実行時、請求項1から10のいずれか一項に記載の方法を実施することをコンピュータ又はプロセッサに行わせる、コンピュータ・プログラム。
  12. ガイダンスを対象者に提供するように構成されたシステムであって、前記システムが、
    1つ又は複数の視覚又は聴覚要素を出力するユーザ・インターフェースと、
    対象者の第1の生物学的パラメータを分析するのに必要なデータをキャプチャする検知ユニットと、
    制御ユニットとを備え、前記制御ユニットは、
    前記第1の生物学的パラメータを分析するのに必要な前記データがキャプチャされることになる1つ又は複数の条件を獲得すること、
    前記1つ又は複数の条件に基づいて、前記対象者の身体部位の向き、前記対象者の身体部位の位置、前記対象者の身体部位の動き、及び前記対象者の第2の生物学的パラメータのレベルのうちの少なくとも1つに関連付けられた1つ又は複数の要件を決定すること、
    前記1つ又は複数の要件に基づいて、前記対象者の前記身体部位の現在の向き、前記対象者の前記身体部位の現在の位置、前記対象者の前記身体部位の現在の動き、及び前記対象者の前記第2の生物学的パラメータの現在のレベルのうちの少なくとも1つを獲得すること、
    それぞれの前記要件及びそれぞれの前記要件に関連付けられた獲得された情報に基づいて、前記対象者の前記身体部位の向き、前記対象者の前記身体部位の位置、及び前記対象者の前記第2の生物学的パラメータのうちの少なくとも1つの必要な調節を決定すること、
    前記対象者のためのガイダンスを生成することであって、
    前記ユーザ・インターフェースによって出力されることになる指向性音響効果を生成することであって、前記指向性音響効果が、前記必要な調節を実現するように前記対象者を誘発する、生成すること、及び
    前記必要な調節を実現するように前記対象者を誘発するように、前記ユーザ・インターフェースによって出力されることになる視覚要素の相対位置及び属性のうちの少なくとも1つを決定することであって、前記システムのユーザ・インターフェースによって出力されることになる視覚要素の属性が、前記視覚要素の視野角、前記視覚要素の視深度、前記視覚要素の視距離、及び前記視覚要素のサイズのうちの少なくとも1つを有する、決定すること
    のうちの少なくとも1つを実施することによって、決定された前記必要な調節に基づいて前記対象者のためのガイダンスを生成すること
    を行う、システム。
  13. 前記制御ユニットが、必要な前記データがキャプチャされることになる1つ又は複数の条件を獲得することの前に、前記対象者、前記対象者によって使用されるデバイス、及び前記対象者によって使用されるアプリケーション・プログラムのうちの少なくとも1つに関連付けられた初期データを獲得することと、獲得された前記初期データが、所定の閾値より高い正確さのレベル、及び所定の閾値より高いスピードのレベルのうちの少なくとも1つで前記第1の生物学的パラメータの分析を実施するのに十分であるかどうかを決定することとをさらに行い、
    前記制御ユニットが、獲得された前記初期データが、前記所定の閾値より高い正確さのレベル、及び前記所定の閾値より高いスピードのレベルのうちの少なくとも1つで前記第1の生物学的パラメータの分析を実施するのに十分でないと決定されたとき、前記対象者の前記第1の生物学的パラメータを分析するのに必要な前記データがキャプチャされることになる1つ又は複数の条件を獲得する、
    請求項11に記載のシステム。
  14. 入射光を反射する反射構成要素、及び、請求項12から13のいずれか一項に記載のシステムを備える、デバイス。
JP2022559882A 2020-04-03 2021-03-25 ガイダンスを提供するためのシステム Pending JP2023520448A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
CN2020083343 2020-04-03
CNPCT/CN2020/083343 2020-04-03
EP20172496.0A EP3903668A1 (en) 2020-04-30 2020-04-30 A system for providing guidance
EP20172496.0 2020-04-30
PCT/EP2021/057657 WO2021197985A1 (en) 2020-04-03 2021-03-25 A system for providing guidance

Publications (2)

Publication Number Publication Date
JP2023520448A true JP2023520448A (ja) 2023-05-17
JPWO2021197985A5 JPWO2021197985A5 (ja) 2024-04-03

Family

ID=75108348

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022559882A Pending JP2023520448A (ja) 2020-04-03 2021-03-25 ガイダンスを提供するためのシステム

Country Status (5)

Country Link
US (1) US20230112939A1 (ja)
EP (1) EP4125551A1 (ja)
JP (1) JP2023520448A (ja)
CN (1) CN115484862A (ja)
WO (1) WO2021197985A1 (ja)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011054158A1 (zh) 2009-11-09 2011-05-12 天津九安医疗电子股份有限公司 一种能指示正确测量位置的电子血压计
JP5541407B1 (ja) * 2013-08-09 2014-07-09 富士ゼロックス株式会社 画像処理装置及びプログラム
TW201540264A (zh) * 2014-04-18 2015-11-01 Sony Corp 資訊處理裝置、資訊處理方法、及程式
JP6619202B2 (ja) * 2015-10-29 2019-12-11 株式会社トプコン 眼科撮影装置
JP2017209486A (ja) * 2016-05-19 2017-11-30 パナソニックIpマネジメント株式会社 血圧計測装置
CN115281605A (zh) * 2017-10-30 2022-11-04 威里利生命科学有限责任公司 眼底相机和操作眼底相机的方法
EP3749186A1 (en) * 2018-02-06 2020-12-16 Huma Therapeutics Limited Non-invasive continuous blood pressure monitoring
KR102590026B1 (ko) * 2018-07-12 2023-10-13 삼성전자주식회사 신호 측정 장치 및 방법과, 생체정보 측정 장치

Also Published As

Publication number Publication date
EP4125551A1 (en) 2023-02-08
WO2021197985A1 (en) 2021-10-07
CN115484862A (zh) 2022-12-16
US20230112939A1 (en) 2023-04-13

Similar Documents

Publication Publication Date Title
CN112034977B (zh) Mr智能眼镜内容交互、信息输入、应用推荐技术的方法
US11726324B2 (en) Display system
Cernea et al. A survey of technologies on the rise for emotion-enhanced interaction
WO2016165052A1 (en) Detecting facial expressions
JP2016126500A (ja) ウェアラブル端末装置およびプログラム
US11782508B2 (en) Creation of optimal working, learning, and resting environments on electronic devices
US20240152208A1 (en) Brain-computer interface
Wahl et al. Personalizing 3D-printed smart eyeglasses to augment daily life
JP2023052235A (ja) 出力制御装置、出力制御方法およびプログラム
WO2017016941A1 (en) Wearable device, method and computer program product
US20230282080A1 (en) Sound-based attentive state assessment
US20230112939A1 (en) A system for providing guidance
EP3903668A1 (en) A system for providing guidance
JPWO2020016970A1 (ja) 情報処理装置、情報処理方法、及びプログラム
Peters et al. Modelling user attention for human-agent interaction
Matthies et al. Wearable Sensing of Facial Expressions and Head Gestures
KR102564202B1 (ko) 사용자의 스트레스 완화를 위해 상호작용하는 가상동물을 제공하는 전자장치 및 이의 제어방법
WO2023114079A1 (en) User interactions and eye tracking with text embedded elements
US20240164677A1 (en) Attention detection
US20230418372A1 (en) Gaze behavior detection
US20240005537A1 (en) User representation using depths relative to multiple surface points
US20240164672A1 (en) Stress detection
Vora et al. Gaze-contingent Screen Adjustment
Nakamura Embedded Facial Surface Sensing and Stimulation: Toward Facial Surface Interaction in Virtual Environment
WO2023049089A1 (en) Interaction events based on physiological response to illumination

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240322

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240322