JP2023510153A - 対象者の身体部位に対して実行された処置動作に関するフィードバックの提供 - Google Patents
対象者の身体部位に対して実行された処置動作に関するフィードバックの提供 Download PDFInfo
- Publication number
- JP2023510153A JP2023510153A JP2022538743A JP2022538743A JP2023510153A JP 2023510153 A JP2023510153 A JP 2023510153A JP 2022538743 A JP2022538743 A JP 2022538743A JP 2022538743 A JP2022538743 A JP 2022538743A JP 2023510153 A JP2023510153 A JP 2023510153A
- Authority
- JP
- Japan
- Prior art keywords
- treatment
- treatment device
- body part
- skin
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 79
- 238000011282 treatment Methods 0.000 claims abstract description 413
- 238000012545 processing Methods 0.000 claims abstract description 88
- 238000005259 measurement Methods 0.000 claims abstract description 85
- 238000000034 method Methods 0.000 claims description 60
- 238000003384 imaging method Methods 0.000 claims description 59
- 230000009471 action Effects 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 6
- 230000003190 augmentative effect Effects 0.000 claims description 4
- 238000004148 unit process Methods 0.000 claims description 2
- 238000012544 monitoring process Methods 0.000 claims 2
- 210000003491 skin Anatomy 0.000 description 136
- 210000004209 hair Anatomy 0.000 description 13
- 230000000007 visual effect Effects 0.000 description 13
- 238000002203 pretreatment Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- XUMBMVFBXHLACL-UHFFFAOYSA-N Melanin Chemical compound O=C1C(=O)C(C2=CNC3=C(C(C(=O)C4=C32)=O)C)=C2C4=CNC2=C1C XUMBMVFBXHLACL-UHFFFAOYSA-N 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 210000003780 hair follicle Anatomy 0.000 description 3
- 238000002647 laser therapy Methods 0.000 description 3
- 235000019557 luminance Nutrition 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000001126 phototherapy Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 208000002874 Acne Vulgaris Diseases 0.000 description 2
- 229920000877 Melamine resin Polymers 0.000 description 2
- 206010000496 acne Diseases 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003659 hair regrowth Effects 0.000 description 2
- JDSHMPZPIAZGSV-UHFFFAOYSA-N melamine Chemical compound NC1=NC(N)=NC(N)=N1 JDSHMPZPIAZGSV-UHFFFAOYSA-N 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000001225 therapeutic effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 229910052724 xenon Inorganic materials 0.000 description 2
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000002280 anti-androgenic effect Effects 0.000 description 1
- 239000000051 antiandrogen Substances 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005868 electrolysis reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000003779 hair growth Effects 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000036564 melanin content Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 235000020043 port wine Nutrition 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000037452 priming Effects 0.000 description 1
- 230000003716 rejuvenation Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000036555 skin type Effects 0.000 description 1
- 239000000243 solution Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B18/00—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
- A61B18/18—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves
- A61B18/20—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves using laser
- A61B18/203—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves using laser applying laser energy to the outside of the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/06—Measuring instruments not otherwise provided for
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61N—ELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
- A61N5/00—Radiation therapy
- A61N5/06—Radiation therapy using light
- A61N5/0613—Apparatus adapted for a specific treatment
- A61N5/0616—Skin treatment other than tanning
- A61N5/0617—Hair treatment
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00137—Details of operation mode
- A61B2017/00154—Details of operation mode pulsed
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00743—Type of operation; Specification of treatment sites
- A61B2017/00747—Dermatology
- A61B2017/00752—Hair removal or transplantation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00743—Type of operation; Specification of treatment sites
- A61B2017/00747—Dermatology
- A61B2017/00756—Port wine stains
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B18/00—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
- A61B2018/00315—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body for treatment of particular body parts
- A61B2018/00452—Skin
- A61B2018/00476—Hair follicles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B18/00—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
- A61B2018/00636—Sensing and controlling the application of energy
- A61B2018/00642—Sensing and controlling the application of energy with feedback, i.e. closed loop control
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B18/00—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
- A61B2018/00636—Sensing and controlling the application of energy
- A61B2018/00773—Sensed parameters
- A61B2018/00791—Temperature
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2048—Tracking techniques using an accelerometer or inertia sensor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/06—Measuring instruments not otherwise provided for
- A61B2090/064—Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
- A61B2090/065—Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension for measuring contact or contact pressure
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
- A61B2090/3612—Image-producing devices, e.g. surgical cameras with images taken automatically
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61N—ELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
- A61N5/00—Radiation therapy
- A61N5/06—Radiation therapy using light
- A61N2005/0626—Monitoring, verifying, controlling systems and methods
- A61N2005/0627—Dose monitoring systems and methods
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61N—ELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
- A61N5/00—Radiation therapy
- A61N5/06—Radiation therapy using light
- A61N2005/0635—Radiation therapy using light characterised by the body area to be irradiated
- A61N2005/0643—Applicators, probes irradiating specific body areas in close proximity
- A61N2005/0644—Handheld applicators
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Pathology (AREA)
- Optics & Photonics (AREA)
- Radiology & Medical Imaging (AREA)
- Biophysics (AREA)
- Electromagnetism (AREA)
- Otolaryngology (AREA)
- Robotics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Radiation-Therapy Devices (AREA)
- Surgical Instruments (AREA)
- Orthopedics, Nursing, And Contraception (AREA)
- Percussion Or Vibration Massage (AREA)
- Massaging Devices (AREA)
- Control And Other Processes For Unpacking Of Materials (AREA)
Abstract
一態様によれば、対象者の身体部位に対して実行された処置動作に関するフィードバックをユーザに提供するために処置デバイスとともに使用される装置が提供され、処置デバイスは、処置動作を実行するために身体部位の肌に光パルスを印加するように構成され、肌に印加された光パルスは、肌の領域を処置する。上記の装置は、処理部を備え、処理部は、第1のセンサから第1の測定信号を受信するように構成され、第1の測定信号は、時間の経過に伴う前記処置デバイスの位置及び/又は動きに関する情報を含み、処理部は、更に、処置動作中に処置デバイスによって身体部位へ前に印加された光パルスに対して、光パルスが生成された時の身体部位に対する処置デバイスの位置として前の処置位置を推定するために第1の測定信号を処理し、前に印加された光パルスに対して、更に推定された前の処置位置に基づいて、処置デバイスが前の処置位置に存在した時に光パルスが印加された身体部位の肌の領域に対応する光パルスのための前の処置領域を推定し、身体部位に対する処置デバイスの現在の位置を推定するために第1の測定信号を処理し、処置デバイスの推定された現在の位置に基づいて、現在の位置にある時に処置デバイスが光パルスを印加する肌の領域に対応する現在の処置領域を推定し、フィードバック部のためのフィードバック制御信号を生成するように構成され、フィードバック制御信号は、フィードバック部に、現在の処置領域が前の処置領域と対応するか、又はほぼ対応するかを示すフィードバックを生成させる。
Description
本開示は、対象者の身体部位に対して実行された処置動作に関するフィードバックの提供に関し、詳しくは、光パルスが身体部位上の肌に印加される処置動作に関するフィードバックの提供に関する。
不要な毛髪の除去のための技法は、シェービング、電気分解処置、抜毛、レーザ及び光治療(光脱毛として知られる)、並びに治療的抗アンドロゲン注射を含む。毛髪成長減退、座瘡治療を含む他の種類の皮膚科治療において、光ベースの技術も使用可能である。
光エネルギの適切な構成、すなわち波長、強度、及び/又はパルス持続時間(光がパルス状である場合)に関して適切な構成を使用することによって、毛根の選択的な加熱及び毛嚢に対する後続の一時的又は永続的な損傷が実現可能である。家庭用光脱毛デバイス、例えばPhilips Lumeaデバイスは、例えば、広域スペクトル光の高出力バーストを生成するキセノンフラッシュランプなどの高輝度光源からのインテンスパルスライト(IPL)を使用する。
光脱毛処置は、光脱毛デバイスのユーザが毛髪除去を目的として肌の比較的小領域を処置するという特徴を有する。光脱毛処置は、強い光を使用して、毛髪及び毛根のメラミンを加熱し、毛嚢を静止期に移行させて、毛髪の再成長を防ぐ。この毛髪除去のための技術の効果的な使用のため、ユーザは間隙を残さずに完全に肌を処置する必要がある。この効果は限定された期間のみのものであるため、処置は定期的に、通常、処置が2週間に1度の頻度で実行される約2か月間の初期期間後に、維持段階で4から8週間に1度の頻度で反復される必要がある。
WO2019/224273A1は、光パルスを用いて人間の身体部位を処置するためのデバイスを開示する。このデバイスは、身体部位へ光パルスを印加するためのハンドピースを備える。このハンドピースは、身体部位に対して移動可能であり、光パルスが身体部位に印加される射出窓を備える。このハンドピースは、光学、容量性、又は慣性の動作検知器を更に備える。デバイスは、動作検知器によって供給される情報に基づいて決定された比率で、ハンドピースの動きの間の光パルスの射出を制御するためのシステムを更に備える。デバイスは、カメラによって提供される身体部位上のハンドピースの位置、処置されている身体部位の領域、及び/又は処置されていない身体部位の領域、並びに温度センサによって提供された情報に基づく肌の温度履歴という特徴のうちの1つ又は複数を示すように構成されたディスプレイを更に備える。
典型的な光脱毛処置において、光脱毛デバイスのユーザは、身体部位(例えば、腕、脚など)全体を網羅するために、肌上に光脱毛デバイスを繰り返し手動で位置決めして、光パルスをトリガする必要がある。しかしながら、通常、光脱毛デバイスが既に処置された領域に関してユーザにフィードバックを提供せず、光パルスの印加時又は光パルス印加後の短時間は肌又は毛髪の変化がユーザにとってあまり知覚可能でない、又は全く知覚可能でないため、ユーザが身体部位の完全な網羅を実現すること、及び/又は身体部位の特定の領域を過度に処置することを回避することが困難である。加えて、いくつかの種類の処置デバイスは、身体の異なる部位を処置するために異なるアタッチメントを利用でき、これらのアタッチメントは、それぞれの光パルスで処置される肌の領域の大きさを変化させることができる。これは、肌のどの部分が処置されたかをユーザが判断するのをより難しくする。
したがって、処置デバイスのユーザに対して、対象者の身体部位に対して実行された処置動作を判断して、それに関するフィードバックを提供できることが望ましい。
第1の特定の態様によれば、対象者の身体部位に対して実行された処置動作に関するフィードバックをユーザに提供するために処置デバイスとともに使用される装置が提供され、処置デバイスは、処置動作を実行するために身体部位の肌に光パルスを印加するように構成され、肌に印加された光パルスは、肌の領域を処置する。上記の装置は、処理部を備え、処理部は、第1のセンサから第1の測定信号を受信するように構成され、第1の測定信号は、時間の経過に伴う処置デバイスの位置及び/又は動きに関する情報を含み、処理部は、更に、処置動作中に処置デバイスによって身体部位へ前に印加された光パルスに対して、光パルスが生成された時の身体部位に対する処置デバイスの位置として前の処置位置を推定するために第1の測定信号を処理し、前に印加された光パルスに対して、推定された前の処置位置に基づいて、処置デバイスが前の処置位置に存在した時に光パルスが印加された身体部位の肌の領域に対応する光パルスのための前の処置領域を推定し、身体部位に対する処置デバイスの現在の位置を推定するために第1の測定信号を処理し、処置デバイスの推定された現在の位置に基づいて、現在の位置にある時に処置デバイスが光パルスを印加する肌の領域に対応する現在の処置領域を推定し、フィードバック部のためのフィードバック制御信号を生成するように構成され、フィードバック制御信号は、フィードバック部に、現在の処置領域が前の処置領域と対応するか、又はほぼ対応するかを示すフィードバックを生成させるように構成される。
いくつかの実施形態では、第1のセンサは、動きセンサ、加速度計、ジャイロスコープ、磁力計、気圧感知器、及びイメージングユニットのうちの1つである。
いくつかの実施形態では、センサはイメージングユニットであり、第1の測定信号は複数の画像又はビデオシーケンスであり、複数の画像又はビデオシーケンスは、時間の経過に伴う処置デバイスの位置及び/又は動きを特定するために処理される。それらの実施形態では、処理部は、画像又はビデオシーケンスにおける肌特徴及び/又は身体部位特徴を特定し、時間の経過に伴う画像又はビデオシーケンスにおけるそれらの肌特徴及び/又は身体部位特徴の動きを監視し、画像又はビデオシーケンスにおけるそれらの肌特徴及び/又は身体部位特徴の動きから、身体部位に対する処置デバイスの位置及び/又は動きを決定するように構成され得る。それらの実施形態では、処理部は、動きセンサから第2の測定信号を受信するように更に構成され、第2の測定信号は、時間の経過に伴う処置デバイスの位置及び/又は動きに関する情報を含み、処理部は、前の処置位置及び現在の位置を推定するために、第1の測定信号及び第2の測定信号を処理するように構成され得る。
いくつかの実施形態では、フィードバック制御信号は表示制御信号であり、フィードバック部はディスプレイユニットである。それらの実施形態では、表示制御信号は、ディスプレイユニットに、身体部位に重ねられた前の処置領域及び現在の処置領域のグラフィカル表現を含むグラフィカル表示を生成させるように構成され得る。それらの実施形態では、ディスプレイユニットはディスプレイ画面であり、表示制御信号は、グラフィカル表現が重ねられた身体部位の複数の画像又はビデオシーケンスを含む。代替の実施形態では、ディスプレイユニットはプロジェクターであり、表示制御信号は、プロジェクターに、推定された前の処置領域及び現在の処置領域に従って対象者の身体部位上にグラフィカル表現を投射させるように構成される。他の代替の実施形態では、ディスプレイユニットは、身体部位の拡張現実表示の一部としてグラフィカル表現を表示するように構成される。
いくつかの実施形態では、処理部は前の処置領域を推定し、(i)光パルスが通過する処置デバイスにおけるアパーチャの大きさと、(ii)処置デバイスに取り付けられたアタッチメントにおけるアパーチャの大きさと、に基づいて、現在の処置領域を推定するように構成される。
いくつかの実施形態では、処理部は、光パルスが身体部位の肌に印加された時を認識するように更に構成される。それらの実施形態では、処理部は、光パルスに起因した輝度上昇を認識するために、第1の測定信号、若しくは受信済み画像又はビデオシーケンスを処理することによって、光パルスが身体部位の肌に印加された時を認識するように構成される。
いくつかの実施形態では、処理部は、決定された現在の処置領域が前の処置領域のいずれかと重複しない、又はほぼ重複しない場合、処置デバイスにおける光源に、光パルスを生成させる作動信号を生成するように更に構成される。
いくつかの実施形態では、処理部は、更に、光パルスが肌に印加される処置デバイスにおけるアパーチャの位置と、それぞれ、処置デバイスの推定された前の処置位置及び推定された現在の位置との所定の関係に基づいて、前の処置領域及び現在の処置領域をそれぞれ推定するように更に構成される。
いくつかの実施形態では、装置は処置デバイスの一部である。代替の実施形態では、装置は処置デバイスから分離している。
いくつかの実施形態では、装置は第1のセンサを備える。代替の実施形態では、装置は第1のセンサから分離している。
第2の態様によれば、肌に処置動作を実行するために1つ又は複数の光源を備える処置デバイスと、時間の経過に伴う処置デバイスの位置及び/又は動きに関する情報を含む第1の測定信号を出力するための第1のセンサと、第1の態様又はそのいずれかの実施形態による装置とを備える、システムが提供される。
第3の特定の態様によれば、処置デバイスによって対象者の身体部位に対して実行された処置動作に関するフィードバックをユーザに提供するためのコンピュータ実施方法が提供され、処置デバイスは、処置動作を実行するために身体部位の肌に光パルスを印加するように構成され、肌に印加された光パルスは、肌の領域を処置する。上記方法は、第1のセンサから第1の測定信号を受信するステップを有し、第1の測定信号は、時間の経過に伴う処置デバイスの位置及び/又は動きに関する情報を含み、上記方法は、更に、処置動作中に処置デバイスによって身体部位へ前に印加された光パルスに対して、光パルスが生成された時の身体部位に対する処置デバイスの位置として前の処置位置を推定するために第1の測定信号を処理するステップと、前に印加された光パルスに対して、更に推定された前の処置位置に基づいて、処置デバイスが前の処置位置に存在した時に光パルスが印加された身体部位の肌の領域に対応する光パルスのための前の処置領域を推定するステップと、身体部位に対する処置デバイスの現在の位置を推定するために第1の測定信号を処理するステップと、処置デバイスの推定された現在の位置に基づいて、現在の位置にある時に処置デバイスが光パルスを印加する肌の領域に対応する現在の処置領域を推定するステップと、フィードバック部のためのフィードバック制御信号を生成するステップとを有し、フィードバック制御信号は、フィードバック部に、現在の処置領域が前の処置領域に対応するか、又はほぼ対応するかを示すフィードバックを生成させるように構成される。
いくつかの実施形態では、第1のセンサは、動きセンサ、加速度計、ジャイロスコープ、磁力計、気圧感知器、及びイメージングユニットのうちの1つである。
いくつかの実施形態では、センサはイメージングユニットであり、第1の測定信号は複数の画像又はビデオシーケンスであり、複数の画像又はビデオシーケンスは、時間の経過に伴う処置デバイスの位置及び/又は動きを特定するために処理される。それらの実施形態では、上記の方法は、画像又はビデオシーケンスにおける肌特徴及び/又は身体部位特徴を特定するステップと、時間の経過に伴う画像又はビデオシーケンスにおけるそれらの肌特徴及び/又は身体部位特徴の動きを監視するステップと、画像又はビデオシーケンスにおけるそれらの肌特徴及び/又は身体部位特徴の動きから、身体部位に対する処置デバイスの位置及び/又は動きを決定するステップと、を更に有し得る。それらの実施形態では、上記の方法は、動きセンサから第2の測定信号を受信するステップを更に有することができ、第2の測定信号は、時間の経過に伴う処置デバイスの位置及び/又は動きに関する情報を含み、現在の位置を推定するために第1の測定信号を処理するステップは、前の処置位置及び現在の位置を推定するために、第1の測定信号及び第2の測定信号を処理することを含み得る。
いくつかの実施形態では、フィードバック制御信号は表示制御信号であり、フィードバック部はディスプレイユニットである。それらの実施形態では、表示制御信号は、ディスプレイユニットに、身体部位に重ねられた前の処置領域及び現在の処置領域のグラフィカル表現を含むグラフィカル表示を生成させるように構成され得る。それらの実施形態では、ディスプレイユニットはディスプレイ画面であり、表示制御信号は、グラフィカル表現が重ねられた身体部位の複数の画像又はビデオシーケンスを含む。代替の実施形態では、ディスプレイユニットはプロジェクターであり、表示制御信号は、プロジェクターに、推定された前の処置領域及び現在の処置領域に従って対象者の身体部位上にグラフィカル表現を投射させるように構成される。他の代替の実施形態では、ディスプレイユニットは、身体部位の拡張現実表示の一部としてグラフィカル表現を標示するように構成される。
いくつかの実施形態では、前の処置領域を推定するステップと、現在の処置領域を推定するステップとは、前の処置領域を推定することと、(i)光パルスが通過する処置デバイスにおけるアパーチャの大きさと、(ii)処置デバイスに取り付けられたアタッチメントにおけるアパーチャの大きさと、に基づいて、現在の処置領域を推定するように構成される。
いくつかの実施形態では、上記の方法は、光パルスが身体部位の肌に印加された時を認識するステップを更に有する。それらの実施形態では、光パルスが肌に印加された時を認識するステップは、光パルスに起因した輝度上昇を認識するために、第1の測定信号又は受信済み画像又はビデオシーケンスを処理することによって、光パルスが身体部位の肌に印加された時を認識することを含み得る。
いくつかの実施形態では、上記の方法は、決定された現在の処置領域が前の処置領域のいずれかと重複しない、又はほぼ重複しない場合、処置デバイスにおける光源に、光パルスを生成させる作動信号を生成するステップを更に有する。
第4の態様によれば、具現化されたコンピュータ可読コードを有するコンピュータ可読媒体を備えるコンピュータプログラム製品が提供され、コンピュータ可読コードは、適切なコンピュータ又は処理部による実行時に、コンピュータ又は処理部に、第3の態様又はそのいずれかの実施形態による方法を実行させるように構成される。
上記及び他の態様は、以下に記載の実施形態から明らかであり、それを参照して説明される。
上述したように、本明細書に記載の技法は、対象者の身体部位に対して実行された処置動作に関するフィードバックを決定及び提供するために使用できる。特に、フィードバックは、身体部位の肌上の処置デバイスの現在の位置が、既に処置された肌(すなわち、光パルスが既に印加された肌)であるかを示し得る。特定の実施形態では、フィードバックは、前に処置された肌のいずれかの領域のグラフィカル表現と、処置デバイスの現在の位置で処置される肌の領域の標示とを含むグラフィカル表示であり得る。
本明細書に記載の技法は、処置デバイス(例えば、処置デバイスの処理部)によって実施されることが可能であり、又は分離した装置(例えば、スマートフォン、タブレット、スマートウォッチ、ラップトップ、コンピュータ、サーバなど)の処理部によって実施されることが可能である。時間の経過に伴う処置デバイスの位置(向きを含む)及び/又は動きに関する情報を提供するために、1つ又は複数のセンサが必要である。いくつかの実施形態では、その1つ又は複数のセンサは、加速度計、ジャイロスコープなどの1つ又は複数の動きセンサを含む。それらの実施形態では、1つ又は複数の動きセンサは、代替として、慣性測定装置(IMU)と呼ばれる。いくつかの実施形態では、1つ又は複数のセンサは、対象者の肌の領域の複数の画像又はビデオシーケンスを取得するイメージングユニット(例えば、カメラ)を含む。動きセンサ(加速度計など)の場合、動きセンサは、処置デバイスの一部である。イメージングユニットの場合、イメージングユニットは、処置デバイスの一部、本明細書に記載の技法を実施する処置デバイスから分離した装置の一部、又は処置デバイスと、本明細書に記載の技法を実施する装置との両方から分離した装置の一部である。いくつかの実施形態では、1つ又は複数のセンサが、1つ又は複数の動きセンサ及びイメージングユニットを含み得ることが理解されるであろう。
図1は、肌の領域に対して光パルスを印加するために使用可能な例示的な処置デバイス2の図である。図1の処置デバイス2は、本発明がともに使用されることが可能なハンドヘルド処置デバイス2の例として提示されているのに過ぎず、処置デバイス2は、図1に示された形態又はハンドヘルド処置デバイスに限定されないことが理解されるであろう。処置デバイス2は、対象者(例えば、人又は動物)の身体上での使用のためのものであり、使用中はユーザの片手又は両手で保持される。処置デバイス2が対象者の身体部位に接触している状態又は近接した状態で、処置デバイス2は対象者の肌又は身体に対して、1つ又は複数の光パルスを使用して何らかの処置動作を実行する。処置動作は、レーザ及び/又は光治療(光脱毛処置又はインテンスパルスライト(IPL)処置として知られる)による不要な毛髪の除去であり得る。若しくは、処置動作は、皮膚科(肌)治療、座瘡治療、他の種類の肌状態のための光治療処置、肌の若返り、又はポートワイン斑処置など、毛髪の除去又は成長防止以外の理由のためのレーザ及び/又は光治療であり得る。
本明細書で記載される場合、処置デバイス2は、「ユーザ」によって動作又は使用され、処置デバイス2は「対象者」の身体上で使用される。いくつかの場合では、ユーザ及び対象者は同一の人であり、すなわち、処置デバイス2はユーザによって手で保持されてユーザ自身に対して使用される(例えば、自分の脚の肌に対して使用される)。他の場合では、ユーザ及び対象者は異なる人であり、例えば処置デバイス2はユーザによって手で保持され、他の人に対して使用される。いずれの場合でも、光パルス印加時又は印加後の短時間は肌の変化がユーザにとってあまり知覚可能でない、又は全く知覚可能でないため、ユーザが身体部位の完全な網羅を実現すること、及び/又は身体部位の特定の領域の過度な処置を回避することが困難である。
例示的な処置デバイス2は、少なくともハンドル部5とヘッド部6とを含む筐体4を備える。ハンドル部5は、ユーザが片手で処置デバイス2を保持できるようにする形状を有する。ヘッド部6は、筐体4のヘッド端部8に存在し、ヘッド部6が身体又は肌と接触している位置において対象者の身体又は肌に対して処置動作が実行されるために、ヘッド部6は対象者と接触するように配置される。
処置デバイス2は、光パルスを使用して処置動作を実行するためのものである。そのため、図1では、ヘッド部6は、筐体4中又は筐体4上に配置されたアパーチャ10を備え、それによってアパーチャ10は対象者の肌と隣り合って、又は肌上に(すなわち肌と接触して)配置され得る。処置デバイス2は、アパーチャ10を介して対象者の肌に印加されて処置動作を実現する光パルスを生成するための1つ又は複数の光源12を備える。1つ又は複数の光源12は筐体4に配置され、それによって光パルスが1つ又は複数の光源12からアパーチャ10を介して供給される。アパーチャ10は、筐体4のヘッド端部8における開口部の形状を有し、又は光パルスにとって透過又は半透過であるウィンドウ(導波管を含む)の形状を有する(すなわち、光パルスはウィンドウを通過できる)。
図1に示す例示的な実施形態では、アパーチャ10は全体として矩形を有し、その結果として、肌上に全体的に矩形の肌処置領域が得られる。なお、アパーチャ10はいずれかの他の所望の形状を有し得ることが理解されるであろう。例えば、アパーチャ10は、正方形、楕円形、円形、又はいずれかの他の多角形であることが可能である。
図1には図示していないが、処置デバイス2は、それぞれがアパーチャ10を含む処置デバイス2のヘッド部6用の1つ又は複数の取り外し可能アタッチメントを有する。このアタッチメントは異なる身体部位上で使用され、異なる大きさのアパーチャ10を有する。例えば、あるアタッチメントは脚などの大きい身体部位に対して使用可能であり、したがって大きいアパーチャ10を有することができる一方、他のアタッチメントは上唇の上部の肌/毛髪に対して使用可能であり、したがって小さいアパーチャ10を有することができる。
1つ又は複数の光源12は、いずれかの適切又は所望の波長(又は波長範囲)及び/又は強度で光パルスを生成可能である。例えば、光源12は、可視光、赤外線(IR)光及び/又は紫外線(UV)光を生成可能である。各光源12は、1つ又は複数の発光ダイオード(LED)、(キセノン)フラッシュランプ、レーザなどのいずれかの適切な種類の光源を備えることが可能である。光源12は、およそ2.5ミリ秒(ms)の区間のための560から1200ナノメートル(nm)範囲のスペクトル成分を有する光パルスを供給できる。これは、それらの波長が吸収によって毛髪及び毛根のメラミンを加熱し、毛嚢を静止期に移行させ、毛髪の再成長を防ぐためである。
1つ又は複数の光源12は、光のパルスを供給するように構成される。すなわち、光源12は、短時間(例えば1秒未満)で高強度の光を生成するように構成される。光パルスの強度は、アパーチャ10と隣り合った肌又は身体部位に対して処置動作を実現する程度に十分高い必要がある。
図示する処置デバイス2は、任意で、ヘッド部6が肌と接触しているかを判断するために使用されるヘッド部6上又はヘッド部6中に配置された2つの肌接触センサ14、16を更に備える。肌接触センサ14、16は、ヘッド部6が肌と接触しているかを示すパラメータを測定し、パラメータの測定結果の時系列を含むそれぞれの測定信号を生成する。この測定信号は、ヘッド部6が肌と接触しているかを判断するために処理されることが可能である。通常、肌接触センサは、光パルスがユーザ又は対象者の目に向かうことを避けるために、光パルスが生成される前に処置デバイス2が肌に正しく接触していることを確実にするように、処置デバイス2、特に光脱毛器中で使用される。
いくつかの実施形態では、パラメータは容量でもよく、したがって肌接触センサ14、16はヘッド部6の表面上の電気接点又は電極のそれぞれの対を介して容量を測定でき、測定された容量は、肌接触があるかを示す。代替の実施形態では、パラメータは光強度又は光量でもよく、したがって肌接触センサ14、16は、光センサに入射した光の強度又は量を測定する光センサでもよく、測定された強度又は量は、肌接触があるかを示す(例えばわずかな光、又は光が全くない状態は、肌が光センサ14、16を覆った時の肌接触を示す場合があり、またその逆もあり得る)。他の代替の実施形態では、パラメータは肌圧力の測定値でもよく、したがって肌接触センサ14、16は、それぞれの圧力センサ又は機械的スイッチを介して肌圧力を測定でき、測定された肌圧力は、肌接触があるかを示す。
図示する処置デバイス2は、ヘッド部6が接触している肌の肌色を判断するために使用可能な、ヘッド部6上、又はヘッド部6中に配置された任意の肌色センサ18を更に備える。肌色センサ18は、肌の肌色を示すパラメータを測定することができ、パラメータの測定結果の時系列を含む測定信号を生成することができる。この測定信号は、ヘッド部6が接触している肌の肌色を判断するように処理されることが可能である。通常、肌色センサは、処置対象の肌のタイプに適した強度を光パルスが有することを確実にするために、又は肌タイプ(例えば非常に多くのメラニン成分を有する暗めの肌)が光パルスに適さない場合に光パルスの生成を防ぐように、処置デバイス2、特に光脱毛器中で使用される。
いくつかの実施形態では、任意の肌色センサ18は、光センサであることが可能であり、光センサによって測定されたパラメータは、肌から反射された特定の波長又は複数の波長における光の強度又は量であり得る。特定の波長における反射光の測定された強度又は量は、肌の色を示し得る。反射光の測定された強度又は量は、肌のメラニン濃度に基づいてもよく、それによって、測定された強度又は量はメラニン濃度を示し得る。メラニン濃度は、例えば、660nm(赤)及び880nm(赤外線)波長における光反射の測定結果から導出されることが可能である。
図示する処置デバイス2は、処置デバイス2をアクティブ化するためにユーザによって動作可能なユーザコントロール20を更に備え、それによってヘッド部6は対象者の身体に対して要求される処置動作を実行する(例えば、1つ又は複数の光源12による光パルスの生成)。ユーザコントロール20は、スイッチ、ボタン、タッチパッドなどの形態を有する。
上述したように、時間の経過に伴う処置デバイスの位置(向きを含む)及び/又は動きに関する情報を提供するために、1つ又は複数のセンサが必要であり、それによって適切なフィードバックが判断されることができ、いくつかの実施形態では、1つ又は複数のセンサが処置デバイス2の一部であることも可能であり、又は処置デバイス2に存在することも可能である。加速度計、ジャイロスコープなどの1つ又は複数の動きセンサであるセンサの場合、1つ又は複数の動きセンサは、処置デバイス2の一部であることも可能であり、例えば処置デバイス2の内部に存在することも可能である(それ自体は図1では不図示)。1つ又は複数のセンサがイメージングユニット(例えば、カメラ)を含む実施形態では、イメージングユニットは処置デバイス2上又は処置デバイス2に存在する。図1に示すように、イメージングユニット22は、処置デバイス2の筐体4上に配置され、それによって、処置デバイス2の前方に存在する肌又は身体部位の画像又はビデオシーケンスを取得できる。すなわち、イメージングユニット22は、処置デバイス2の筐体4上に配置され、それによって光パルスがアパーチャ10を通って光源12によって射出される方向に全体的に平行な方向から画像又はビデオシーケンスを取得する。いくつかの実施例では、ヘッド部6が対象者と接触するように配置され、それによってアパーチャ10を通して光源12にとって可視である肌の一部に光パルスが印加可能な時に、イメージングユニット22は、アパーチャ10及びヘッド端部6と接触している肌の部分を見ることができないように、イメージングユニット22は筐体4上に配置される。イメージングユニット22が処置デバイス2の筐体4上に配置された実施形態では、イメージングユニット22は、処置デバイス2の残りに関して固定配置される。
図2は、光パルスを用いて処置された肌の領域及び処置されていない肌の領域に関するフィードバックを提供するための装置42を備える例示的なシステム40のブロック図である。システム40は、更に、時間の経過に伴う処置デバイス2の位置及び/又は動きに関する情報を含む測定信号を提供するための1つ又は複数のセンサ44と、光パルスを用いて処置された肌の領域及び処置されていない肌の領域に関するフィードバックをユーザ及び/又は対象者に提供するためのフィードバック部45とを備える。いくつかの実施例では、処置デバイス2は図2に示されていないが、処置デバイス2はシステム40の一部と考えられ得る。上述したように、いくつかの実施形態では、装置42は処置デバイス2とは分離したデバイスであることが可能であり、したがって装置42はスマートフォン、スマートウォッチ、タブレット、パーソナルデジタルアシスタント(PDA)、ラップトップ、デスクトップコンピュータ、リモートサーバ、スマートミラーなどの電子デバイスの形態を有する。他の実施形態では、装置42、特に装置42によって提供される本発明による機能性は、処置デバイス2の一部である。
上述したように、1つ又は複数のセンサ44は、処置デバイス2の動きを測定してそれらの動きを表す測定信号を出力する、加速度計、ジャイロスコープ、気圧感知器(高度変化を測定するために使用され得る)、磁力計などの1つ又は複数の動きセンサ44であり得る。1つ又は複数の動きセンサ44は、処置デバイス2の一部、又は処置デバイス2に存在する。加速度計を備える1つ又は複数の動きセンサ44の場合、加速度計44は、複数の時刻における処置デバイス2の動きを表す複数の加速度測定サンプルを含む測定信号を生成できる。加速度計44は三次元で加速度を測定する加速度計でもよく、加速度計44によって生成された測定信号は、三次元のそれぞれの次元における加速度を表すそれぞれの測定信号を含み得る。例えば、加速度計44は、デカルト座標計のx軸、y軸、及びz軸のそれぞれに対する対応測定信号を出力できる。
1つ又は複数のセンサ44は、複数の画像又はビデオシーケンスを取得するイメージングユニット44(例えば、カメラ又はイベントカメラ)を更に含むことができ、若しくは、それ自体であり得る。イベントカメラは、センサの各ピクセルの輝度の変化が発生した時にそれを独立して示すイメージングセンサである。複数の画像(イベントカメラからの輝度標示から形成された画像を含む)又はビデオシーケンスは測定信号として出力され、測定信号(画像/ビデオシーケンス)は、処置デバイス2の動きを特定するイメージング処理技法を使用して処理され得る。いくつかの実施形態では、イメージングユニット44は処置デバイス2に取り付けられ、又はその一部であり、その場合、画像/ビデオシーケンスは、その画像/ビデオシーケンスで可視の物体(例えば、身体部位又は肌)の動きに基づいて処置デバイス2の動きを抽出するように処理されることが可能である。他の実施形態では、イメージングユニット44は、例えば、装置44のイメージングユニット4など、処置デバイス2から分離されることができ、又は、スマートフォン、スマートウォッチ、タブレット、パーソナルデジタルアシスタント(PDA)、ラップトップ、デスクトップコンピュータ、スマートミラーなどの分離したデバイスに存在し得る。この場合、イメージングユニット44は、遠くから処置デバイス2と身体部位との両方を観察できる。イメージングユニット44は、例えば電荷結合素子(CCD)及び1つ又は複数のレンズ及び/又はミラーなどの、画像をキャプチャするためのいずれかの適切なコンポーネントを含む。いくつかの実施形態では、イメージングユニット44は、デジタルカメラ、又はイベントカメラなどのカメラである。上述したように、いくつかの実施形態では、1つ又は複数のセンサ44は、1つ又は複数の動きセンサと、イメージングユニットとを備え得る。
装置42は、装置42の動作を全体的に制御して装置42が本明細書において説明される方法及び技法を実行できるようにする処理部46を備える。処理部44は、センサ44から測定信号を受信し、処置動作に関して提供されるフィードバックを決定するためにその測定信号を処理し、フィードバック制御信号をフィードバック部45に提供する。それによって、処理部46は、センサ44が装置42の一部である実施形態では直接、又はセンサ44が装置42から分離されている実施形態では他のコンポーネントを介して、のいずれかで1つ又は複数のセンサ44から測定信号を受信するように構成されることが可能である。いずれの場合でも、処理部46は、測定信号の受信のために1つ又は複数の入力ポート又は配線を含む、若しくは備えることができる。処理部46は、フィードバック制御信号を出力するための1つ又は複数の出力ポート又は配線を更に含む、若しくは備えることも可能である。
処理部46は、本明細書で説明される様々な機能を実行するために、ソフトウェア及び/又はハードウェアにより多くの手法で実施されることが可能である。処理部46は、要求される機能を実行するために、及び/又は要求される機能を実現するように処理部46の構成要素を制御するために、ソフトウェア又はコンピュータプログラムコードを使用してプログラムされる1つ又は複数のマイクロプロセッサ又はデジタル信号プロセッサ(DSP)を備える。処理部46は、ある機能を実行する専用ハードウェア(例えば増幅器、前置増幅器、アナログデジタル変換器(ADC)及び/又はデジタルアナログ変換器(DAC))と、他の機能を実行するプロセッサ(例えば1つ又は複数のプログラムされたマイクロプロセッサ、コントローラ、DSP、及び関連サーキットリー)との組み合わせとして実施される。本開示の様々な実施形態で用いられるコンポーネントの例は、従来のマイクロプロセッサ、DSP、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ニューラルネットワーク及び/又はいわゆる人工知能(AI)ハードウェアアクセラレータを実施するためのハードウェア(すなわち、主プロセッサとともに使用可能なAIアプリケーション専用に設計されたプロセッサ又は他のハードウェア)、並びに/若しくは自己位置推定及びマッピングの同時実行(SLAM)技法専用に設計されたハードウェアを含むが、これに限定されない。
処理部46は、メモリ部48を備えることができ、又はそれと関連付けられることが可能である。メモリ部48は、装置42の動作を制御する際、及び/又は本明細書に記載の方法を実施又は実行する際に、処理部46によって使用されるデータ、情報、及び/又は信号(画像を含む)を格納可能である。いくつかの実施例において、メモリ部48は、処理部46によって実行可能なコンピュータ可読コードを格納し、それによって処理部46は本明細書に記載される方法を含む1つ又は複数の機能を実行する。特定の実施形態において、プログラムコードは、スマートフォン、タブレット、ラップトップ、コンピュータ、又はサーバのためのアプリケーションの形態を有することが可能である。メモリ部48は、ランダムアクセスメモリ(RAM)、静的RAM(SRAM)、動的RAM(DRAM)、読出し専用メモリ(ROM)、プログラマブルROM(PROM)、消去可能PROM(EPROM)、及び電気消去可能PROM(EEPROM)などの揮発性及び不揮発性コンピュータメモリを含むキャッシュ又はシステムメモリなどの任意の種類の非一時的機械可読媒体を備えることが可能であり、メモリ部は、メモリチップ、光学ディスク(コンパクトディスク(CD)、デジタル多用途ディスク(DVD)又はブルーレイディスクなど)、ハードディスク、テープストレージソリューション、又はメモリスティック、ソリッドステートドライブ(SSD)、メモリカードなどを含むソリッドステートデバイスの形態で実施されることが可能である。
図2に示す実施形態では、装置42がセンサ44から分離しているとして示されているため、装置42は、装置42がセンサ44から測定信号を受信できるようにするインターフェースサーキットリー50を更に含む。装置42のインターフェースサーキットリー50は、センサ44、処置デバイス2、サーバ、及びデータベースのうちの任意の1つ又は複数を含む他のデバイスとのデータ接続及び/又はデータ交換を可能とする。センサ44(又は処置デバイス2などの電子デバイス)への接続は、直接的又は間接的(例えばインターネットを介する)でもよく、それによってインターフェースサーキットリー50は、所望の有線又は無線通信プロトコルによる、装置42とネットワークとの間での接続、又は装置42と他のデバイス(センサ44及び/又は処置デバイス2など)との間での直接接続を実現できる。例えば、インターフェースサーキットリー50は、WiFi、Bluetooth、Zigbee、又は任意のセルラ通信プロトコル(Global System for Mobile Communications(GSM)、ユニバーサルモバイルテレコミュニケーションシステム(UMTS)、ロングタームエボリューション(LTE)、LTE-Advancedなどを含むがこれに限定されない)を使用して動作可能である。無線接続の場合、インターフェースサーキットリー50(したがって装置42)は、伝達媒体(例えば無線)を介して送受信するための1つ又は複数の適切なアンテナを含む。若しくは、無線接続の場合、インターフェースサーキットリー50は、インターフェースサーキットリー50を、伝達媒体(例えば無線)を介して送受信するための装置42の外部の1つ又は複数の適切なアンテナに接続可能とする手段(例えばコネクタ又はプラグ)を含む。インターフェースサーキットリー50は、処理部46に接続される。
図2には不図示であるが、装置42は、装置42のユーザが装置42に対して情報、データ、及び/又はコマンドを入力できるようにし、及び/又は装置42が装置42のユーザに対して情報又はデータを出力できるようにする1つ又は複数のコンポーネントを含む1つ又は複数のユーザインターフェースコンポーネントを備えてもよい。ユーザインターフェースは、キーボード、キーパッド、1つ又は複数のボタン、スイッチ又はダイヤル、マウス、トラックパッド、タッチスクリーン、スタイラス、カメラ、マイクなどを含むがこれに限定されない任意の適切な入力コンポーネントを備えることが可能であり、ユーザインターフェースは、ディスプレイユニット又はディスプレイ画面、1つ又は複数の照明又は光素子、1つ又は複数のスピーカー、振動子などを含むがこれに限定されない任意の適切な出力コンポーネントを備えることが可能である。
フィードバック部45は、現在の処置領域が前の処置領域に対応するか、又はほぼ対応するかを示すフィードバックを生成するためのものである。このフィードバックは、視覚、聴覚、及び触覚のいずれか、又はいずれかの組み合わせである。それによって、フィードバック部45は、ディスプレイユニット(ディスプレイ画面、拡張現実(AR)表示を提供するために使用されるディスプレイ画面/透過パネル、若しくはピコプロジェクター又は微小電気機械システム(MEMS)ピコプロジェクターなどのプロジェクター)、1つ又は複数の照明又は光素子、1つ又は複数のスピーカー、及び1つ又は複数の振動子を含むがこれに限定されない1つ又は複数の出力コンポーネントを備える。好適な実施形態では、フィードバック部45はディスプレイユニットであり、上記のフィードバックは、光パルスを用いて前に処置された肌の領域のグラフィカル表現と、処置デバイス2の現在位置にしたがって光パルスを用いて処置される領域のグラフィカル表現とを含むグラフィカル表示である。
いくつかの実施形態では、フィードバック部45は処置デバイス2に取り付けられる、又はその一部である。他の実施形態では、フィードバック部45は装置42の一部である。それらの実施形態では、フィードバック部45は、装置42のユーザインターフェースコンポーネントの出力コンポーネントうちのいずれかの一部であるか、又はそれを利用する。更なる実施形態では、フィードバック部45は、処置デバイス2及び装置42とは分離していることが可能であり、例えばスマートフォン、スマートウォッチ、タブレット、パーソナルデジタルアシスタント(PDA)、ラップトップ、デスクトップコンピュータ、スマートミラーなどの分離したデバイスに存在することができる。
装置42の実践上の実施は、図2に示すものに対する追加構成要素を含むことが理解されるであろう。例えば、装置42は、電池などの電源、又は装置42を主電源に接続可能とする構成要素を更に含む。
背景の項で説明したように、一般的な光ベースの処置では、処置デバイス2のユーザは、肌上の処置デバイス2の位置を繰り返し手動で特定して、光パルスをトリガする必要がある。ただし、光パルス印加時又は光パルス印加後の短時間は、肌又は毛髪の変化は、ユーザにとってあまり知覚可能でない、又は全く知覚可能でなく、そのためユーザが身体部位の完全な網羅を実現すること、及び/又は、既に処置された肌の領域に対して光パルスを繰り返して身体部位の特定の領域を過度に処置することを回避することが困難である。フィードバックを処置デバイス2のユーザに提供せずに得られた一般的な処置の網羅を図示するために、図3は、多くの光パルスが印加された後の腕60の赤外線画像を示す。この赤外線画像は、温度カメラを使用して得られたものである。この画像は、本開示の技法によって対処される問題を容易に図示するために含まれており、処置デバイス2、装置42、及びシステム40は温度(赤外線)カメラを含まないことが理解されるであろう。図3の画像で、画像の一部の輝度は、その部分の温度に依存し、より明るい(より白い)部分は、低温に対応するより高い温度及びより暗い(より黒い)部分に対応する。より高い温度の領域に対応する、数多くの明るい領域62が腕60に存在(その一部のみが図3で参照されている)することがわかる。これらの領域は、光パルスが処置デバイス2によって最近印加されたことに起因してより高い温度を有する。光パルスは、光パルスが印加された肌の一部の温度のわずかな(一時的)上昇を発生させる。腕60の多くの部分が光パルスによって最近処置されておらず、特に、明るい領域62間に間隙(参照番号64)が存在することが、図3においてわかる。それにもかかわらず、光パルスによって肌に可視の変化を発生させる可能性は低く、そのため処置デバイス2のユーザは、腕60のどの部分が光パルスを印加されたかを認識できない。これは、処置デバイス2のユーザのためのフィードバックの必要性を示しており、したがって身体部位のどの部分が光パルスを用いて既に処置されたかを特定できる。
簡単に述べると、本明細書に記載の技法によって、光パルスが印加された時の身体部位に対する処置デバイス2の位置を追跡し、光パルスが印加されたそれらの位置に対する処置デバイス2の現在の位置を追跡することによって、光パルスが印加された肌の領域と光パルスが印加されなかった領域との間の特定又は区別を可能とする。フィードバック部45(ディスプレイユニットなど)に、現在の処置領域(すなわち、処置デバイス2が現在配置されている領域)が前の処置領域に対応するか、又はほぼ対応するかに関するフィードバックを提供させる、フィードバック部45のための制御信号が生成可能である。したがって、フィードバックによって、ユーザは、身体部位上のどこに次の光パルスが印加されるべきかをより良好に判断できるようになる。
フィードバックが視覚フィードバックである実施形態では、視覚フィードバックは、身体部位に重ねられた前の処置領域及び現在の処置領域のグラフィカル表現を含むグラフィカル表示である。このように、処置デバイス2のユーザは、身体部位のどの部分が処置済みであり、どの部分が依然として処置を必要としているかが容易に認識できる。
図4のフローチャートは、本明細書に記載の技法による例示的な方法を示す図である。方法のステップのうちの1つ又は複数は、必要に応じて、メモリ部48、インターフェースサーキットリー50、及びユーザインターフェースのいずれかと併せて、装置42の処理部46によって実行され得る。処理部46は、例えば、メモリ部48などのコンピュータ可読媒体上に格納され得るコンピュータプログラムコードの実行に応答して1つ又は複数のステップを実行する。
ステップ101で、第1の測定信号はセンサ44から受信される。第1の測定信号は、時間の経過に伴う処置デバイス2の位置及び/又は動きに関する情報を含む。上述したように、第1の測定信号は、動きセンサ44からの信号であり、又は第1の測定信号は、複数の画像又はビデオシーケンスを表す信号である。いくつかの実施形態では、ステップ101は、例えば動きセンサ44などの第1のセンサ44からの第1の測定信号と、例えばイメージングユニットなどの他のセンサ44からの測定信号とを受信することを含む。
ステップ101で、第1の測定信号は、測定信号がセンサ44によって生成された時と例えばリアルタイムで、又はほぼリアルタイムでセンサ44から直接受信され得る。若しくは、第1の測定信号はセンサ44によって事前に生成されて、後続の解析のために、例えばメモリ部48、処置デバイス2又はセンサ44と関連付けられたメモリ部、又はリモートのデータベースに格納され、その場合、ステップ101は、処理部46が格納場所(例えば、メモリ部48など)から第1の測定信号を取得又は取り出すことを含み得る。これらの代替の実施形態では、ユーザが処置動作を完了できる適時にフィードバックをユーザに提供するために、第1の測定信号は、第1の測定信号が生成された後の短時間(例えば数秒以下)で取得又は取り出される必要がある。
ステップ103で、処置動作中に身体部位に対して処置デバイス2によって前に印加された光パルスの場合、この光パルスが生成又は印加された時の身体部位に対する処置デバイス2の位置を推定するために、処理部46は、第1の測定信号を処理する。この推定された位置を「前の処置位置」と呼ぶ。
センサ44が加速度計などの1つ又は複数の動きセンサである実施形態では、第1の測定信号は動き測定信号であり、ステップ103は、身体部位に対する処置デバイス2の動き及び位置を特定するために動き測定信号を処理することを含む。動きセンサ44が収容されているデバイスの動き及び位置を決定するために動きセンサからの測定結果を処理するための技法は、当分野では知られており、本明細書では詳しく説明しない。
センサ44がイメージングユニットであり、第1の測定信号が複数の画像又はビデオシーケンスである実施形態では、ステップ103は、身体部位に対する処置デバイス2の動き及び位置を特定するために画像又はビデオシーケンスを処理することを含む。イメージングユニット44が処置デバイス2に取り付けられている実施形態では、処理部46は、画像又はビデオシーケンスにおける肌特徴及び/又は身体部位特徴を特定して画像又はビデオシーケンスにおけるそれらの肌特徴及び/又は身体部位特徴の動きを監視するために、その画像又はビデオシーケンスを処理し得る。画像又はビデオシーケンスにおけるそれらの肌特徴及び/又は身体部位特徴の決定された動きは、身体部位に対する処置デバイス2の動きに対応する。イメージングユニット44は、処置デバイス2中又は上に固定され、アパーチャ10とイメージングユニット44の視野との関係は知られており、処理部46は、前の処置位置、すなわち光パルスが印加された時の身体部位に対する処置デバイス2の位置を決定できる。肌特徴及び/又は身体部位特徴を特定するために画像又はビデオシーケンスを処理するための技法は、イメージング処理の分野では一般的に知られているが、以下でいくつかの更なる詳細を説明する。
イメージングユニット44が処置デバイス2から分離しており遠くから処置デバイス2と身体部位との両方を観察できる代替の実施形態において、ステップ103で、処理部46は、処置デバイス2並びに肌特徴及び/又は身体部位特徴を特定するために画像又はビデオシーケンスを処理し、時間の経過に伴うそれらの相対位置を監視できる。処置デバイス2並びに肌特徴及び/又は身体部位特徴を特定するために画像又はビデオシーケンスを処理するための技法は、イメージング処理の分野で一般的に知られているが、以下でいくつかの更なる詳細を説明する。
1つ又は複数のセンサ44が1つ又は複数の動きセンサ及びイメージングユニットを備える実施形態において、ステップ103は、身体部位に対する処置デバイス2の位置を推定するために、動きセンサ及びイメージングユニットのうちの一方からの第1の測定信号を、動きセンサ及びイメージングユニットの他方からの第2の測定信号とともに、処理することを含み得る。
いくつかの実施形態では、例えば、1つ又は複数のセンサ44が1つ又は複数の動きセンサ及びイメージングユニットを備える上記の実施形態では、ステップ103は、身体部位に対する処置デバイス2の位置を決定するために自己位置推定及びマッピングの同時実行(SLAM)技法を使用することを含み得る。
ステップ103で、時間の経過に伴う身体部位に対する処置デバイス2の動き及び/又は位置を推定するために第1の測定信号を処理すると、光パルスが生成又は印加された時における身体部位に対する処置デバイス2の推定済みの位置として、前の処置位置が決定される。
ステップ105で、ステップ103で光パルスが評価された場合、ステップ103で決定された前の処置位置に基づいて、処理部46は、光パルスが印加された身体部位の肌の領域を推定する。この推定された領域を、処置デバイス2が前の処置位置にあった時に印加された光パルスの「前の処置領域」と呼ぶ。前の処置位置は、処置デバイス2のアパーチャ10の位置との既知の関係を全般的に有する。これによって、ステップ105は、光パルスが印加された身体部位上の肌の適切な領域を決定できる。例えば、前の処置位置がアパーチャ10の幾何学的中心として推定される場合、前の処置領域は、関連する前の処置位置の中心に置かれ得る。光パルスが印加された時の処置デバイス2の向きは、肌上の前の処置領域の向きを決定するために使用される。図3を参照すると、ステップ105で推定又は決定された前の処置領域は、明るい領域62に全般的に対応するはずである。
前の処置領域の大きさは、処置デバイス2のアパーチャ10の大きさに依存する。いくつかの実施形態では、アパーチャ10の大きさは固定又は前に決定されており、処理部46は、前の処置領域の大きさを決定するために、アパーチャ10の大きさ(例えば、アパーチャ10の寸法)に関する情報と、任意で、アパーチャ10及び光源12の相対位置など、光パルスが印加された肌の領域の大きさに影響する他の情報とを利用できる。若しくは、処理部46は、(例えば、使用前にアパーチャ10の画像がイメージングユニットを使用して取得された場合)アパーチャ10の画像を分析することによってアパーチャ10の大きさを決定できる。
上述したように、いくつかの実施形態では、処置デバイス2は、身体の異なる部位を処置するために使用可能な複数の異なるアタッチメントを有する。これらのアタッチメントは、各光パルスを用いて処置される肌の領域の大きさを変更するために、異なるサイズのアパーチャ10を有する。この場合、前の処置領域の大きさを決定する時、処理部46は、アパーチャ10の大きさ(例えば、アパーチャ10の寸法)に関する情報と、任意で、光パルスが印加された時に使用されたアパーチャ10及び光源12の相対位置などの他の情報とを利用できる。いくつかの実施形態では、例えば処置デバイス2上でアタッチメントを特定するために処置デバイス2の1つ又は複数の画像又はビデオシーケンスを処理することによって、処置デバイス2上で使用されているアタッチメントは装置42によって検知され得る。一例では、処置デバイス2の使用前に、アパーチャ10の画像は、処置デバイス2から分離しているイメージングユニットによって取得され、処理部46は、アパーチャ10の画像を分析することによってアパーチャ10の大きさを決定できる。アパーチャ10の大きさは、エッジ検出及び(矩形)形状合わせなどの処理技法を使用して窓/アパーチャ10の寸法を抽出することによって決定され得る。若しくは、装置42は、処置デバイス2に取り付けられたアタッチメントを示す信号を受信できる。処置デバイス2は、処置デバイス2に取り付けられたアタッチメントの種類を検出したことに応答して、その信号を提供できる。処置デバイス2は、例えば、処置デバイス2の本体とアタッチメントとの間で交換された信号に基づいて、若しくは取り付けられたアタッチメントの種類又は処置対象の身体部位の種類を示す、処置デバイス2に入力されたユーザ設定に基づいて、自動的になど、数多くの異なる手法でアタッチメントの種類を検出できる。他のオプションとして、異なるアタッチメントは異なる色を有するアパーチャ10を有し、装置42は、身体部位に適用された時の光パルスの色を観察することによって使用中のアタッチメントを特定できる。アタッチメントが特定される、又は他のやり方で認識されると、特定されたアタッチメントに関連するアパーチャ10の大きさに関する情報が、例えばメモリ部48から取得され、前の処置領域の大きさを決定するために使用される。
ステップ103及び105は、処置動作において複数の(又は全ての)前の光パルスに対して実行される。好適な実施形態において、ユーザが次の光パルスのためにどこに処置デバイス2を位置決めするかを決定できるように、処置動作中にフィードバックがユーザに提供されるため、光パルスが身体部位に印加された時、又はその後の短時間で、ステップ103及び105は実行される。したがって、光パルスが処置デバイス2によって身体部位に印加されたことの決定に応答して、ステップ103及び105が実行される。処理部46は、数多くの異なる手法のうちの1つ(又は複数)で、光パルスが身体部位に印加されたことを決定する。装置42が処置デバイス2の一部である実施形態では、処理部46は、光源12から、又は光源12用の制御サーキットリーから、光パルスが生成されたことを示す信号を受信できる。若しくは、装置42が処置デバイス2から分離している実施形態では、処理部46は、処置デバイス2から、光パルスが生成されたことを示す信号を受信できる。他の代替例として、センサ44がイメージングユニットである場合、又はイメージングユニットが他のやり方でシステム40に提供される場合、イメージングユニットからの画像又はビデオシーケンスが、光パルスを特定するために処理されることができる。例えば、図5は、イメージングユニットによって取得された身体部位68の2つの画像66を示す図である。図5(a)の画像66(参照符号66-1)では、処置デバイス2の一部が、身体部位68の肌とともに可視である。この画像が取得された時、処置デバイス2は身体部位68へ光パルスを印加していない。図5(b)の画像66(参照符号66-2)が取得された時、処置デバイス2は光パルスを身体部位68に印加しており、これは、画像66-2の明るい方の上部によって可視である。したがって、実施形態では、処理部46は、光パルスの発生を特定するために画像又はビデオシーケンスを処理するように構成され得る。画像毎に(又は一連の画像毎に)平均輝度を算出し、非常に明るい(例えば閾値量を上回って明るい)画像があるかを認識するために、平均輝度間を比較することによって、光パルスの発生が認識され得る。若しくは、画像毎又は一連の画像毎の平均輝度は、その輝度が印加された光パルスと一致しているかを判断するために、閾値量と比較され得る。いくつかの実施形態では、閾値量は、環境照明状態に基づいて調節され得る。これらの実施形態は、装置42が処置デバイス2と通信可能に接続される必要がなく、装置42が従来の処置デバイス2とともに使用され得るという利点を有する。
ステップ107で、処理部46は、現在の身体部位に対する処置デバイス2の位置を推定するために、第1の測定信号を処理する。ステップ107における処理は、光パルスが生成又は印加された時の身体部位に対する処置デバイス2の位置を推定するために、処理部46によってステップ103で使用された処理と同一で有り得る。
ステップ109で、処理部46は、ステップ107で推定された処置デバイス2の現在の位置に基づいて、処置デバイス2の現在の位置において光パルスが印加される身体部位の肌の領域を推定する。この推定された領域を「現在の処置領域」と呼ぶ。ステップ109の処理は、前の光パルスが印加された身体部位の肌の領域を推定するために、処理部46によってステップ105で使用された処理と同一であり得る。ステップ105と同様に、ステップ109で、現在の処置領域の大きさを推定する際に、アパーチャ10の大きさが考慮に入れられ得る。
ステップ111で、処理部46は、フィードバック部45のためのフィードバック制御信号を生成する。フィードバック部45に、現在の処置領域が前の処置領域に対応するか、又はほぼ対応するかを示すフィードバックを生成させるように、フィードバック制御信号が生成される。前の処置領域に対応する、又はほぼ対応する現在の処置領域は、現在の処置領域の少なくともX%が1つ又は複数の前の処置領域と重複する時に存在する。Xは、例えば、20%(すなわち、現在の処置領域の少なくとも20%が1つ又は複数の前の処置領域と重複する時に、現在の処置領域が前の処置領域とほぼ対応する)、50%、又は20%~50%の範囲の値である。いくつかの実施形態では、Xは、現在の処置領域と前の処置領域との間のほぼあらゆる重複を防止するために、小さい値(例えば、1%~5%の範囲)である。
上記方法は、フィードバックがユーザに提供されるように、生成されたフィードバック制御信号をフィードバック部45に提供するステップを更に有する。上述したように、フィードバック部45は、光パルスが前に印加された位置に処置デバイス2が存在するか否かを示す、視覚、聴覚、及び触覚フィードバックの組み合わせを提供するように構成される。処置デバイス2のユーザは、処置デバイス2の現在位置で光パルスをトリガするかを判断するためにそれらの標示を使用可能であり、ユーザが対象者の肌に対する処置動作の網羅度を改善する上で役立ち得る。
一例として、フィードバック制御信号は、現在の処置領域が前の処置領域と重複している、又は過剰に重複していると決定された場合に、赤色灯(例えば、処置デバイス2上で)を点灯させ得る。同様に、フィードバック制御信号は、処置領域が前の処置領域と重複していない、又は過剰に重複していないと決定された場合に、緑色灯(例えば、処置デバイス2上で)を点灯させ得る。他の例として、赤色灯/緑色灯は、現在の処置領域が前の処置領域と重複している、又は過剰に重複しているか否かを示すハプティックフィードバック(例えば、処置デバイス2の振動)と置き換えられ得る(又はそれが付随され得る)。他の例として、赤色灯/緑色灯は、現在の処置領域が前の処置領域と重複している、又は過剰に重複しているか否かを示す聴覚フィードバック(例えば、雑音、聴覚メッセージなど)と置き換えられ得る(又はそれが付随され得る)。
好適な実施形態では、フィードバック部45は、AR表示を提供するために使用されるディスプレイ画面、透過パネル、又はプロジェクターなどのディスプレイユニットである。それらの実施形態では、フィードバック信号は、ディスプレイユニットに、身体部位に重ねられた前の処置領域及び現在の処置領域のグラフィカル表現を含むグラフィカル表示を生成させる表示制御信号である。
図6は、本明細書に記載の技法の実施形態による、ディスプレイユニットにより提供され得る視覚フィードバックの図である。それらの実施形態では、視覚フィードバック70は、イメージングユニット(処置デバイス2の位置及び動きを決定するために使用されるセンサ44、又は1つ又は複数のセンサ44が動きセンサの場合の分離したイメージングユニット)を使用して取得された身体部位74の画像又は(ライブ)ビデオシーケンスの第1の部分72を含む。若しくは、第1の部分72は、身体部位74に関するグラフィカル表現を含み得る。図6で、身体部位74は対象者の前腕である。第1の部分72で、前の処置領域の1つ又は複数のグラフィカル表現76は、身体部位74の画像又はビデオシーケンスに重ねられる。前の処置領域76は、それらの光パルスが印加された身体部位74上の関連位置上に重ねられる。それによって、表示制御信号を生成する際に、処理部46は、推定された前の処置位置のそれぞれに対する処置デバイス2の推定された現在の位置に基づいて、視覚フィードバック70のうちのどこに前の処置領域76が配置されるべきかを決定する。前の処置領域76のうちのいくつかは図6において参照符号が付されており、特に前の処置領域76-1、前の処置領域76-2及び76-3(互いに部分的に重複している)、並びに前の処置領域76-4が示される。
図6における視覚フィードバック70は、第2の部分76を更に含む。処置デバイス2(例えば、図1に示す)上に配置されたイメージングユニットの場合、処置デバイス2が肌と接触していると、イメージングユニットは、通常、肌の(現在の処置領域と対応する)特定部分、更に可能性として処置デバイス2の一部がイメージングユニットの視野を覆っているかを含めて、イメージングユニットの視野によっては、近傍の肌を見ることができない場合がある。視覚フィードバック70の第2の部分76は、第2の部分78によって表される、覆われた領域内にある前の処置領域のグラフィカル表現76とともに、現在の処置領域のグラフィカル表現80を表示するために使用される。それによって、前の処置領域76-5は、第1の部分72と第2の部分78との間の境界上に示される(すなわち、前の処置領域76-5は、第1の部分72に部分的に存在し、第2の部分78に部分的に存在する)。前の処置領域76-6が、第2の部分78に完全に存在する状態で示される。
図7は、本明細書に記載の技法の実施形態による、提供され得る例示的な視覚フィードバック70を示す図である。図7の画像は、図6に示す実施形態に従ったフィードバックを提供し、それによって図7は、第1の部分72(腕74のビデオシーケンス)、第1の部分72の腕74上のいくつかの前の処置領域76、及び現在の処置領域のグラフィカル表現80を示す第2の部分78を有する視覚フィードバック7を示す。
ディスプレイユニットがプロジェクターである実施形態では、身体部位の画像又はビデオシーケンス上における前の処置領域及び現在の処置領域のグラフィカル表現の表示の代わりに、プロジェクターは、グラフィカル表現を適切な位置の身体部位に直接投射できる。このように、ユーザは、身体部位上で前に処置された領域を直接見ることができ、次の光パルスがどこに印加されるべきかの判断が容易になる。
ディスプレイユニットがAR表示を提供するために使用される透過パネルである実施形態では、透過パネルは、ユーザの視線上に配置されることが可能であり、それによってユーザと処置対象の身体部位との間に直接存在し、ユーザが透過パネルを介して身体部位を見ることができる。いくつかの実施形態では、その透過パネルは、一対のガラスにおける一方又は両方のレンズである。前の処置領域及び現在の処置領域のグラフィカル表現は、透過パネル上に投射又は表示されることが可能であり、それによってそのグラフィカル表現は、ユーザの視点における身体部位の正しい位置に重ねられる。このように、ユーザは、身体部位の前に処置された領域をより容易に見ることができる、身体部位のARビューが提示される。
フィードバックが処置デバイス2の使用中(例えば、処置デバイス2が身体部位上で動かされ、光パルスが印加されている時)に提供される実施形態では、ステップ101~111は、全体的に継続して実行され得る。すなわち、ステップ101で、測定信号は、(例えば、センサ44のサンプリング速度にしたがって、又は、センサ44から装置42への通信速度(例えば、パケット速度)にしたがって)全体的に継続して受信されることが可能であり、ステップ103~111は、ユーザに提供されるフィードバックを更新するために、全体的に継続して実行され得る。
センサ44が処置デバイス2に取り付けられたイメージングユニットであり、ステップ103及び105で画像又はビデオシーケンスにおける肌特徴及び/又は身体部位特徴を特定するために、処理部46がその画像又はビデオシーケンスを処理する実施形態では、処理部46は、多数の異なる技法のうちの1つ又は複数を使用して画像又はビデオシーケンスを処理できる。いくつかの実施形態では、肌特徴は、Shi-Tomasiコーナー検出法及び/又はスケール不変特徴変換(SIFT)法などの特徴検出アルゴリズムを使用して検出され得る。若しくは、肌特徴に対して最適化されたAIベースの特徴検出技法が使用可能である。時間の経過に伴う処置デバイス2の動きを推定するために、連続した画像又は連続したビデオフレームの間で肌特徴を一致させることによって、画像又はビデオシーケンスにおける検出済み肌特徴の位置は、ある時間にわたって追跡され得る。2つの連続した画像又はビデオフレームの特徴の2つのセット間のホモグラフィを計算することによって、身体部位に対する処置デバイス2の動きは決定され得る。ホモグラフィは、同一の平面を見た時に2つのイメージングユニットの位置及び向きの間の関係を決定する。
時間の経過に伴って、測定結果及び/又は処理技法におけるエラーの蓄積に起因して、現在の処置位置の位置算出においてドリフトが存在し得る。このドリフトを減少させる、又はそれを回避するために、肌特徴の検出及び動き追跡は、2つの画像又はビデオフレームを越えて拡大されることができ、それによって肌特徴は複数の画像又はビデオフレーム上で追跡される。
画像に示す身体部位に応じて、自己位置推定及びマッピングの同時実行(SLAM)など、非平面上で肌特徴の位置を追跡するために適した画像処理技法、ホモグラフィ算出のために使用されることが可能である。
画像又はビデオシーケンスの背景で可視の特徴又は物体は、肌特徴又は処置デバイス2の位置の追跡時にエラーを誘発する。これらのエラーを低減するために、画像は、周囲の背景から肌領域を特定してセグメント化するように処理され得る。背景領域に関係する画像の部分は、廃棄され、及び/又は他のやり方で肌特徴追跡のために使用されない。
処置デバイス2又はイメージングユニット44の高速移動は、取得された画像のぼやけと、検出可能な肌特徴の数の減少を発生させる。これは、処置デバイス2の位置の決定及び追跡を失敗させ得る。画像ぼやけは、イメージングユニット44、より速い/より高いフレームレート、及びより短い露出時間を使用することによって低減され得る。
いくつかの実施形態では、特徴追跡の失敗及び/又はドリフトエラーは、ループの閉じ込みを使用して回復することができる。これは、前に特定されイメージングユニット44のビューの外部に移動した肌特徴に基づいて肌領域を認識することによって、位置のドリフトをリセットできる。それによって、装置42は、画像又はビデオシーケンスで特定された肌特徴に関する情報を維持し、その肌領域が前に特定されて、光パルスを用いて前に処置されたかを判断するために、次の画像又はビデオシーケンスで肌特徴が特定された時に、その情報を使用できる。
いくつかの実施形態では、処置デバイス2は、処置デバイス2の現在の処置位置が前の処置領域に対応しない、又はほぼ対応しない場合に、光パルスを自動的にトリガするように構成される。この場合、装置42は、光パルスを生成するために処置デバイス2を自動的にトリガするように構成され得る。いくつかの実施形態では、処置デバイス2が肌と接触している、及び/又は処置デバイス2が接触している肌の色が光パルスを受信するのに適しているなど、1つ又は複数の更なる条件は、光パルスをトリガするために適用され得る。光パルスが処置デバイス2の現在の位置で印加可能な場合、処理部46は、光源12を作動させる作動信号、又は、処置デバイス2に、光源12を作動させる作動信号を決定し得る。
光パルスが可視である1つ又は複数の画像が取得される実施形態では、処理部46は、光パルスの輝度及び/又は色を判断するために画像を処理するように更に構成され得る。時間の経過に伴って光パルスの輝度及び/又は色が変化しているかを判断するために、処理部46は、光パルスの決定された輝度及び/又は色を相互に比較し得る。時間の経過に伴う光パルスの輝度及び/又は色の変化(例えば、輝度の減少)は、光源12の状態及び/又は減衰の標示を提供し得る。輝度及び/又は色が閾値基準を満たす場合、光源12が交換を必要とする(光源12が交換可能な場合)、又は処置デバイス2自体が交換を必要とする、という標示がユーザに提供される。
いくつかの実施形態では、ユーザに提供されたフィードバックは、前の処置動作のものを含めて、現在の処置領域が前の処置領域に対応するか、又はほぼ対応するかを示すフィードバックを含み得る。それらの実施形態では、処置動作中に印加された光パルスに対する前の処置位置及び前の処置領域を推定するために上記で説明された方法の後に、それらの前の処置位置及び前の処置領域に関する情報が、例えばメモリ部48に格納される。次の処置動作でフィードバック制御信号を形成するために、次の処置動作中に、この情報は取り出されて使用される。例えば、フィードバックは、前の処置動作からの前の処置領域、及び現在の処置動作からの前の処置領域を示し得る。
したがって、処置デバイスのユーザに対して、対象者の身体部位を判断して、その身体部位に対して実行される処置動作に関するフィードバックを決定する方法及び装置が提供される。
図面、本開示、及び添付の特許請求の範囲の熟慮により、本明細書に記載の原理及び技法を実践する上で、本開示の実施形態の変形は当業者によって理解され、実現されることが可能である。請求項において、「有する」、「備える」という語は、他の要素又はステップを排除せず、単数形は、複数を排除しない。単一のプロセッサ又は他のユニットは、請求項に記載されるいくつかの要素の機能を果たす。特定の手段が互いに異なる従属項に記載されているという事実のみで、それらの手段の組み合わせが効果的に使用されることができないことを示すものではない。コンピュータプログラムは、他のハードウェアとともに、又はその一部として供給される光学格納媒体又はソリッドステート媒体などの適切な媒体上に格納又は分散されてもよいが、更にインターネット又は他の有線又は無線通信システムを介するなど、他の形態で分散されてもよい。請求項における参照符号は、その範囲を限定すると解釈されるべきではない。
Claims (15)
- 対象者の身体部位に対して実行された処置動作に関するフィードバックをユーザに提供するための、処置デバイスとともに使用される装置であって、前記処置デバイスは、前記処置動作を実行するために前記身体部位の肌に光パルスを印加し、前記肌に印加された光パルスは、前記肌の領域を処置し、前記装置は処理部を備え、前記処理部は、
第1のセンサから第1の測定信号を受信することであって、前記第1の測定信号は、時間の経過に伴う前記処置デバイスの位置及び/又は動きに関する情報を含む、受信することと、
前記処置動作中に前記処置デバイスによって前記身体部位へ前に印加された光パルスに対して、前記光パルスが生成された時の前記身体部位に対する前記処置デバイスの位置として前の処置位置を推定するために前記第1の測定信号を処理することと、
前記前に印加された光パルスに対して、更に前記推定された前の処置位置に基づいて、前記処置デバイスが前記前の処置位置に存在した時に前記光パルスが印加された前記身体部位の肌の領域に対応する前記光パルスのための前の処置領域を推定することと、
前記身体部位に対する前記処置デバイスの現在の位置を推定するために前記第1の測定信号を処理することと、
前記処置デバイスの推定された前記現在の位置に基づいて、前記現在の位置にある時に前記処置デバイスが光パルスを印加する肌の領域に対応する現在の処置領域を推定することと、
フィードバック部のためのフィードバック制御信号を生成することであって、前記フィードバック制御信号は、前記フィードバック部に、前記現在の処置領域が前の処置領域と対応するか、又はほぼ対応するかを示すフィードバックを生成させる、生成することとを行う、装置。 - 前記第1のセンサはイメージングユニットであり、前記第1の測定信号は複数の画像又はビデオシーケンスであり、前記複数の画像又は前記ビデオシーケンスは、時間の経過に伴う前記処置デバイスの位置及び/又は動きを特定するために処理される、請求項1に記載の装置。
- 前記処理部は、
前記画像又はビデオシーケンスにおける肌特徴及び/又は身体部位特徴を特定し、
時間の経過に伴う前記画像又はビデオシーケンスにおけるそれらの肌特徴及び/又は身体部位特徴の動きを監視し、
前記画像又はビデオシーケンスにおけるそれらの肌特徴及び/又は身体部位特徴の前記動きから、前記身体部位に対する前記処置デバイスの位置及び/又は動きを決定する、
請求項2に記載の装置。 - 前記処理部は、更に、
動きセンサから第2の測定信号を受信し、前記第2の測定信号は、時間の経過に伴う前記処置デバイスの位置及び/又は動きに関する情報を含み、
前記処理部は、前記前の処置位置及び前記現在の位置を推定するために、前記第1の測定信号及び前記第2の測定信号を処理する、
請求項2又は3に記載の装置。 - 前記フィードバック制御信号は表示制御信号であり、前記フィードバック部はディスプレイユニットである、請求項1から4のいずれか一項に記載の装置。
- 前記表示制御信号は、前記ディスプレイユニットに、前記身体部位に重ねられた前記前の処置領域及び前記現在の処置領域のグラフィカル表現を含むグラフィカル表示を生成させる、請求項5に記載の装置。
- 前記ディスプレイユニットはディスプレイ画面であり、前記表示制御信号は、前記グラフィカル表現が重ねられた前記身体部位の複数の画像又はビデオシーケンスを含み、
前記ディスプレイユニットはプロジェクターであり、前記表示制御信号は、前記プロジェクターに、推定された前記前の処置領域及び前記現在の処置領域にしたがって前記対象者の前記身体部位上に前記グラフィカル表現を投射させ、
前記ディスプレイユニットは、前記身体部位の拡張現実表示の一部として前記グラフィカル表現を表示する、請求項6に記載の装置。 - 前記処理部は、前記前の処置領域を推定し、(i)光パルスが通過する前記処置デバイスにおけるアパーチャの大きさと、(ii)前記処置デバイスに取り付けられたアタッチメントにおけるアパーチャの大きさとに基づいて、現在の処置領域を推定するように構成される、請求項1から7のいずれか一項に記載の装置。
- 前記処理部は、更に、
決定された前記現在の処置領域が前記前の処置領域のいずれかと重複しない、又はほぼ重複しない場合、前記処置デバイスにおける光源に光パルスを生成させる作動信号を生成する、請求項1から8のいずれか一項に記載の装置。 - 前記処理部は、更に、前記光パルスが前記肌に印加される前記処置デバイスにおけるアパーチャの位置と、それぞれ、前記処置デバイスの推定された前記前の処置位置及び推定された前記現在の位置との所定の関係に基づいて、前記前の処置領域及び前記現在の処置領域をそれぞれ推定する、請求項1から9のいずれか一項に記載の装置。
- 肌に処置動作を実行するために1つ又は複数の光源を備える処置デバイスと、
時間の経過に伴う前記処置デバイスの位置及び/又は動きに関する情報を含む第1の測定信号を出力するための第1のセンサと、
請求項1から10のいずれか一項に記載の装置とを備える、システム。 - 処置デバイスによって対象者の身体部位に対して実行された処置動作に関するフィードバックをユーザに提供するためのコンピュータ実施方法であって、前記処置デバイスは、前記処置動作を実行するために前記身体部位の肌に光パルスを印加し、前記肌に印加された光パルスは、前記肌の領域を処置し、前記方法は、
第1のセンサから第1の測定信号を受信するステップを有し、前記第1の測定信号は、時間の経過に伴う前記処置デバイスの位置及び/又は動きに関する情報を含み、
前記方法は、更に、前記処置動作中に前記処置デバイスによって前記身体部位へ前に印加された光パルスに対して、前記光パルスが生成された時の前記身体部位に対する前記処置デバイスの位置として前の処置位置を推定するために前記第1の測定信号を処理するステップと、
前記前に印加された光パルスに対して、更に推定された前記前の処置位置に基づいて、前記処置デバイスが前記前の処置位置に存在した時に前記光パルスが印加された前記身体部位の肌の領域に対応する前記光パルスのための前の処置領域を推定するステップと、
前記身体部位に対する前記処置デバイスの現在の位置を推定するために前記第1の測定信号を処理するステップと、
前記処置デバイスの推定された前記現在の位置に基づいて、前記現在の位置にある時に前記処置デバイスが光パルスを印加する肌の領域に対応する現在の処置領域を推定するステップと、
フィードバック部のためのフィードバック制御信号を生成するステップとを有し、前記フィードバック制御信号は、前記フィードバック部に、前記現在の処置領域が前の処置領域に対応するか、又はほぼ対応するかを示すフィードバックを生成させる、コンピュータ実施方法。 - 前記第1のセンサはイメージングユニットであり、前記第1の測定信号は複数の画像又はビデオシーケンスであり、前記複数の画像又は前記ビデオシーケンスは、時間の経過に伴う前記処置デバイスの位置及び/又は動きを特定するために処理される、請求項12に記載のコンピュータ実施方法。
- 前記方法は、前記画像又はビデオシーケンスにおける肌特徴及び/又は身体部位特徴を特定するステップと、
時間の経過に伴う前記画像又はビデオシーケンスにおけるそれらの肌特徴及び/又は身体部位特徴の動きを監視するステップと、
前記画像又はビデオシーケンスにおけるそれらの肌特徴及び/又は身体部位特徴の前記動きから、前記身体部位に対する前記処置デバイスの位置及び/又は動きを決定するステップと、
を更に有する、請求項13に記載のコンピュータ実施方法。 - 具現化されたコンピュータ可読コードを有するコンピュータ可読媒体を備えるコンピュータプログラムであって、前記コンピュータ可読コードは、適切なコンピュータ又は処理部による実行時に、前記コンピュータ又は処理部に、請求項12から14のいずれか一項に記載のコンピュータ実施方法を実行させるように構成される、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP19219699.6A EP3842002A1 (en) | 2019-12-24 | 2019-12-24 | Providing feedback on a treatment operation performed on a body part of a subject |
EP19219699.6 | 2019-12-24 | ||
PCT/EP2020/086100 WO2021130052A1 (en) | 2019-12-24 | 2020-12-15 | Providing feedback on a treatment operation performed on a body part of a subject |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023510153A true JP2023510153A (ja) | 2023-03-13 |
JPWO2021130052A5 JPWO2021130052A5 (ja) | 2023-12-22 |
Family
ID=69024218
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022538743A Pending JP2023510153A (ja) | 2019-12-24 | 2020-12-15 | 対象者の身体部位に対して実行された処置動作に関するフィードバックの提供 |
Country Status (9)
Country | Link |
---|---|
US (1) | US20230015956A1 (ja) |
EP (2) | EP3842002A1 (ja) |
JP (1) | JP2023510153A (ja) |
KR (1) | KR20220121248A (ja) |
CN (1) | CN114845653A (ja) |
BR (1) | BR112022012319A2 (ja) |
IL (1) | IL294165A (ja) |
MX (1) | MX2022007739A (ja) |
WO (1) | WO2021130052A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4166192A1 (en) * | 2021-10-14 | 2023-04-19 | Koninklijke Philips N.V. | An apparatus for user guidance during skin treatment and method thereof |
EP4193950A1 (en) * | 2021-12-09 | 2023-06-14 | Koninklijke Philips N.V. | Light treatment device for treating skin |
EP4283630A1 (en) * | 2022-05-23 | 2023-11-29 | Braun GmbH | Light emitting hair growth management device companion application |
EP4385443A1 (en) * | 2022-12-15 | 2024-06-19 | Koninklijke Philips N.V. | Intense pulse light skin or hair care device |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014168832A1 (en) * | 2013-04-08 | 2014-10-16 | Farhan Taghizadeh | System and method for providing treatment feedback for a thermal treatment device |
BR112017009313B1 (pt) * | 2014-11-06 | 2022-10-04 | Koninklijke Philips N.V. | Sistemas de tratamento da pele, método para determinar uma orientação de um dispositivo de tratamento de pele, sistema de análise de pele, e método para análise de pele |
US20160367830A1 (en) * | 2015-06-22 | 2016-12-22 | Syneron Medical Ltd. | System For Visualizing Treated Skin Temperature |
FR3081313A1 (fr) * | 2018-05-22 | 2019-11-29 | Eurofeedback | Dispositif de traitement par emission d'impulsion laser |
-
2019
- 2019-12-24 EP EP19219699.6A patent/EP3842002A1/en not_active Withdrawn
-
2020
- 2020-12-15 BR BR112022012319A patent/BR112022012319A2/pt unknown
- 2020-12-15 CN CN202080089832.9A patent/CN114845653A/zh active Pending
- 2020-12-15 MX MX2022007739A patent/MX2022007739A/es unknown
- 2020-12-15 WO PCT/EP2020/086100 patent/WO2021130052A1/en unknown
- 2020-12-15 US US17/782,694 patent/US20230015956A1/en active Pending
- 2020-12-15 EP EP20823828.7A patent/EP4081149A1/en active Pending
- 2020-12-15 JP JP2022538743A patent/JP2023510153A/ja active Pending
- 2020-12-15 KR KR1020227025439A patent/KR20220121248A/ko active Search and Examination
- 2020-12-15 IL IL294165A patent/IL294165A/en unknown
Also Published As
Publication number | Publication date |
---|---|
CN114845653A (zh) | 2022-08-02 |
MX2022007739A (es) | 2022-07-19 |
BR112022012319A2 (pt) | 2022-09-06 |
WO2021130052A1 (en) | 2021-07-01 |
IL294165A (en) | 2022-08-01 |
KR20220121248A (ko) | 2022-08-31 |
US20230015956A1 (en) | 2023-01-19 |
EP3842002A1 (en) | 2021-06-30 |
EP4081149A1 (en) | 2022-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2023510153A (ja) | 対象者の身体部位に対して実行された処置動作に関するフィードバックの提供 | |
US10580160B2 (en) | Device and method for determining a position of a mobile device in relation to a subject | |
WO2016076140A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US20220047333A1 (en) | A method of determining a position and/or orientation of a hand-held device with respect to a subject, a corresponding apparatus and a computer program product | |
CN107209551A (zh) | 通过眼具的注视跟踪 | |
US20230201622A1 (en) | System and method for determining skin contact for a personal care device | |
EP4076641B1 (en) | Treatment device and method | |
US20230172663A1 (en) | Apparatus for a providing visual guidance for a user of a personal care device | |
JP2023522235A (ja) | 光ベース体毛除去を行うように構成されている個人用ケアデバイス | |
EP4193950A1 (en) | Light treatment device for treating skin | |
EP4289378A1 (en) | Hair removal device and irradiation position correction method | |
US20220277442A1 (en) | Determining whether hairs on an area of skin have been treated with a light pulse |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231213 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231213 |