JP2018533775A - 被検体に関してモバイルデバイスの位置を決定するためのデバイス及び方法 - Google Patents
被検体に関してモバイルデバイスの位置を決定するためのデバイス及び方法 Download PDFInfo
- Publication number
- JP2018533775A JP2018533775A JP2018501872A JP2018501872A JP2018533775A JP 2018533775 A JP2018533775 A JP 2018533775A JP 2018501872 A JP2018501872 A JP 2018501872A JP 2018501872 A JP2018501872 A JP 2018501872A JP 2018533775 A JP2018533775 A JP 2018533775A
- Authority
- JP
- Japan
- Prior art keywords
- mobile device
- subject
- indicator
- processing device
- unit configured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Dry Shavers And Clippers (AREA)
Abstract
本発明は、モバイルデバイス(14、14’)の相対的位置を決定するためのデバイス(1)及び方法に関する。実施形態は、カメラ搭載デバイス(12)が被検体(18)を観察している間、使用中に被検体(18)の上に光画像を投影するためにモバイルデバイス(14、14’)に光源(15)を搭載することを提供する。カメラ(13)は、被検体の顔の上のランドマーク(19)と光画像(19)を識別するために使用され、ユーザ(18)に対するデバイス(14、14’)の位置を計算することを可能にする。このシステムは、画像分析のためにカメラ搭載デバイス(12)の演算能力を使用することができ、モバイルデバイス(14、14’)によって高度な処理を実行する必要がない。さらに、モバイルデバイス(14、14’)とカメラ搭載デバイス(12)との間の通信は、パーソナルケアデバイスの相対的位置を確立するために必要とされない。
Description
本発明は、被検体に関してモバイルデバイスの位置を決定するための処理デバイス、そのような処理デバイスを含むイメージングデバイス、対応するモバイルデバイス、イメージングデバイス及びモバイルデバイスを含む対応するシステム、被検体に関してモバイルデバイスの位置を決定するための方法及び対応するソフトウェア製品に関する。
特許文献1(米国特許出願公開第2008/0033410号明細書)は、レーザエネルギによる患者の皮膚領域の自動処置のための方法を開示している。この方法は、レーザで処置すべき領域を識別することと、処置すべき皮膚の識別された領域をモデル化することと、レーザエネルギを皮膚のモデル化された領域内に向けるようにレーザを制御することを含む。
多くのパーソナルケア製品では、そのようなパーソナルケア製品の位置を追跡することが望まれるので、例えば関連する処置が適用された場所が決定又は検出され得る。用途は、ほんの数例を挙げると、シェービング、スタイリング、IPL脱毛、皮膚洗浄から歯磨きにわたる。
被検体又はユーザの頭部に取り付けられる基準点によって得られる、被検体に対するヘアカット又はトリミングデバイスの位置を使用するヘアカット又はトリミングシステムが、例えば特許文献2(国際公開第2013/096572号パンフレット)及び特許文献3(国際公開第2013/163999号パンフレット)に説明されている。しかしながら、このようなシステムに必要とされる付加的かつ別個の器具は、ヘアカット又はトリミングのプロセスを非常に煩雑にし、更には適切な調整又は較正がなければ、その結果は信頼できないことがある。
デバイスのローカライゼーションに関する他のアプローチが、デバイス内に加速度計及びジャイロセンサを埋め込むことにより試みられているが、そのようなセンサは、そのように搭載されるデバイスのコストと複雑性を大幅に増加させることがある。加えて、加速度計及びジャイロ情報がデバイスの位置及び動き情報を提供する場合であっても、被検体又はユーザに対する関係は確立されない。
処置(シェービング、スタイリング、脱毛、洗浄等)を追跡することは、顔に対する器具の相対的位置を追跡することに関連する。
ストレートフォワードのデバイス位置追跡(Straight forward device position tracking)は、ユーザの位置を知らずに、デバイス自体の向き及び/又は方向のみを提供する。
消費者シナリオにおけるカメラを用いるデバイスのリモート追跡は、照明に起因し、かつデバイスを保持する手によるデバイスのオクルージョンに起因して、非常に困難な作業である。
単純なカメラでデバイスを追跡することは、そのデバイスを保持している手によるデバイスの任意のオクルージョンのために大きな課題である。デバイスが塞がれないようにユーザの動きを制限しようとする試みは全く役に立たない。
消費者設定において適用される処置を追跡することは、照明条件(lighting conditions)の大きな変動のために非常に困難である。特に、頻繁なオクルージョンに関連して、全体的な条件(特にその制御の欠如)は、少なくとも消費者設定について、そのようなアプローチの信頼性を厳しく制限する。
本発明の目的は、上述した欠点を克服するか、少なくとも緩和し、特に煩雑な付加的器具を回避し、消費者シナリオのような制御されていない環境においても改善された信頼性を提供しつつ、被検体に対するモバイルデバイスの相対的位置の決定を提供することである。
本発明の第1の側面では、被検体に関してモバイルデバイスの位置を決定するための処理デバイスが提示される。当該処理デバイスは、被検体の少なくとも一部を示す画像を受け取るように構成される入力ユニットであって、画像が、モバイルデバイスとは別個に設けられるイメージングデバイスによって撮影される、入力ユニットと、受け取った画像内において被検体の1つ以上の特徴を検出するように構成される特徴検出ユニットと、受け取った画像内において少なくとも1つのインジケータを検出するように構成されるインジケータ検出ユニットであって、インジケータが、モバイルデバイスによって被検体の上に投影された信号である、インジケータ検出ユニットと、1つ以上の検出された特徴及び検出されたインジケータの検出結果を処理することにより、直接的に、被検体に関してモバイルデバイスの位置を決定するように構成される処理ユニットを備える。
本発明の更なる側面では、被検体に関してモバイルデバイスの位置を決定するための方法が提示される。当該方法は、被検体の少なくとも一部を示す画像を受け取るステップであって、画像が、モバイルデバイスとは別個に設けられるイメージングデバイスによって撮影されるステップと、受け取った画像内において被検体の1つ以上の身体特徴を検出するステップと、受け取った画像内において少なくとも1つのインジケータを検出するステップであって、インジケータが、モバイルデバイスによって被検体の上に投影された信号であるステップと、1つ以上の検出された特徴及び検出されたインジケータの検出結果を処理することによって、直接的に、被検体に関してモバイルデバイスの位置を決定するステップを備える。
本発明者らは、モバイルデバイスの位置だけでなく、デバイスの光学追跡及び変化する照明条件を得るという課題を、ロバストな顔特徴の追跡と、処置面又は被検体に関して制御されて適用される照明のロバストなカメラベースの検出(robust camera based detection)を組み合わせることによって対処することができることを認識した。
上記では顔特徴の追跡に言及したが、本発明は、受け取った画像内で検出される被検体の特徴として顔特徴を使用することに限定されないことに留意されたい。モバイルデバイスがパーソナルケア製品であるという状況では、他の身体部分、例えば(IPL)脱毛の場合には脚も同様に考えられる。
特に、本発明の一実施形態は、パーソナルケアデバイス(モバイルデバイス)に光源を搭載することを提供し、使用中にユーザの上に光画像(light image)を投影して、カメラ搭載デバイス(スマートフォン、タブレット、スマートミラー)にユーザを観察させる。カメラは、ユーザに対するデバイスの位置を計算することを可能にする(例えばユーザの顔の上の)ランドマークと光画像の双方を識別するために使用される。このシステムは、特に画像分析のためにカメラ搭載デバイスにおける演算能力を使用することができ、パーソナルケアデバイスによって高度な処理を実行することは必要とされない。さらに、パーソナルケアデバイスとカメラ搭載デバイスとの間の通信は、ユーザに対するパーソナルケアデバイスの相対的位置を確立するためには必要とされない。
例示の実施態様では、以下の3つの要素が提供される:
− 例えばレーザのような照明デバイス(使用中に顔の上に線をキャスティングするガイダンスレーザが搭載されるPhilips(登録商標)Beard Trimmer 9000デバイスの場合のように)。既に単純なレーザドットが、関連する位置情報を提供することがあるが、レーザ線又はより複雑な投影への拡張を提供することができ、そのような拡張から、顔に対するデバイスの向きが計算可能である(また、顔の曲率情報の検出をも可能になる)。これは、投影されるパターン(例えば拡張現実(AR)タグのような形状又は屈折素子の投影形状)における更によりロバストな向きの検出のために、カメラベースの検出に適した時間符号化された光(temporally coded light)又は空間的に構造化された光(spatially structured light)を適用することによって更に拡張することができる。
− 被検体をキャプチャするカメラであるが、これは、標準のスマートフォン又はタブレットのカメラ、あるいは例えばスマートミラーデバイスに組み込まれる任意のためのカメラとすることができる。
− スマートフォン又はタブレットで利用可能であるときに、適切にプログラムされていれば、(明らかに視認可能な)制御された光画像、例えば制御されたドットを検出及び追跡することと共に、顔特徴の(特にリアルタイムの)検出及び追跡のために使用することができる処理ユニット。
− 例えばレーザのような照明デバイス(使用中に顔の上に線をキャスティングするガイダンスレーザが搭載されるPhilips(登録商標)Beard Trimmer 9000デバイスの場合のように)。既に単純なレーザドットが、関連する位置情報を提供することがあるが、レーザ線又はより複雑な投影への拡張を提供することができ、そのような拡張から、顔に対するデバイスの向きが計算可能である(また、顔の曲率情報の検出をも可能になる)。これは、投影されるパターン(例えば拡張現実(AR)タグのような形状又は屈折素子の投影形状)における更によりロバストな向きの検出のために、カメラベースの検出に適した時間符号化された光(temporally coded light)又は空間的に構造化された光(spatially structured light)を適用することによって更に拡張することができる。
− 被検体をキャプチャするカメラであるが、これは、標準のスマートフォン又はタブレットのカメラ、あるいは例えばスマートミラーデバイスに組み込まれる任意のためのカメラとすることができる。
− スマートフォン又はタブレットで利用可能であるときに、適切にプログラムされていれば、(明らかに視認可能な)制御された光画像、例えば制御されたドットを検出及び追跡することと共に、顔特徴の(特にリアルタイムの)検出及び追跡のために使用することができる処理ユニット。
顔のコンテキストにおけるデバイスの位置及び/又は向きを追跡する組合せは、デバイスがその処置を適用した場所を検出及び追跡するためのオプションを提供する。即時ガイダンスを提供する(例えば視覚化する)ことができ、この位置及び/又は向き情報に基づいて、例えばコームの長さ、カット要素又はIPLタイミングを自動的に制御することによって、器具を直接的に制御することさえ可能である。
加えて、選択された波長で制御された(より大きな)スポットを適用するとき、リモートカメラで制御された測定を繰り返し供給することができ、そのような繰り返しの方法は皮膚診断にとって必須である。
好ましい実施形態において、インジケータ検出ユニットは、インジケータの形状及び/又はインジケータの一部である複数のサブインジケータの相対的位置から、インジケータの向きを検出するように構成される。
非常に簡単な実装では、モバイルデバイスによって投影される光画像はドットであり、他の実施形態では、光画像は線であり、矩形の投影画像、時間符号化される光又は空間符号化される光(spatially coded light)が、位置決めのロバスト性を高めるために使用される。
好ましい実施形態において、処理デバイスは、決定された位置を出力するように構成される出力ユニットを更に備える。
決定された位置又は位置関係の出力は、例えば被検体との位置関係に基づいて、提供される処置の制御のためにモバイルデバイス自体によって使用されてよい。特に、モバイルデバイスは、取得された位置情報及び/又は処置サイクルにおける使用パターンに基づいて、制御される(又はそれ自身を制御する)ことができる。
好ましい実施形態において、処理デバイスは、経時的にモバイルデバイスの位置を示すトラック(track)を決定するように構成される追跡ユニット、及び/又は、1以上の所定の時間期間の間にモバイルデバイスの位置を含む1つ以上のエリアを決定するように構成されるカバレッジユニットを更に備えるが、この実施形態の修正では、処理デバイスは、加えて、追跡ユニットによって決定されるトラック及び/又はカバレッジユニットによって決定される1つ以上のエリアを、所定のトラック及び/又は所定のエリア若しくは1組のエリアと比較して、その比較の結果を示すガイダンス情報を出力するように構成されるガイダンスユニットを備える。
したがって、本発明は、例えばひげのトリミングのコンテキストで、例えば被検体の顔の所定の部分がモバイルデバイスによって対処(address)されることを保証することを可能にする。同様に、本発明は、歯磨きの間に全ての歯が十分にブラッシングされたかどうかをチェックするために使用されてもよい。
好ましい実施形態において、処理デバイスは、受け取った画像及び/又は一連の受け取った画像内の情報からモバイルデバイスのステータスを決定するように構成されるステータス検出ユニットを更に備える。この実施形態の修正では、ステータス検出ユニットは、検出されたインジケータから情報を決定するように構成される。
モバイルデバイスのステータス(例えばひげトリマーの使用又は不使用)を伝えるために、モバイルデバイスに、(多くのパーソナルケアデバイスが既に従来的であるように)光出力(optical output)が搭載されてもよく、この場合、ステータス検出ユニットによって光出力の画像を使用して、モバイルデバイスのステータスを決定することができる。加えて又は代替として、例えばインジケータの色及び/又は形状を変更することによって、あるいはインジケータの何らかの他の空間又は時間エンコーディングを提供することによって、インジケータ自体をこの目的のために使用することができる。
モバイルデバイスのステータスは、必要に応じて、他の手段によって、例えばモバイルデバイスと処理デバイスとの間のワイヤレス又は無線リンクによって処理デバイスにも伝達されてよいことに留意されたい。
モバイルデバイスのステータスは、モバイルデバイスの位置情報、姿勢情報(attitude information)又は向き情報を参照してもよい。
一実施形態において、1つ以上のセンサがモバイルデバイス内に又はモバイルデバイスに提供され、この場合、処理デバイスは、そのようなセンサによって取得されるデータを受け取り、該データ又はその一部を、被検体に関してモバイルデバイスの位置を決定する際に用いるように構成される。
そのようなセンサは、例えば加速度計、距離センサ又はタッチ若しくは圧力センサであってよい。
加速度計の使用は、直接的に、あるいは最初に決定された姿勢又は向きを参照し、その間に発生した加速度の考慮により、モバイルデバイスの姿勢又は向きに関する追加情報を可能にする。
そのような追加情報は、インジケータから導出可能な姿勢又は向きに関して限られた情報の場合(例えばインジケータがパターンではなく単一のドットである場合)に、特に有用である。
距離センサによって提供される情報は、例えばモバイルデバイスが被検体に接触している場合と、モバイルデバイスが被検体の表面(又は皮膚)の上で(単に)ホバリングしている場合とを区別することを可能にする。
同様に、タッチ又は圧力センサは、該タッチセンサ又は圧力センサが、タッチの延長を超える距離又はその欠如(lack)に関する追加情報を提供しないとしても、そのような区別を可能にする。
処理ユニットは、モバイルデバイス自体内に設けられてよく、したがって、いくらか直接的な方法でセンサからデータを受け取ることができる。
処理ユニットがモバイルデバイスとは別個に設けられる場合、モバイルデバイスと処理デバイスとの間の通信は、無線形式、例えばBluetooth(登録商標)を使用することによって、あるいは何らかの他の通信形式によって提供されてよい。また、モバイルデバイスによって取得されたデータは、インジケータによって、例えば時間エンコーディング(例えば点滅)及び/又は空間エンコーディング(サブインジケータの形又は数を変更すること等)によって伝達されてもよい。
「身体特徴(body feature)」という用語は、ユーザの身体の一般的な特徴を指し、例えば顔の身体特徴のコンテキストでは、眉毛、目、鼻、口(角)及び/又はあごのようなランドマークを指すものとして理解されよう。一般的な特徴は、上述のランドマークのように、人口全体にわたって存在するものとして一般的に想定され得る特徴である。対照的に、特有の顔又は皮膚の特徴は、人口全体には一般的に存在しないが、それでも個人に対して存在する視覚的特徴、例えば傷痕、皮膚の炎症、ほくろ等といったものである。例えば顔に付加される眼鏡、宝石又は(メイクアップ又は他のマーキングのような)他の特徴も、広義には視覚的特徴と考えられることもあるが、そのような特徴は本文脈では身体特徴ではない。
「検出する(detecting)」という特徴は、本明細書では、コンピュータビジョン及び画像処理の関連分野の当業者によって通常理解される意味で使用されることに更に留意されたい。近い概念の「追跡する(tracking)」とは対照的に、検出では、物体(object)のタイプ又はクラスが、他の物体と区別可能な方法で説明されるべきである。例えば自転車、牛、人間の顔のような物体を背景から検出することができる。しかしながら、このような検出には、ある自転車を他の自転車と区別することは含まれない。追跡することは、以前の位置から空間的に近い位置での検出が同じ物体を発見したと想定して、物体を繰り返し試行(trying)及び検出する戦略を適用する。しかしながら、追跡では、物体は、特定のタイプのものである必要はない。追跡を、視覚的に類似するパッチが、後続の画像フレーム(例えばオプティカルフローまたは動き推定)の空間的近傍内において(例えばオプティカルフロー又は動き推定で)「探索」されるピクセル又は物体(の一部)に適用することもできる。
整理しておくために、「認識(recognition)」の概念を「検出」の概念と混同すべきではないことに留意されたい。人間の顔についてのクラス検出器は、画像が人間の顔のピクチャを含んでいることを認識するためのアルゴリズムと考えることができる。しかしながら、これは顔認識ではない。「認識」という概念は、クラス内の被検体を区別することができることを(も)含む。例えば顔認識のためには、典型的には最初に画像のパッチが人間の顔を含むことを検出しなければならない可能性があり、次に、所与のデータベースから人間のうちの誰がピクチャ内に示されているかを決定(認識)することになるであろう。
好ましい実施形態において、処理デバイスは、モバイルデバイスの決定された位置に従って制御命令を決定し、モバイルデバイスの動作を制御するために制御命令を出力するように構成される命令ユニットを更に備える。
そのような制御命令は、例えばモバイルデバイスによって提供される処置のパラメータを調整するために提供されてもよい。例えば取得された位置に基づいて、モバイルデバイスがシェービングデバイスである場合、シェービング性能及び/又は経験を改善するために回転速度を変更してもよい。
好ましい実施形態において、位置関係の決定のために使用される被検体の特徴は、モバイルデバイスのユーザの顔特徴である。
顔の特徴及び画像内におけるこれらの検出は既に非常に詳細に研究されており、顔の特徴を検出するための複数のロバストな技術が利用可能である。
更に好ましい実施形態では、被検体の表面の面曲率が処理デバイスによって検出可能な歪みをもたらすようにインジケータが提供され、したがって、処理デバイスは、被検体の表面の局所面曲率(local surface curvature)を導出することができる。この局所面曲率を、検出された特徴(顔のランドマーク位置)の成形(building)に対してレジストレーションすることができ、被検体(の一部)のモデルを生成するために使用することができる。予測可能な歪みをもたらす既知の曲率では、処理ユニットによる全体的な位置決めの決定は、モデルが作成されて更新されると、より正確になる可能性がある。
ここで、本発明のインジケータ検出ユニット及びインジケータ検出ステップは、好ましくは、インジケータが、大部分は、被検体の表面(又は皮膚)の曲率によって生じる歪みに関わらず、単一のドットが検出され得る場合よりもより複雑であるように構成されることに留意されたい。
本発明は、被検体の少なくとも一部を示す画像を提供するように構成されるイメージングユニットと、被検体に関してモバイルデバイスの位置を決定するための本発明に係る処理デバイスとを備えるイメージングデバイスにも関し、この場合、処理デバイスの入力ユニットは、イメージングユニットから画像を受け取るように構成され、イメージングデバイスはモバイルデバイスとは別個に設けられる。
本発明は更に、被検体に信号を投影するように構成されるインジケータユニットと、被検体に関してモバイルデバイスの位置を決定するための本発明に係る処理デバイスとを備えるモバイルデバイスにも関する。
またさらに、本発明は、被検体の少なくとも一部を示す画像を提供するように構成されるイメージングユニットを含むイメージングデバイスと、被検体の上に信号を投影するように構成されるインジケータユニットを含むモバイルデバイスを備えるシステムにも関し、この場合、イメージングデバイスとモバイルデバイスは共同で(jointly)、本発明に係る処理デバイスの機能を備え、イメージングデバイスはモバイルデバイスとは別個に設けられる。処理ユニットの機能は、イメージングデバイス及びモバイルデバイスのいずれかに独占的に提供される必要はなく、単にイメージングデバイスとモバイルデバイスの組合せが一緒に処理デバイスの機能を提供する。すなわち、これらのユニットが、イメージングデバイスとモバイルデバイスを含むシステムにわたって広がっている。
好ましい実施形態において、モバイルデバイスは、被検体に対する処置を提供し、かつ/又は被検体の局所条件(local condition)に関するデータ情報を取得するように構成される。
本発明の更なる側面では、被検体に関してモバイルデバイスの位置を決定するためのコンピュータプログラムが提示される。ソフトウェア製品は、該ソフトウェア製品が本発明に係る処理デバイスにおいて実行されると、処理デバイスに本発明に係る方法のステップを実行させるためのプログラムコード手段を備える。
請求項1の処理デバイス、請求項10のイメージングデバイス、請求項11のモバイルデバイス、請求項12のシステム、請求項14の被検体に関してモバイルデバイスの位置を決定する方法、そして請求項15のコンピュータプログラムは、特に、従属請求項に規定されているように、同様及び/又は同一の好ましい実施形態を有する。
本発明の好ましい実施形態は、従属請求項又は上記の実施形態とそれぞれの独立請求項との任意の組合せとすることができることが理解されるべきである。
本発明のこれら及び他の態様は、以下に記載される実施形態から及びこれらの実施形態に関連して明らかになるであろう。
図1は、本発明の一実施形態に係る、被検体(図示せず)に関してモバイルデバイス(図示せず)の位置を決定するための処理デバイス1を概略的に示す。
処理デバイス1は、入力ユニット2、特徴検出ユニット3、インジケータ検出ユニット4、処理ユニット5、出力ユニットと、追跡ユニット7、カバレッジユニット8、ガイダンスユニット9、ステータス検出ユニット10及び命令ユニット11を含む。
入力ユニット2は、画像を受け取ることができるように構成され、画像は被検体の少なくとも一部を示し、その被検体との相対でモバイルデバイスの位置が決定される。入力ユニットは、画像又は少なくともその一部を特徴検出ユニット3、インジケータ検出ユニット4及びステータス検出ユニット10に転送する。
特徴検出ユニット3は、受け取った画像又はその一部における被検体の1つ以上の特徴を検出することができるように構成される。好ましくは、検出される特徴は、モバイルデバイスを使用する被検体の顔特徴又は顔ランドマークである。
当業者は、画像内の顔の特徴等の検出に十分に精通しているので、この点に関する更なる説明は省略されてよい。
特徴検出ユニット3は、検出された特徴に関する情報を処理ユニット5に転送するように更に構成される。
インジケータ検出ユニット4は、受け取った画像内の少なくとも1つのインジケータを検出することができるように構成され、インジケータは、例えばモバイルデバイスによって被検体の上に投影されるレーザドット又はレーザパターンであってよい。
やはり当業者は、画像内の特定のパターン又はドットを検出するという概念を十分に精通しており、したがって、この点に関して更なる説明は必要とされない。
特徴検出ユニット3と同様に、インジケータ検出ユニット4も、検出されたインジケータに関する情報を処理ユニット5に転送するように構成される。
さらに、インジケータ検出ユニット4は、検出されたインジケータに関する情報をステータス検出ユニット10に転送するように構成され、ステータス検出ユニット10は、上述のように、受け取られた画像の少なくとも一部も受け取る。提供される画像及びインジケータに関する情報から、本実施形態のステータス検出ユニットは、インジケータの色を決定するように構成され、インジケータの色はモバイルデバイスのステータスを示す。検出されるモバイルデバイスのステータスに関する情報は、ステータス検出ユニットによってガイダンスユニット9及び命令ユニット11に転送される。
処理ユニット5は、(特徴検出ユニット3によって提供される)1つ以上の検出された特徴及び(指示された検出ユニット4によって提供される)検出されたインジケータの検出結果を処理することによって、被検体に関してモバイルデバイスの位置を決定するように構成される。
特定の構成及び処理デバイスの設定に応じて、処理ユニット5によって決定される情報は、追跡ユニット7、カバレッジユニット8及び/又は出力ユニット6に転送される。
追跡ユニット7は、経時的に被検体に関してモバイルデバイスの位置を指示するトラックを決定するように、すなわち、被検体に関してモバイルデバイスの位置を示す一連のデータポイントを生成するように構成される。並行して、カバレッジユニット8は、1以上の所定の時間部分の間に、モバイルデバイスの位置を含む1つのエリア又は複数のエリアを決定するように構成される。本実施形態では、追跡ユニット7とカバレッジユニット8が協働し、カバーされるエリア(covered area)がトラックに対応し、ここで、各位置ポイントに対して1つのカバレッジエリア(coverage area)が提供され、結果として得られるカバレッジエリアを結合(join)して、カバレッジユニット8によって決定されるエリアを決定する。この場合、カバレッジユニット8は、これらのエリアの部分と一緒に時間情報を提供するように更に構成される。
追跡ユニット7及びカバレッジユニット8によって提供される情報は、ガイダンスユニット9に転送される。ガイダンスユニット9は、本実施形態では、追跡ユニットによって決定されるトラック及びカバレッジユニットによって決定されるエリアを、所定のトラック及び所定のエリアと比較するように構成され、ガイダンスユニット9は、そのような比較の結果を示す情報を命令ユニット11に出力するように更に構成される。ガイダンスユニットは、この状況では、モバイルデバイスのステータスがアクティブであったトラックの一部のみ及びエリア及びその一部が考慮されるように、ステータス検出ユニット10によって提供されるステータス情報を使用する。
ガイダンス情報が提供されると、命令ユニット11は、モバイルデバイスの決定された位置に従って制御命令を決定し、そのような制御命令を出力ユニット6に提供するように構成される。この場合の制御命令は、例えばこれまでモバイルユニットによって処置が提供されなかった、欠損しているトラック部分(missing track portions)又は欠損しているエリア(missing areas)の適切な指示を含む。加えて、命令ユニットは、ステータス検出ユニットによって提供されるステータス情報をモニタするように構成され、モバイルデバイスと被検体との間の位置関係に従ってモバイルデバイスのアクティブステータスを切り替えるための命令をモバイルデバイスに提供するように構成される。これは、例えばひげトリミングの場合には、ひげトリマーの形式のモバイルデバイスが、トリミングが行われるべきユーザの顔の部分内のみでアクティブにされ、他の部分ではひげトリマーが非アクティブにされるように使用されてよい。
出力ユニット6は、提供された情報を外部に、特にモバイルデバイス(図示せず)に出力するように構成される。
図2は、本発明の別の実施形態に係るイメージングデバイス12を概略的に示す。
図2に示されるイメージングデバイス12は、図1に図示される処理デバイス1及びイメージングユニット13を含む。
イメージングユニット13は、被検体の少なくとも一部を示す1つ又は複数の画像(図5参照)を撮像し、撮像した画像を処理デバイス1の入力ユニットに提供するために設けられている。
処理デバイス1の詳細については、図1を参照して上述した説明を参照する。
図3は、本発明の別の実施形態に係るモバイルデバイスを概略的に示す。
モバイルデバイス14は、上述した実施形態に係るインジケータユニット15及び処理ユニット1を含む。
インジケータユニット15は、信号、すなわちレーザドット又はレーザパターンを被検体の顔の上に投影するように構成され、このレーザドット又はレーザパターンを、被検体の撮影される画像内で認識することができる。処理デバイスは、外部から、例えば別個に設けられたカメラ(図示せず)から、投影された信号を含む被検体の少なくとも一部を示す画像を受け取るために構成される。
やはり、この実施形態の処理デバイスの詳細に関しても図1及び上述の説明を参照する。
図4は、本発明の別の実施形態に係るイメージングデバイス12’及びモバイルデバイス14’を含むシステム16を概略的に示す。
図2に関連して説明したイメージングデバイス及び図3に関して説明したモバイルデバイスと同様に、イメージングデバイス12’はイメージングユニット13を含み、モバイルデバイス14'はインジケータユニット15を含む。
しかしながら、図2又は図3に図示される状況とは対照的に、例えば図1に図示される処理デバイスの要素は、図4のシステム16では、イメージングデバイス12’又はモバイルデバイス14’のいずれかにおいて独占的には提供されない。実際、図1に図示される要素は、デバイス12’、14’のうちの一方に蓄積されることなくシステム16に含まれる。言い換えると、処理デバイスの要素は、デバイス12’及び14’にまたがって広がるか分散される。
図5は、被検体18を示す例示の画像を示しており、本発明の一実施形態に従って(大抵はこれらの画像内でブロックされる)モバイルデバイスが被検体の顔の上にインジケータ17を投影している。
モバイルデバイスは、ここではひげトリマーであり、ユーザ18の顔の上にレーザドット17を投影する。加えて、顔のランドマーク又は特徴19がピクチャ内でハイライトされるが、基礎となる情報が特徴検出ユニットによって取得される限り、そのようなハイライトは、本発明の文脈で実際には必要とされないことに留意されたい。
図6は、被検体に関してモバイルデバイスの位置を決定するための方法を示す概略的なフロー図を示す。受け取りステップ20において、被検体の少なくとも一部を示す画像を受け取り、その後、2つの検出ステップ21、22、すなわち、受け取った画像内において被検体の1つ以上の特徴が検出される特徴検出ステップ21と、モバイルデバイスによって提供された被検体の上のインジケータが検出されるインジケータ検出ステップ22が続く。検出ステップ21、22に続いて位置決定ステップ23が提供され、位置決定ステップ23では、特徴検出ステップ21とインジケータ検出ステップ22の検出結果を処理することによって、被検体に関してモバイルデバイスの位置が決定される。
本発明を、図面及び上記の説明において詳細に図示し、説明してきたが、そのような図示及び説明は実施例又は例示であって、限定的ではなく、本発明は開示される実施形態に限定されない。
開示される実施形態に対する他の変更は、図面、本開示及び添付の特許請求の範囲の教示から、特許請求に係る発明を実施する際に当業者によって理解され、達成され得る。
本発明を、別の面(another surface)に対するデバイスの相対的位置が関係する任意の製品に適用することができる。任意の制御型皮膚測定の適用(controlled-skin-measurement-application)が可能である。適用は、スマートデバイスと器具の組合せに限定されない。カメラ付きデバイスのようなスマートミラーも適切なプラットフォームになるであろう。経時的に収集されるデータは、あなたがその器具をどのように使用しているかについての統計情報を提供する可能性がある。
本発明は、レーザガイド線に限定されず、専用スポットが皮膚領域を照明するときにも特に有用となり、顔の特徴の制御型キャプチャを可能にする。本発明は、この照明において特別な及び/又は時間エンコーディングを適用するときに更にロバストなものとなり、詳細なパーソナル皮膚測定を提供することができる。本発明は、特に、シェービング及びグルーミングデバイスを意図しているが、任意のパーソナルケアデバイス及び関連する又は同等のエリアにも適用することができる。
特許請求の範囲において、「備える(comprising)」という用語は他の要素又はステップを排除せず、不定冠詞「a」又は「an」は複数を排除しない。
単一のプロセッサ、デバイス又は他のユニットが、請求項に列挙されるいくつかの項目の機能を果たしてもよい。特定の手段が相互に異なる従属請求項に列挙されているという単なる事実は、これらの手段の組合せを有利に使用することができないことを示すものではない。
検出、決定、出力及び比較のような動作を、コンピュータプログラムのプログラムコード手段として及び/又は専用ハードウェアとして実装することができる。
コンピュータプログラムは、他のハードウェアと一緒に又は他のハードウェアの一部として供給される光記憶媒体又は固体媒体のような適切な媒体上に記憶及び/又は分配されてよいが、インターネット又は他の有線若しくは無線電気通信システム経由等のような他の形で分散されてもよい。
特許請求の範囲における参照符号は、その範囲を限定するものとして解釈されるべきではない。
Claims (15)
- 被検体に関してモバイルデバイスの位置を決定するための処理デバイスにおいて:
前記被検体の少なくとも一部を示す画像を受け取るように構成される入力ユニットであって、前記画像は、前記モバイルデバイスとは別個に設けられるイメージングデバイスによって撮影される、入力ユニットと;
前記受け取った画像内において前記被検体の1つ以上の特徴を検出するように構成される特徴検出ユニットと;
前記受け取った画像内において少なくとも1つのインジケータを検出するように構成されるインジケータ検出ユニットであって、前記インジケータは、前記モバイルデバイスによって前記被検体の上に投影された信号である、インジケータ検出ユニットと;
前記1つ以上の検出された特徴及び前記検出されたインジケータの検出結果を処理することにより、直接的に、前記被検体に関して前記モバイルデバイスの位置を決定するように構成される処理ユニットと;
を備える、処理デバイス。 - 前記インジケータ検出ユニットは、前記インジケータの形状及び/又は前記インジケータの一部である複数のサブインジケータの相対的位置から、前記インジケータの向きを検出するように構成される、
請求項1に記載の処理デバイス。 - 前記決定された位置を出力するように構成される出力ユニット、
を更に備える、請求項1に記載の処理デバイス。 - 経時的に前記モバイルデバイスの位置を示すトラックを決定するように構成される追跡ユニット、及び/又は、
1以上の所定の時間期間の間に前記モバイルデバイスの位置を含む1つ以上のエリアを決定するように構成されるカバレッジユニット、
を更に備える、請求項1に記載の処理デバイス。 - 前記追跡ユニットによって決定されるトラック及び/又は前記カバレッジユニットによって決定される1つ以上のエリアを所定のトラック及び/又は所定のエリア若しくは1組のエリアと比較して、その比較の結果を示すガイダンス情報を出力するように構成されるガイダンスユニット、
を更に備える、請求項4に記載の処理デバイス。 - 前記受け取った画像及び/又は一連の受け取った画像内の情報から前記モバイルデバイスのステータスを決定するように構成されるステータス検出ユニット、
を更に備える、請求項1に記載の処理デバイス。 - 前記ステータス検出ユニットは、前記検出されたインジケータから前記情報を決定するように構成される、
請求項6に記載の処理デバイス。 - 前記モバイルデバイスの前記決定された位置に従って制御命令を決定し、前記モバイルデバイスの動作を制御するために前記制御命令を出力するように構成される命令ユニット、
を更に備える、請求項1に記載の処理デバイス。 - 前記被検体の特徴は、前記モバイルデバイスのユーザの顔特徴である、
請求項1に記載の処理デバイス。 - イメージングデバイスであって:
被検体の少なくとも一部を示す画像を提供するように構成されるイメージングユニットと;
前記被検体に関してモバイルデバイスの位置を決定するための請求項1に記載の処理デバイスと;
備え、前記処理デバイスの入力ユニットは、前記イメージングユニットから前記画像を受け取るように構成され、当該イメージングデバイスは前記モバイルデバイスとは別個に設けられる、
イメージングデバイス。 - モバイルデバイスであって:
被検体の上に信号を投影するように構成されるインジケータユニットと;
前記被検体に関して当該モバイルデバイスの位置を決定するための請求項1に記載の処理デバイスと;
を備える、モバイルデバイス。 - 被検体の少なくとも一部を示す画像を提供するように構成されるイメージングユニットを含むイメージングデバイスと;
前記被検体の上に信号を投影するように構成されるインジケータユニットを含むモバイルデバイスと;
を備えるシステムであって、
前記イメージングデバイスと前記モバイルデバイスが共同で請求項1に記載の処理デバイスの機能を備え、
前記イメージングデバイスが前記モバイルデバイスとは別個に設けられる、
システム。 - 前記モバイルデバイスは、前記被検体に対する処置を提供し、かつ/又は前記被検体の局所条件に関するデータ情報を取得するように構成される、
請求項12に記載のシステム。 - 被検体に関してモバイルデバイスの位置を決定するための方法において:
前記被検体の少なくとも一部を示す画像を受け取るステップであって、前記画像は、前記モバイルデバイスとは別個に設けられるイメージングデバイスによって撮影される、ステップと;
前記受け取った画像内において前記被検体の1つ以上の身体特徴を検出するステップと;
前記受け取った画像内において少なくとも1つのインジケータを検出するステップであって、前記インジケータは、前記モバイルデバイスによって前記被検体の上に投影された信号である、ステップと;
前記1つ以上の検出された特徴及び前記検出されたインジケータの検出結果を処理することによって、直接的に、前記被検体に関して前記モバイルデバイスの位置を決定するステップと;
を備える、方法。 - 被検体に関してモバイルデバイスの位置を決定するためのソフトウェア製品であって、当該ソフトウェア製品が請求項1に記載の処理デバイスにおいて実行されると、処理デバイスに請求項14に記載の方法のステップを実行させるためのプログラムコード手段を備える、ソフトウェア製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP15177248.0 | 2015-07-17 | ||
EP15177248 | 2015-07-17 | ||
PCT/EP2016/066738 WO2017012969A1 (en) | 2015-07-17 | 2016-07-14 | Device and method for determining a position of a mobile device in relation to a subject |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018533775A true JP2018533775A (ja) | 2018-11-15 |
Family
ID=53761962
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018501872A Withdrawn JP2018533775A (ja) | 2015-07-17 | 2016-07-14 | 被検体に関してモバイルデバイスの位置を決定するためのデバイス及び方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US10580160B2 (ja) |
EP (1) | EP3326153A1 (ja) |
JP (1) | JP2018533775A (ja) |
CN (1) | CN107851320A (ja) |
BR (1) | BR112018000631A2 (ja) |
RU (1) | RU2719426C2 (ja) |
WO (1) | WO2017012969A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113573860A (zh) * | 2019-03-14 | 2021-10-29 | 皇家飞利浦有限公司 | 确定身体部分上的设备定位 |
WO2022114103A1 (ja) * | 2020-11-26 | 2022-06-02 | マクセル株式会社 | 肌状態測定システム |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3363606A1 (en) * | 2017-02-20 | 2018-08-22 | Koninklijke Philips N.V. | Operatig a personal care device |
EP3381630A1 (en) * | 2017-03-28 | 2018-10-03 | Koninklijke Philips N.V. | System, appliance and method for automated hair processing procedures |
CN112004648A (zh) | 2018-05-21 | 2020-11-27 | 比克维奥莱克斯公司 | 具有3d相机的智能剃刮系统 |
WO2019234144A1 (en) | 2018-06-08 | 2019-12-12 | Bic Violex S.A | Smart shaving accessory |
EP3829836B1 (en) | 2018-07-31 | 2022-07-13 | BIC Violex Single Member S.A. | Apparatus for assessing the condition of a shaving razor cartridge |
EP3632634A1 (en) * | 2018-10-04 | 2020-04-08 | Koninklijke Philips N.V. | A personal care apparatus |
EP3685786A1 (en) * | 2019-01-24 | 2020-07-29 | Koninklijke Philips N.V. | A method of determining a position and/or orientation of a hand-held device with respect to a subject, a corresponding apparatus and a computer program product |
EP3703073A1 (en) * | 2019-03-01 | 2020-09-02 | Koninklijke Philips N.V. | A projection and measurement system |
EP3800644A1 (en) * | 2019-10-02 | 2021-04-07 | Koninklijke Philips N.V. | Determining a location of a device |
EP3915502A1 (en) * | 2020-05-28 | 2021-12-01 | Koninklijke Philips N.V. | Apparatus for providing visual guidance for a user of a personal care device |
CN114820700B (zh) * | 2022-04-06 | 2023-05-16 | 北京百度网讯科技有限公司 | 对象跟踪方法及装置 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ES2180481T3 (es) | 2000-04-05 | 2003-02-16 | Brainlab Ag | Referenciacion de un paciente en un sistema de navegacion medica, utilizando puntos luminosos proyectados. |
US8054312B2 (en) * | 2005-08-26 | 2011-11-08 | Sony Corporation | Material for motion capture costumes and props |
US8065802B2 (en) | 2006-07-14 | 2011-11-29 | The Gillette Company | Shaving razor |
US9084622B2 (en) * | 2006-08-02 | 2015-07-21 | Omnitek Partners Llc | Automated laser-treatment system with real-time integrated 3D vision system for laser debridement and the like |
CN101165719A (zh) * | 2006-10-16 | 2008-04-23 | 北京威亚视讯科技有限公司 | 一种基于标志点的增强实现工业维修方法及系统 |
GB0622451D0 (en) * | 2006-11-10 | 2006-12-20 | Intelligent Earth Ltd | Object position and orientation detection device |
DE102009014301A1 (de) | 2008-03-28 | 2009-10-01 | Marquardt Gmbh | Bearbeitungsverfahren mit Elektrowerkzeug |
CN101301236B (zh) * | 2008-06-27 | 2011-02-16 | 北京中星微电子有限公司 | 基于三维摄像的视力保护系统及方法 |
US20110018985A1 (en) * | 2009-07-23 | 2011-01-27 | Zhu Linlin C | Hair-cutting systems with visualization devices |
US9504909B2 (en) * | 2011-05-05 | 2016-11-29 | Qualcomm Incorporated | Method and apparatus of proximity and stunt recording for outdoor gaming |
US8928747B2 (en) * | 2011-07-20 | 2015-01-06 | Romello J. Burdoucci | Interactive hair grooming apparatus, system, and method |
US9179844B2 (en) * | 2011-11-28 | 2015-11-10 | Aranz Healthcare Limited | Handheld skin measuring or monitoring device |
EP2780137B1 (en) | 2011-12-21 | 2021-05-05 | Matthew W. Krenik | Automated hair cutting system and method of operation thereof |
DK177610B1 (en) | 2012-05-01 | 2013-12-02 | Klaus Lauritsen Holding Aps | Programmable hair trimming system |
US10234941B2 (en) * | 2012-10-04 | 2019-03-19 | Microsoft Technology Licensing, Llc | Wearable sensor for tracking articulated body-parts |
US10185416B2 (en) * | 2012-11-20 | 2019-01-22 | Samsung Electronics Co., Ltd. | User gesture input to wearable electronic device involving movement of device |
US9947112B2 (en) * | 2012-12-18 | 2018-04-17 | Koninklijke Philips N.V. | Scanning device and method for positioning a scanning device |
EP2973407A4 (en) | 2013-03-15 | 2017-02-22 | Trak Surgical, Inc. | On-board tool tracking system and methods of computer assisted surgery |
US9256987B2 (en) * | 2013-06-24 | 2016-02-09 | Microsoft Technology Licensing, Llc | Tracking head movement when wearing mobile device |
JP6110962B2 (ja) | 2013-07-04 | 2017-04-05 | フィリップス ライティング ホールディング ビー ヴィ | 距離又は位置の決定 |
RU2665443C2 (ru) | 2013-11-06 | 2018-08-29 | Конинклейке Филипс Н.В. | Система и способ управления движениями пользователя во время процедуры бритья |
CN103796004B (zh) * | 2014-02-13 | 2015-09-30 | 西安交通大学 | 一种主动结构光的双目深度感知方法 |
US9652038B2 (en) * | 2015-02-20 | 2017-05-16 | Sony Interactive Entertainment Inc. | Magnetic tracking of glove fingertips |
-
2016
- 2016-07-14 BR BR112018000631A patent/BR112018000631A2/pt not_active Application Discontinuation
- 2016-07-14 RU RU2018101409A patent/RU2719426C2/ru not_active IP Right Cessation
- 2016-07-14 CN CN201680041961.4A patent/CN107851320A/zh active Pending
- 2016-07-14 WO PCT/EP2016/066738 patent/WO2017012969A1/en active Application Filing
- 2016-07-14 EP EP16739455.0A patent/EP3326153A1/en not_active Withdrawn
- 2016-07-14 US US15/743,305 patent/US10580160B2/en not_active Expired - Fee Related
- 2016-07-14 JP JP2018501872A patent/JP2018533775A/ja not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113573860A (zh) * | 2019-03-14 | 2021-10-29 | 皇家飞利浦有限公司 | 确定身体部分上的设备定位 |
JP2022524858A (ja) * | 2019-03-14 | 2022-05-10 | コーニンクレッカ フィリップス エヌ ヴェ | 身体部位におけるデバイスの場所の決定 |
JP7285947B2 (ja) | 2019-03-14 | 2023-06-02 | コーニンクレッカ フィリップス エヌ ヴェ | 身体部位におけるデバイスの場所の決定 |
CN113573860B (zh) * | 2019-03-14 | 2023-11-03 | 皇家飞利浦有限公司 | 确定身体部分上的设备定位 |
WO2022114103A1 (ja) * | 2020-11-26 | 2022-06-02 | マクセル株式会社 | 肌状態測定システム |
Also Published As
Publication number | Publication date |
---|---|
RU2018101409A (ru) | 2019-08-19 |
RU2719426C2 (ru) | 2020-04-17 |
US20180204346A1 (en) | 2018-07-19 |
RU2018101409A3 (ja) | 2020-02-12 |
CN107851320A (zh) | 2018-03-27 |
WO2017012969A1 (en) | 2017-01-26 |
BR112018000631A2 (pt) | 2018-09-18 |
EP3326153A1 (en) | 2018-05-30 |
US10580160B2 (en) | 2020-03-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018533775A (ja) | 被検体に関してモバイルデバイスの位置を決定するためのデバイス及び方法 | |
US10318831B2 (en) | Method and system for monitoring the status of the driver of a vehicle | |
US8369608B2 (en) | System and method for detecting drowsy facial expressions of vehicle drivers under changing illumination conditions | |
CN109416586B (zh) | 生成引导指示符和指示信号 | |
CN107874739A (zh) | 眼底图像捕获系统 | |
EP3752896B1 (en) | Personal care device localization | |
EP3091737A2 (en) | Digital mirror apparatus | |
JP6583734B2 (ja) | 角膜反射位置推定システム、角膜反射位置推定方法、角膜反射位置推定プログラム、瞳孔検出システム、瞳孔検出方法、瞳孔検出プログラム、視線検出システム、視線検出方法、視線検出プログラム、顔姿勢検出システム、顔姿勢検出方法、および顔姿勢検出プログラム | |
JP5001930B2 (ja) | 動作認識装置及び方法 | |
JP7113013B2 (ja) | 被験者の頭部の追跡 | |
JP2021536609A (ja) | 注視点推定方法及びシステム | |
CN109074418B (zh) | 检测口腔保健装置的使用者的运动并且提供反馈的系统和方法 | |
JP6981277B2 (ja) | 検出装置、及び検出プログラム | |
CN110446462B (zh) | 用于评估手持个人护理设备相对于用户的位置和/或取向的系统、装置和方法 | |
JP2016067773A (ja) | 自律移動ロボット及びバイタルサインモニタリング方法 | |
JP7443044B2 (ja) | 生体情報取得装置、端末装置、生体情報取得方法、生体情報取得プログラム、及びコンピュータ読み取り可能な記録媒体 | |
CN112970073A (zh) | 用于提供用户反馈的方法和设备 | |
KR20190032156A (ko) | 신체 정보 분석 장치 및 얼굴형 검측 방법 | |
KR20190097494A (ko) | 전자 장치 및 그의 제어 방법 | |
EP3832434A1 (en) | Behavior-based configuration method and behavior-based configuration system | |
CN115803162A (zh) | 预测处理后用户的外观 | |
CN116469178A (zh) | 一种活体识别方法和系统 | |
CN113031755A (zh) | 基于行为的配置方法和基于行为的配置系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190711 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20200226 |