JP2019500632A - ユーザの現在処置されている身体部分の判定 - Google Patents

ユーザの現在処置されている身体部分の判定 Download PDF

Info

Publication number
JP2019500632A
JP2019500632A JP2018512418A JP2018512418A JP2019500632A JP 2019500632 A JP2019500632 A JP 2019500632A JP 2018512418 A JP2018512418 A JP 2018512418A JP 2018512418 A JP2018512418 A JP 2018512418A JP 2019500632 A JP2019500632 A JP 2019500632A
Authority
JP
Japan
Prior art keywords
user
body part
candidate
analyzer
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018512418A
Other languages
English (en)
Other versions
JP6549316B2 (ja
Inventor
インゴ、フェッター
ハンスイェルク、ライク
カール、シュテュックラート
イェンス−ウーベ、ガルバス
ヨッヘン、ザイツ
アンドレアス、エルンスト
マルクス、ボックシュ
Original Assignee
ブラウン ゲーエムベーハー
ブラウン ゲーエムベーハー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=54072710&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2019500632(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by ブラウン ゲーエムベーハー, ブラウン ゲーエムベーハー filed Critical ブラウン ゲーエムベーハー
Publication of JP2019500632A publication Critical patent/JP2019500632A/ja
Application granted granted Critical
Publication of JP6549316B2 publication Critical patent/JP6549316B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A46BRUSHWARE
    • A46BBRUSHES
    • A46B15/00Other brushes; Brushes with additional arrangements
    • A46B15/0002Arrangements for enhancing monitoring or controlling the brushing process
    • A46B15/0004Arrangements for enhancing monitoring or controlling the brushing process with a controlling means
    • A46B15/0006Arrangements for enhancing monitoring or controlling the brushing process with a controlling means with a controlling brush technique device, e.g. stroke movement measuring device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • AHUMAN NECESSITIES
    • A46BRUSHWARE
    • A46BBRUSHES
    • A46B2200/00Brushes characterized by their functions, uses or applications
    • A46B2200/10For human or animal care
    • A46B2200/102Brush specifically designed for massaging the skin or scalp
    • AHUMAN NECESSITIES
    • A46BRUSHWARE
    • A46BBRUSHES
    • A46B2200/00Brushes characterized by their functions, uses or applications
    • A46B2200/10For human or animal care
    • A46B2200/1066Toothbrush for cleaning the teeth or dentures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/033Recognition of patterns in medical or anatomical images of skeletal patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Dentistry (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physiology (AREA)
  • Brushes (AREA)
  • Image Analysis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Quality & Reliability (AREA)

Abstract

個人衛生デバイス内に存在する少なくとも1つの慣性センサから取得されたセンサデータと組み合わせられた個人衛生デバイスを使用して自身の身体部分を処置している間のユーザの絵画的表現は、個人衛生デバイスを使用して現在処置されている身体部分を判定するために使用される。カメラ及び慣性センサの提供は、低コストで達成され得る。ユーザの現在処置されている身体部分を判定するための2つのソースを組み合わせることは、一方のソースが他方のソースの弱点を補い、逆もまた同様であるという点で、互いに補完する。

Description

本発明は、例えば、歯ブラシなどの個人衛生デバイスを使用してユーザにより処置されるユーザの身体部分を判定するための概念に関する。
様々な理由から、ユーザがそれぞれのデバイスを正しく取り扱うのを支援する「スマートデバイス」の市場に対する関心が高まっていることが知られている。例えば、「スマート歯ブラシ」は、子供が従順に歯を磨いているかどうかを調べなければならないという重荷から親を解放することができるであろう。例えば、人間は、タイミング及び頻度の観点から定期的に歯を磨くべきであり、正しい磨き技法及び範囲に関しては1日に2回の2分間、毎回全ての歯をカバーし、歯を2分間にわたって均一に配分して磨くなど正しく歯を磨くべきである。
それゆえに、スマート機能を有する歯ブラシ、シェーバなどの個人衛生デバイスの提供を可能にする概念に対する必要性が存在する。しかしながら、市場で十分な支持を見出すために、この概念は、簡単で安価な実施を可能にすべきである。歯ブラシなどの個人衛生デバイスは、それぞれの個人衛生デバイスを使用して処置中のユーザを見たときに、かなりの程度まで隠蔽されている[13]で見られるようなビデオベースの追跡システムにおける問題を引き起こすこと。その上、個人衛生デバイス内に組み込むことができる位置判定システムは、高価であるか、又はデバイスを使用してユーザの現在処置されている頭部部分を判定するのに十分にそれぞれの個人衛生デバイスの位置を判定しないかのいずれかである。
当然ながら、つい今しがた概説した要求及び需要は、頭部又は顔部のみではない身体の他の部分に使用される他の個人衛生デバイスに関しても生じる。
それゆえに、個人衛生デバイスを使用してユーザにより処置されるユーザの身体部分を判定するための概念であって、安価な実施を可能にする、概念に対する必要性が存在する。ユーザにより処置される頭部部分についての知識は、例えば、ユーザがその処置を遂行するのを支援することを可能にし得る。
一態様によれば、個人衛生デバイスを使用してユーザにより処置されるユーザの身体部分を判定するための装置であって、
個人衛生デバイスを使用して身体部分を処置している間に、ユーザをキャプチャして、ユーザの絵画的表現を取得するように構成されたカメラと、
個人衛生デバイス内に存在する少なくとも1つの慣性センサからセンサデータを受信するように構成されたインターフェースと、
絵画的表現及びセンサデータを分析して、身体部分を判定するように構成された分析器と、を備える、装置が提供される。
別の態様によれば、上述の装置及び個人衛生デバイスを備えるシステムが提供される。
別の態様によれば、個人衛生デバイスを使用してユーザにより処置されるユーザの身体部分を判定するための方法であって、
個人衛生デバイスを使用して身体部分を処置している間に、ユーザをキャプチャして、ユーザの絵画的表現を取得する工程と、
個人衛生デバイス内に存在する少なくとも1つの慣性センサからセンサデータを受信する工程と、
絵画的表現及びセンサデータを分析して、身体部分を判定する工程と、を含む、方法が提供される。
別の態様によれば、コンピュータで起動するときに、上述の方法を遂行するためのコンピュータプログラムが提供される。
本出願の例示的な実施態様は、従属請求項の主題である。その上、本出願の例示的な実施形態は、図面に関して更に後述される。
衛生デバイスを使用してユーザにより現在処置されているユーザの頭部部分を判定するための装置を、ある実施形態による衛生デバイスと共に示す。 図1の衛生デバイス及び装置の可能な実施態様を示す。 データ収集を遂行するテスト者に、ある実施形態による分析器を訓練するように指示するために使用され得るビデオのビデオスナップショットを示す。 ある実施形態によるカメラベースの磨きセクタ分類を取得するように、分析器により遂行される工程のシーケンスを例示する概略図を示す。 ロール角を例示するように、地球の重力ベクトルが縦に延びるように位置合わせされた歯ブラシの長手方向軸に垂直な歯ブラシの断面図を示す。 ピッチ角の位置を例示するように、ユーザ及び歯ブラシの側面図を示す。 訓練段階中の3人のテスト者の訓練データを使用して得られた、表1の18個のクラス/セクタの推定ロール角及び推定ピッチ角の散布図例を示す。 個々の判定の弱点が互いに補われたより信頼できる判定が最終的に得られるように、現在処置されている部分のカメラベースの判定と慣性センサベースの判定を別々に遂行し、その後にこれらの両方の判定を組み合わせる/融合させる可能性を概略的に示す。 確率分布を混同行列の形態で示す。表2の6クラスモデルの例示的なビデオ出力データは、最終的にこれらの分布になり、これらの分布は、カメラベースの分類結果の確率の計算を準備するためにビンに分割されている。対角線の分布は、正しい分類分布を表す。上から下の列に、分布は、なし、左上、左下、右上、右下、正面のクラスの実際の磨きに関し、左から右の列に、分布は、なし、左上、左下、右上、右下、正面のスコアに関する。各分布は、スコアの32個のビンを任意の単位で横軸沿いに、それぞれの実際の磨きそれぞれの磨きセクタ仮定においてそれぞれのスコアが得られた、関連付けられた回数/テストの数を任意の単位で縦軸沿いにプロットしたものである。スコアが高い(プラスである)ほど、スコアは、現在磨かれているセクタが、それぞれのスコアが計算されたセクタ、すなわちそれぞれのスコアが含まれる分布(又は分布のカラム)が属するセクタである確率がより大きいことを示唆する。 上から下に、慣性センサ(INS)ベース、カメラ(SHORE)ベース、及びセンサ融合(DZM;DZM=歯列ゾーン監視(Dental zone monitoring))ベースの分類の真の率に関する推定結果の行列を、左から右に、表2(1=左上、2=右上、3=左下、4=右下、5=正面)の6クラスモデル、上顎及び下顎の分類(1は上顎に等しく、2は下顎に等しい)、又は左側及び右側の分類(1は左側に等しく、2は右側に等しい)を使用して示す。 図9の行列配置内の慣性センサ(INS)、カメラ(SHORE)、及びセンサ融合(DZM)について収集されたデータを使用し、かつモデルを使用した推定結果の行列を示し、棒グラフ様式で、かつ真の率/棒高さに任意の単位を使用して、個々のクラスの真の率を描いている。 カメラベースの評価分析を遂行するための2つの選択肢を例示する概略図を示す。 慣性センサベースの評価分析を遂行するための2つの選択肢を示す。
以下に記載の本出願の実施形態は、ユーザの頭部上又はユーザの頭部内で(ここで、「内」は、ユーザの頭部の空洞内、例えば口腔内を意味する)、個人衛生デバイスを使用してユーザにより現在処置されている、ユーザの現在処置されている身体部分に例示的に焦点を当てている。それゆえに、実施形態は、歯ブラシ、シェーバなどのような例を個人衛生デバイスとして使用して例示されているが、これらの全ての実施形態は、他の個人衛生デバイスと共に、及びそれゆえに現在処置されている他の身体部分と共に動作するように容易に変更され得ることは明らかであろう。単に代表的に、以下の説明では、ユーザの頭部に関係する個人衛生デバイスに焦点を当てている。
導入部で説明したように、個人衛生デバイスを使用してユーザにより処置されるユーザの頭部部分(本明細書で「頭部部分」が使用される場合、これは一般に「身体部分」で置き換えられ得ることを理解されたい)を判定するための概念であって、安価な実施を可能にする、概念に対する必要性が存在する。ユーザにより処置される頭部部分についての知識は、例えば、ユーザがその処置を遂行するのを支援することを可能にし得る。後で説明する実施形態を使用して例示するように、このような概念は、例えば、ますます多くのユーザが、デバイスであって、カメラを備え、このカメラを使用する機能の補助的追加を可能にする、デバイスをすでに所有していることを利用することにより提供され得る。例えば、スマートフォンは、大抵は、カメラを備え、更なるアプリケーションを後でインストールすることを可能にする。その上、個人衛生デバイスなどのデバイスに慣性センサを設けることは、このような慣性センサは多数のデバイス内で広範に使用されているため、単に手ごろなコストを伴うに過ぎない。したがって、個人衛生デバイスを使用して自身の頭部部分を処置している間のユーザの絵画的表現と、個人衛生デバイス内に存在する慣性センサから取得される加速度測定データとを組み合わせることは、低コストで可能である。しかしながら、ユーザの現在処置されている頭部部分を判定するための2つのソースを組み合わせることは、一方のソースが他方のソースの弱点を補い、逆もまた同様である点で、互いに補完する。例えば、カメラの視野内の個人衛生デバイスの隠蔽のため、カメラは、ユーザが所定の異なる頭部部分を処置する状況を区別するには信頼できないソースであり得る。一方で、加速度測定データは、どちらの状況が現在当てはまるのかについて、非常に確実な認識を可能にする。同じことが逆にも当てはまり得る。加速度測定データは、現在処置されているある特定の頭部部分を区別するには信頼できないソースを形成し得る。しかしながら、その区別は、個人衛生デバイスを使用して頭部部分を処置している間、追加的に提供されたユーザの絵画的表現に基づいてより確実に達成することができる。
図1は、個人衛生デバイスを使用してユーザにより処置されるユーザの頭部部分を判定するための装置10を示し、図1はまた、個人衛生デバイス12を示す。装置10及び個人衛生デバイス12は、システムを形成する。図1の例では、個人衛生デバイス12は、電動歯ブラシ、すなわち、毛14の電気揺動ヘッド部を含む歯ブラシであるが、更に後述するように、本出願の代替的な実施形態は、個人衛生デバイスとしての歯ブラシに関するその詳細を、装置10と、電気的導出毛ヘッド部を有さない歯ブラシなどの任意の他の個人衛生デバイス、又はシェーバ、顔面マッサージ道具、若しくは他の任意の顔面衛生デバイスなどの人間頭部の処置のための任意の他の個人衛生デバイスとの組み合わせに移すことにより、後述する説明に基づいて容易に導出され得る。
図1の装置は、ユーザの顔を示す場面をキャプチャするように構成されたカメラ16を含み、ユーザは、衛生デバイス12を使用してある特定の頭部部分を現在処置している。カメラ16は、静止画カメラであってもよく、又はビデオカメラであってもよい。それゆえに、衛生デバイス12を使用して頭部部分を処置している間のユーザを示す絵画的表現は、1つ以上の静止画、又はフレーム/写真のシーケンスから構成されるビデオを含み得る。
装置10は、慣性センサ20から加速度測定データを受信するように構成されたインターフェース18を更に含み、一方で、慣性センサ20は、衛生デバイス12内に存在する。インターフェース18は、図1に例示するように、慣性センサ20から加速度測定データを無線で受信するように構成されてもよい。この目的のために、衛生デバイス12は、慣性センサ20から加速度測定データを受信するように慣性センサ20に相互接続され、装置10のインターフェース18により受信されるべき加速度測定データを無線で送出するように動作可能な、通信インターフェース22を備えていてもよい。しかしながら、インターフェース18は、あるいは、有線接続を使用して、慣性センサ20から加速度測定データを受信してもよい。
更に、装置10は、カメラ16及び(無線)インターフェース18に連結され、分析器26のタスクを引き受けるプロセッサ24を含む。分析器26の機能は、更に後述される。具体的には、分析器26は、カメラ16により取得された絵画的表現及び慣性センサ20からインターフェース18を介して受信した加速度測定データを分析し、それに基づいて、個人衛生デバイス12を使用してユーザにより現在処置されている頭部部分を判定する。
図1に示すシステム及び装置のハードウェア実装の具体例に関して以下で説明するように、装置10は、例えば、カメラ16、インターフェース18、及びプロセッサ24を収容するスマートフォンなどの携帯型コンピュータ又は携帯型通信装置上に実装されてもよい。プロセッサ24は、例えば、マイクロプロセッサであってもよく、分析器26は、プロセッサ24により実行されるとき、より詳細に後述する分析器26の機能をプロセッサ24に遂行させるアプリケーション又はコンピュータプログラムとして実装される。あるいは、分析器26のいくつか又は全ての機能は、カメラ及びインターフェースを収容する携帯型コンピュータ又は携帯型通信装置の外部になど、外部的に実装されてもよい。例えば、分析器26のこのような外部的に遂行される機能は、絵画的表現及び加速度測定データをインターネット又は何らかの他のネットワークを介して受信するように構成されたサーバ上で実行され得る。このような機能を外部にアウトソーシングすることにより、装置10は、装置10の電力消費量を相当に低減することを可能にしてもよく、それによりバッテリー節電を可能にする。
完全性のため、図1は、装置10が、現在処置されている頭部部分をユーザに対して可視化するための、又は候補頭部部分の組の各候補頭部部分について、時間的尺度若しくは時間的尺度に基づいて判定されたそれぞれの候補頭部部分に対する残りの処置要求の尺度を示す情報をユーザに対して可視化するための、可視化装置28を任意追加的に含んでもよいことを示すことが留意される。例えば、可視化装置28は、ディスプレイ又はモニタを含んでもよい。加えて、プロセッサ24は、つい今しがた述べた候補頭部部分の組の各々について、どれくらいの時間、すなわち、どの時間間隔中にそれぞれの候補頭部部分が間分析器26により頭部部分であると判定されているかの時間的尺度をログするためのログモジュール30のタスクを任意追加的に引き受けてもよい。
よって、図1の装置10は、衛生デバイス12を使用してユーザにより現在処置されているユーザの頭部部分を判定することができる。衛生デバイス12が、図1に描かれている歯ブラシである場合、これは、より具体的な実施形態のより詳細な説明を下記で更に概説する例示的なケースであるが、現在処置されている頭部部分は、例えば、ユーザの歯列のある特定の部分、例えば、ユーザの歯列の下顎左側部分などである。衛生デバイス12がシェーバである場合、現在処置されている頭部部分は、例えば、ユーザの顎ひげ部分のある特定の部分であってもよい。衛生デバイス12が、例えば、顔面マッサージ装置である場合、現在処置されている頭部部分は、例えば、ユーザの顔の任意の部分である。
下記でより詳細に概説するように、現在処理されている頭部部分を自動的に判定するためのソースとしてカメラ16及び慣性センサ20を使用することは、両ソースの弱点の相互補償をもたらす。絵画的表現は、分析器26が現在処置されている部分をその垂直位置に関して探し出すには信頼できないソースであるものの、例えば、カメラ16を使用して取得された絵画的表現は、分析器26が、現在処置されている頭部部分がユーザの左側内に位置するのか、それとも右側内に位置するのかを非常に確実に判定することを可能にする。逆に、加速度測定データは、現在処置されている頭部部分が左側にあるのか、それとも右側にあるのかを判定するには信頼できないソースであり得るものの、慣性センサ20により取得された加速度測定データは、現在処置されている頭部部分の縦軸沿いの位置が異なる状況を確実に識別する機会を分析器26に提供し得る。分析器26は、両方の情報ソース、すなわち絵画的表現及び加速度測定データを組み合わせることにより、左側/右側の識別に関して、及びユーザの縦軸沿いの異なる位置の識別に関して、現在処置されている頭部部分をより確実に判定することができる。
下記で更に概説する実施形態によれば、分析器26は、所定の候補頭部部分の組から現在処置されている頭部部分を選択することにより、現在処置されている部分の判定を遂行するように構成されている。例えば、下記でより詳細に概説するように、分析器26は、カメラ16に由来する絵画的表現及び慣性センサ20に由来する加速度測定データを使用してフィードされるとき、所定の候補頭部部分の組の中から現在処置されている頭部部分を選択することができるように「訓練」されなければならない。候補頭部部分の組は、訓練のために使用される候補頭部部分の組と一致してもよい。あるいは、その中から分析器26が現在処置されている頭部部分を選択する、候補頭部部分の組は、人間頭部の興味対象部分のより粗い区分化を表してもよい。この点の詳細は、更に後述される。分析器26を訓練するために、分析器26は、ニューラルネットワークとして実装されてもよく、又は統計的方法を使用して訓練されたものであってもよい。いずれにせよ、所定の候補頭部部分の組は、人間頭部の興味対象部分の区分化、すなわち人間頭部の興味対象部分を重なり合わないセグメントに空間的に細分する区分化を表す。例えば、衛生デバイス12としての歯ブラシの場合、その中から分析器26が現在処置されている頭部部分を選択する、候補頭部部分の組に区分化される人間頭部の興味対象部分は、ユーザの歯列であってもよい。衛生デバイス12がシェーバである場合、所定の候補頭部部分の組は、ユーザの顎ひげエリアの区分化を表してもよい。衛生デバイスが顔面マッサージ装置である場合、その中から分析器26が選択を遂行する、所定の候補頭部部分の組は、ユーザの顔面の区分化を表す。
つい今しがた述べたように、絵画的表現及び加速度測定データの両方の分析に基づいて現在処置されている頭部部分を判定することの効果は、空間的な左/右の識別及び縦軸沿いの空間的な識別のそれぞれに関する弱点の相互均一化である。それゆえに、所定の候補頭部部分の組は、例えば、人間頭部の興味対象部分を4つ以上の候補頭部部分に区分化してもよい。つまり、その中から分析器26が選択を遂行する候補頭部部分の組は、例えば、「少なくとも」4つの候補頭部部分、すなわち、ユーザの左側に置く第1の候補頭部部分と、ユーザの左側に位置するが、ユーザの縦軸に沿って第1の候補頭部部分に対して変位された第2の候補部分と、ユーザの右側に位置する第3の候補頭部部分と、ユーザの右側に位置するが、ユーザの縦軸に沿って第3の候補部分に対して変位された第4の候補頭部部分と、を含んでもよい。例えば、衛生デバイス12が歯ブラシである場合、第1の候補頭部部分は、ユーザの歯列の上顎左側部分であってもよく、第2の候補部分は、ユーザの歯列の下顎左側部分であってもよく、第3の候補頭部部分は、ユーザの歯列の上顎右側部分であってもよく、第4の候補頭部部分は、ユーザの歯列の下顎右側部分であってもよい。その中から分析器26が選択を遂行する候補頭部部分の組は、第5の候補頭部部分、すなわちユーザの歯列の正面部分、又は第5の候補頭部部分及び第6の候補頭部部分、すなわちユーザの歯列の上顎正面部分及び下顎正面部分を追加的に含んでもよい。衛生デバイス12がシェーバである場合、例えば、第1の候補頭部部分は、ユーザの左側の頬であってもよく、第2の候補頭部部分は、ユーザの顎の左側であってもよく、第3の候補頭部部分は、ユーザの右側の頬であってもよく、第4の候補頭部部分は、ユーザの顎の右側であってもよい。そのとき、第5の部分は、ユーザの顎の正面側を表してもよい。第6の候補頭部部分は、鼻と口との間の部分を表してもよい。衛生デバイス12が顔面マッサージ装置である場合、候補頭部部分の組は、衛生デバイス12の一例としてシェーバに関して述べた部分に加えて、額部を候補頭部部分として含んでもよい。
図2は、図1に示し、図1に関して説明したシステム及び装置の具体的な実装例を示す。上記にすでに示したように、本明細書において、衛生デバイスは、歯ブラシであると想定されているが、下記に提示する説明は、歯ブラシ以外の衛生デバイス12との他の実施態様に到達するように容易に変更することができる。
図2は、バッテリー駆動型歯ブラシ又は電動歯ブラシとしての衛生デバイス12を示し、歯ブラシのバッテリーは、歯ブラシ12をソケット32上に載置することにより再充電可能である。装置10は、図2では、カメラ16、プロセッサ(図2では描かれていない)、及びインターフェース18を収容するスマートフォンとして具現化されている。インターフェース18は、歯ブラシの対応インターフェース22から加速度測定データを受信する。加えて、スマートフォンは、可視化装置28をディスプレイの形態で備える。
装置10は、歯ブラシ12及び装置10のユーザが口又は歯列のどのセクタを現在磨いているか、並びにどれくらいの時間磨いているかについて情報を得ることができる。加えて、装置は、このようにして得られた情報に、例えば、歯ブラシ12内の追加的な力センサ(図1にも2にも図示せず)により集められた磨き圧力についての情報を添え得る。慣性センサを備えた歯ブラシ12は、図2に描かれていないが、歯ブラシ12のハウジング内又はハウジング上の任意の場所に配置することができる。慣性センサは、慣性測定ユニットIMUにより構成されてもよい。言い換えれば、慣性センサは、加速度センサ及び/又は角速度センサ、並びに任意追加的に磁界センサを含む慣性測定ユニットIMUにより具現化されてもよい。明示的な一例として、3軸加速度計が、1つ以上の多軸ジャイロスコープ及び1つ以上の磁力計を任意追加的に伴って、センサ20として使用されてもよい。図2に描かれているように、ブルートゥースデータ接続は、インターフェース22及び18を相互接続させるために例示的に使用され得る。
加速度測定データに関しては、いわゆるセンサ融合、すなわち加速度センサ及び/又は角速度センサのセンサデータの全てを、縦軸に位置合わせされた系などの、歯ブラシに関係しない所定の座標系に関するデータの組にまとめる方法が、歯ブラシ12内又は分析器内で、すなわち装置内又はスマートフォン10内で、それぞれ遂行されてもよいことが留意される。その上、センサ融合はまた、何らかの種類の積分により加速度測定値を速度データ又は位置データに変換してもよく、ゆえに、「加速度測定データ」という用語は、慣性センサ20を使用した加速度測定により得られるか、又はそれから生じる任意のデータを包含すると理解されるものとする。例えば、歯ブラシ内で遂行されるデータ前処置は、インターフェース22を介して転送されるべきデータの量を低減することを狙いとしてもよい。あるいは、分類/位置判定の全体が、歯ブラシ内で実行されてもよい。
データ、すなわち絵画的表現及び加速度測定データは、カメラ16及び慣性センサ20と同時に分析器26内に収集される。2つの異なるソース、すなわちカメラ16及びセンサ20からのデータが、プロセッサ24又は分析器26に非同期的に到着してもよく、プロセッサ24又は分析器26が、2つの対応する情報片、すなわちビデオデータ及びセンサデータを、正しく組み合わせるように、正確に時間記録又は同期する責任を引き受けてもよい。
何らかのデータ収集プロセスが、分析器26を訓練するために使用されてもよい。例えば、データ収集のプロセスにおいて、それぞれのユーザに特定の磨きセクタを磨くように指示するビデオが、ユーザに示されてもよい。ビデオは、例えば、図3に可視化されている画面などの画面を示してもよい。歯列が、34に描かれており、何らかの種類の強調表示36が、カメラ16及び慣性センサ20からデータを収集しながら、テスト者が歯ブラシを使用して歯列のどの部分(セクション)を処置、すなわち磨くべきかをテスト者に示す。現在強調表示されている部分が磨かれるべき残り時間が、ビデオ画面のセクション38に表示されてもよい。部分40において、ビデオ画面は、それぞれのテスト者によるデータ収集プロセスの間に逐次的に磨かれるべき歯列の識別された候補部分の数、及びデータ収集プロセスの間に現在の列内の現在の候補部分を表示してもよい。例えば、図3の場合、ビデオは、テスト者の歯列の第1の候補部分が歯列の上顎左側の外側であり、この現在処置されている部分が18個の候補部分のうちの第1の部分であり、列内の次の候補部分まで8秒残っていることを現在示している。
絵画的表現、すなわちビデオ16によりキャプチャされた場面と、慣性センサ20により取得された加速度測定データとを含む収集データは、次いで、分析器26の基礎をなすアルゴリズムを訓練及びテストするために使用される。分析器26の実施形態は、より詳細に後述される。図3は、例えば、18個の論理磨きセクタが訓練のために使用されることを例示する。
ユーザの現在処置されている/磨かれている部分の推定/判定は、第1のステージでは、一方では絵画的表現に基づいて、他方では加速度測定データに基づいて、別々に遂行されてもよく、第2のステージでは、現在処置されている/磨かれている部分をより確実に最終判定するために、両方の判定が、融合又は組み合わされる。この目的のために、訓練段階の18個の磨きセクタは、例えば、歯列の現在処置されている部分/セクタの慣性センサに基づく判定を訓練するために、すなわち慣性センサに基づく分類のためにセクタを訓練するために、全て内的に使用されてもよい。
18個の磨きセクタは、例えば、表1に示すように定義されてもよい。
Figure 2019500632
表1によれば、18個の磨きセクタは、それぞれ、3つの次元、すなわち上顎と下顎とを識別する次元、歯列の左側と右側と正面部とを識別する次元、及び歯の内向き側すなわち舌部に対向する側と、歯の反対向き側又は外向き側と、咀嚼面とを識別する次元に沿って論理的に配置される。
例えば、現在処置されている部分の加速度測定データに基づく推定が全18個の磨きセクタを識別するように訓練される一方で、訓練は、カメラ16により取得される絵画的表現に基づく現在磨かれている部分の推定/判定について、18個のセクタのうち隣接セクタをプールすることにより18個のセクタから得られる区分化などの、歯列のより粗い区分化に関してもよい。その上、分析器26を訓練した後、ユーザに対する可視化が後で遂行される候補セクタの組さえ、同じものが18個のセクタとは異なっていてもよい。例えば、表2は、上述の18個の磨きセクタに基づいて、それらを6つのクラスに減少させることにより導出された、それぞれ後で可視化及び分析器のために使用され得る候補セクタの組を例示する。歯列に関してすでに上述した5つのクラス以外に、第6のクラスは「磨きなし」を含むが含まれる。
Figure 2019500632
図4に関して、予備的に単にカメラに基づいて磨きセクタ分類を遂行する際に図1及び2の装置10がどのように動作し得るのかについて、動作モードを説明する。
磨きセクタ分類プロセス全体の、図4の40に表示されている第1の工程で、ユーザ42は、自身の歯を磨いている間、ビデオキャプチャデバイス、すなわちカメラ16の前にとどまり、カメラ16によりキャプチャされる。つまり、カメラ16によりキャプチャされた場面44は、歯ブラシ12を使用して歯を磨いているユーザ42を含む。このようにしてカメラ16を使用して取得された絵画的表現は、1つ以上のキャプチャされたビデオ写真/フレームを含む。1つのキャプチャされたビデオフレーム46を図4に示す。写真46は、ユーザ後者が口内に延在するように歯ブラシ12を握持しているユーザ42の顔面を示す。
具体的には、図4は、カメラベースの磨きセクタ分類に専念している。それゆえに、図4の実施形態によれば、1つ以上のビデオフレーム46は、顔検出及び顔追跡ユニットに渡されて、顔検出及び顔追跡プロセスに供され、顔検出及び顔追跡プロセスが、ユーザの顔48を画像又は写真46内に探し出す。この工程は、図4の50に示されている。工程50で写真46内の顔領域52を判定した後、分析器26の顔特徴位置特定ユニットは、工程54で顔領域52内に眼56を探し出す。次いで、顔領域正規化ユニットは、工程58で、写真46を回転及び拡大縮小し、すなわち歪め、写真46から定義された画像領域60を切り出す。この領域は、写真内の口を含み、それを取り囲んでいる。顔領域正規化は、写真46内の位置特定された眼位置56を参照点として使用してもよい。最後に、分析器26の磨きセクタ分類ユニットは、工程62で正規化された画像領域64内の特徴を抽出し、画像を分類し、ユーザが関連付けられたセンサを現在磨いている確率を特徴付ける各磨きセクタの評点を提供してもよい。例えば、図4は、カメラベースの磨きセクタ分類が、最終的に6つの論理クラス、すなわち表2に示される論理クラスの中から選択される現在磨かれている部分の推定になり得ることを例示する。
図4で、工程50、54、58、及び62は、分析器26により遂行される。図4に関して説明した個々の工程を、以下でより詳細に説明する。
上記にすでに示したように、カメラ16は、場面をキャプチャすることができる任意のデバイスであってよい。カメラ16は、例えば、画像シーケンスをキャプチャすることができるビデオカメラであってもよい。ビデオカメラは、例えば、携帯電話機又はタブレットであってもよいが、コンピュータに接続されたカメラであってもよい。ビデオキャプチャデバイス16は、自身の歯を磨いている間にカメラ16がユーザをキャプチャするように、カメラベースの磨きセクタ分類のためにユーザの前に配置されてもよい。例えば、図2に示す携帯電話機は、浴室内の鏡に取り付けられた携帯電話機保持具内に配置され得る。ビデオキャプチャデバイスはまた、鏡内に統合され得る。ビデオキャプチャデバイスはまた、カメラを有する任意の他のウェアラブルデバイス、例えば、データグラス(例えば、Google Glass(登録商標))又はスマートウォッチであり得る。ビデオキャプチャデバイスは、ユーザをキャプチャし、画像フレームを提供し、画像フレームは、次いで、工程50で顔検出及び顔追跡に供される。
工程50における顔検出及び顔追跡の間、ビデオキャプチャデバイス16の画像フレームは、ユーザの顔を画像内に探し出すように処理される。顔検出は、例えば、[3]、[4] [5]、[6]、[9]、[10]に記載の方法のうちのいずれかを使用することにより実施することができる。顔検出は、顔48が検出され得る場合、画像46内のユーザの顔48の領域52を提供する。画像が2つ以上の顔を示している場合、顔検出器は、画像46内の顔位置又はサイズを用いて、画像46内の最も目立つ顔を選択することができる。例えば、画像46内の最大の顔が、ユーザの顔として選択され得る。顔検出はまた、データベース内に記憶されているユーザの顔に最も似た顔を選択することができる。識別及び追跡されるべき顔は、例えば、セットアッププロセスにおいて分析器26に教育することができる。顔はまた、性別又は年齢により特徴付けられ得る。
顔検出はまた、写真46内のユーザの顔の検出に失敗する場合がある。失敗の理由としては、例えば、劣悪な照明、又は磨き中の手若しくは歯ブラシハンドルによる顔の隠蔽が挙げられ得る。顔検出が失敗したとき、顔は、しばしば、依然として顔追跡により追跡することができる。例えば、顔は、例えば[8]に記載のように、現在のフレーム内の顔位置の近隣内の最後のフレームから顔領域52の外観を見出すことにより、追跡することができる。顔追跡はまた、任意の他の方法を使用して実施され得る。
顔追跡は、頑健性を増大させるためだけではなく、必要とされる処理電力又はエネルギー消費を減少させるために使用することができる。これは、時折の画像フレームに対して顔検出を適用し、中間のフレームに対して顔追跡を適用することにより中間のフレームを橋渡しすることにより、達成することができる。この目的のために、例えば[11]を参照する。顔追跡は、任意追加的であり、例えば、顔検出がすでにその要件の全てを満たしている場合、省略することができる。
顔特徴位置特定は、工程54で画像46内にユーザの眼を探し出す。顔特徴位置特定は、顔検出及び顔追跡プロセス50により提供される顔領域52を使用し、上部顔領域、すなわち領域52の上半分内でのみ眼を探す。これは、探索空間及び必要とされる処理能力を低減させ、眼位置の頑健性を増大させる。顔特徴位置特定は、任意の顔特徴位置特定方法を使用して実施され得、特に、顔領域を検出するために使用されるのと同じアルゴリズムを採用することができる。そのために、アルゴリズムは、顔領域全体の代わりに左眼及び右眼を検出するように訓練され得、検出された上部顔領域に関連して定義されたエリアのみに適用され得る。顔特徴を探し出すための任意の他の方法も使用され得る。例えば、2D又は3D形状モデルを画像46上に適合させる方法が使用されてもよい。すなわち、人間の顔の2D又は3D形状モデルのパラメータは、その画像、例えば、突出部が写真46内の顔の実際の画像と一致するように適合される。
口領域とは対照的に、上部顔部分が、歯を磨く間、ユーザの手により隠蔽されることは考えにくい。したがって、この方法は、口領域内ではなく、上部顔領域内の顔特徴を使用する記載の手順をサポートしてもよい。別の実施態様は、眼位置56だけではなく、他の顔特徴、例えば、眉毛、鼻、又は顔の輪郭も探し出すことができる。
顔特徴は、しばしば、工程50で顔検出及び顔追跡により提供される顔領域よりも正確な顔の位置特定、並びに磨きセクタ分類のためのより良好な位置合わせを可能にする。しかしながら、例えば、顔検出が工程50ですでにニーズを満たしている場合、顔特徴位置特定は、代替的に省略されてもよい。
顔領域正規化58の狙いは、写真46を回転させ、拡大縮小し、写真46内の口の周りの所定の領域60を切り出すことである。この目的のために、顔特徴抽出/位置特定プロセス54により取得された顔特徴56が、参照点として使用されてもよい。言い換えれば、顔領域正規化58の狙いは、その結果が、すなわち正規化された画像領域60が、磨きセクタを分類するために適切な顔及びユーザの頭部の周りの同じ部分を常に示すことを保証することである。顔領域正規化58は、頭部の回転及びビデオキャプチャデバイス16の前のユーザの動きにより引き起こされる、画像内のユーザの顔の外観のばらつきのうちの少なくともいくつかを除去することを狙いとする。参照点に基づくため、顔領域正規化は、正規化された画像領域の内側又は外側の所定の参照点に顔の特徴がマッピングされるように、画像領域60を正規化された画像フレームに変換することを伴う。顔領域正規化は、参照点としての眼位置56及び顔特徴点の任意の他の組み合わせのみを使用して、変換を計算し得る。その上、顔特徴位置特定が省略される場合、顔領域のみが正規化のために使用されてもよい。
磨きセクタ分類62は、口の周り及び頭部の周りのユーザの顔の適切な部分、並びに磨き中、一般に歯ブラシの部分及びユーザの手を示す、正規化された顔領域60を使用する。これは、図4に例示されている。正規化された顔領域60の外観は、現在磨かれているセクタ、すなわちユーザの頭部の現在処置されている部分に依存する。例えば、領域60は、ユーザが歯列の左側を磨いていようとも、又は右側を磨いていようとも、異なって見える。同じことが、歯列の他のセクタにも当てはまる。磨きセクタ分類は、これらの外観の違いの利益を得て、現在磨かれているセクタを判定する。正規化された画像領域60内の特徴が、抽出され、分類され、次いでカメラベースの磨きセクタ分類に関連付けられた候補磨きセクタの組の各候補磨きセクタの評点が提供される。評点は、ユーザがそれぞれの評点に関連付けられたセクタを磨いている確率を特徴付けるものである。
任意の特徴の種類を抽出し、分類のために使用することができる:縁部、輝度差、人口調査特徴若しくは構造的特徴、又はそれらの組み合わせ。例えば、[3]、[4]、[6]を参照する。磨きセクタ分類は、抽出された特徴を評価することにより、磨かれている歯の各セクタについて、正規化された顔領域60が典型的にどのように見えるのかを学習する、1つ以上の機械学習方法を実施する。任意の機械学習方法、例えば、ブースティング、サポートベクトルマシン、又はニューラルネットワークを使用して、磨きセクタ分類を訓練することができる。
典型的に、機械学習方法は、学習のために注釈付きの訓練データを必要とする。ここで、既知の磨きセクタ又は注釈付きの磨きセクタを含む正規化された顔領域サンプルが使用されてもよい。訓練サンプルは、歯を磨く間に様々なユーザを記録し、正規化された顔領域を抽出することにより生成することができる。訓練サンプル内に示される磨きセクタは、手動で判定され得る。ユーザはまた、図3に関して例示的に例示したように、所定の順序で、及び磨きセクタの訓練データへの自動割り当てを可能にするために所定の長さで、歯のセクタを磨くように求められ得る。
歯列は、例えば、単に左と右若しくは上と下を識別する2つのセクタに分けられ得るか、又は例えば、単に左と右と正面を識別する3つのセクタに分けられ得るか、又は4つのセクタ、すなわち表2の最初の4つのセクタに分けられ得るか、又は5つのセクタ、すなわち表2の最初の5つのセクタに分けられ得るか、又は6つのセクタ、すなわち表2の上の5つのセクタに分けられ得るが、第5のセクタを上顎正面部分と下顎正面部分にそれぞれ分割することができる。任意の他の実行可能な数のセクタが使用されてもよい。加えて、別々のクラス、すなわちユーザが全く歯を磨いていないことを示すクラス(なし)が、定義及び訓練され得る。その上、ユーザが歯を左手で磨いているのか、それとも右手で磨いているのかを区別することができる別の分類子が訓練され得る。
出力として、磨きセクタ分類ユニットは、ユーザにより現在磨かれているセクタを提供することができる。その上、又はあるいは、カメラベースの磨きセクタ分類は、ユーザが関連付けられたセクタを現在磨いている確率を特徴付ける、各磨きセクタの評点を提供することができる。
図4に関してつい今しがた説明したカメラベースの磨きセクタ分類を実現することができる個々の工程に加えて、記載した手順がカメラ16の前のユーザの頭部ポーズを推定することが、協力的であり得る。ポーズを推定するためのいくつかの可能性が存在する。
3Dモデル適合の手法では、3D顔モデルが、顔の2D画像46に適合される。例えば、3Dモデルのパラメータは、カメラ16の光学投影パラメータによるその投影が写真46内のユーザの顔の外観と整列するように適合される。例えば、[1]に記載のアルゴリズムが使用されてもよい。このような方法の高い処理能力要件のため、しばしば、それほど正確ではないがより高速なアルゴリズムを採用することが要求される。
2D画像からの3D姿勢推定のためのよく知られている方法が、POSITである。POSITアルゴリズムは、例えば、[2]に記載されている。POSITは、対象、ここでは顔、の近似3Dモデルと、2D画像内の同モデルの対応する点とが知られていることを必要とする。POSITは、機能するために少なくとも4つの対応する点を必要とする。歯磨き中に口が隠蔽される可能性があるため、口の隅は、信頼できる特徴点として使用することができないか、又は使用すべきではない。POSITアルゴリズムを使用するために、好適な特徴点が、顔の上半分に見出されてもよい。そこで特徴点は、顔特徴位置特定54の間に判定されてもよい。
事後推定を遂行するための別の可能性は、ただ検出された眼領域56の位置及びサイズを考慮することにより、頭部ポーズを判定することである。カメラパラメータ及び人間の眼の平均距離があれば、x、y、及びz方向への変換並びにy軸を中心とする回転(頭部を耳の側に曲げること)は、標準的な数学演算、最も重要なものとしては切片の定理により計算され得る。z軸沿いの回転角(頭部を左又は右に向けること)の判定には、左眼と右眼の相対的な検出サイズ差を使用して、回転角を推定することができる。これは、頭部が回転される場合、眼が画像内で異なるサイズを有するという事実に基づく。
上述のように、顔検出及び顔追跡により、画像フレーム46内のユーザの顔の領域が判定され、かつカメラベースの磨きセクタ分類のために使用されてもよい。しかしながら、画像フレーム内のユーザの頭部の位置及びサイズはまた、例えば、ユーザがビデオキャプチャデバイス16の前の正しい位置内に位置しているかどうかをチェックするために使用され得る。必要であれば、システムは、画像フレームの正しい位置内に、例えば、画像の中心に、又はカメラ16のより近くに、ユーザを再び案内することができる。言い換えれば、分析器26は、カメラ16の視界内のユーザの顔48の位置を連続して調べ、かつカメラ16の視界、又は視界の真ん中のある特定の領域などの、カメラ16の対象となる所定の領域を離れるリスクを冒した場合にユーザに警告するように構成されてもよい。例えば、アラームは、ひとたびユーザがカメラ16の視界の左端、右端、上端、又は下端に接近すると作動開始し得る。加えて、又はあるいは、アラームは、ひとたびユーザがカメラから近すぎるか、又は遠すぎるようになると作動開始し得る。追加的又はあるいは、画像46内の顔48の領域はまた、分析器により、照明をチェックし、画像品質を最適化するために使用されてもよい。例えば、ユーザは、照明を修正するように求められ得、又はカメラ設定は、顔領域内の画像特性に応じて適合され得る。一実施態様は、[7]に記載の方法を採用し得る。
カメラベースの磨きセクタ分類は歯ブラシデバイスに適用することができるだけではないことが想起される。実際、図4の例でさえ、顔など内のシェーバの位置を分類するなど、他の衛生デバイスにも適合され得る。
カメラベースの磨きセクタ分類を遂行するための例を説明した後、以下の段落は、慣性センサに基づいて磨きセクタ分類を遂行するための可能性について言及する。
図5によれば、慣性センサベースの磨きセクタ分類のための主要な特徴は、計算されるロール角及びピッチ角である。ロール及びピッチは、慣性センサ20による加速度測定値に基づいて、かつ地球の重力ベクトルの方向を追加情報として使用して、計算される。
図5aから分かるように、ロール角Θは、例えば縦軸70を基準として使用して傾きを測定することにより、歯ブラシ12の長手方向軸周りの歯ブラシ12の現在の傾きを測定することとして定義されてもよい。図5aでは、縦軸70は、「1g」により示される矢印により例示又は表示されており、この矢印は、地球の重力ベクトルを象徴する。例えば、Θ=0は、歯ブラシの毛が下方に向いている、すなわち地球の重力ベクトルの方向に進む状況として定義することができる。図5aでは、歯ブラシ固有の座標系が、軸x、y、及びzのデカルト座標系を使用して例示されており、軸yは、歯ブラシ12の長手方向軸を形成し、歯ブラシの軸y周りの回転は、Θにより測定され、軸zは、歯ブラシの毛とは反対の方向に向いている。
図5bは、ピッチ角Φがどのように定義され得るかを例示するために、同じ命名法を使用している。つまり、座標系x、y、及びzは、歯ブラシの局所座標系であり、ベクトル「1g」は、地球の重力に沿って向いているベクトルに対応する。水平面、すなわち地球の重力ベクトルに垂直な平面、すなわち水平線に平行な平面は、図5a及び5bの両方において破線として描かれている。図5bから分かるように、ピッチ角Φは、歯ブラシの水平面に対する傾斜を測定するものであり、又は、別様に言うと、それに沿って地球の重力ベクトル1gが向いている軸からの角度偏差90°−Φに対応する。
図3に関して上述した訓練段階では、ラベル付けされた測定データが、例えば、定義された18個の磨きセクタ内に収集される。訓練データを使用して、データをロール平面及びピッチ平面にマッピングし、かつ各セクタの得られた分布の特性値、例えば、平均及び分散を導出することにより、ロール角及びピッチ角を計算し、18個のクラスモデルを訓練する。例示的な散布図を図8に示す。これは、データをロール平面及びピッチ平面にマッピングした結果である。図6では、ロール軸は、縦軸に対応し、ピッチ軸は、水平軸に対応する。ロール及びピッチに加えて、平均値、分散、信号パターン、スペクトルなど[13]のような、他の特徴が、加速度測定データに基づくセクタ分類のために使用され得る。
よって、ある実施形態によれば、分析器26は、加速度測定データからロール角及びピッチ角を計算することにより、加速度測定データベースの磨きセクタ分類を遂行する。あるいは、加速度測定データは、すでにロール角及びピッチ角を表している。ロール角及びピッチ角は、訓練された分類子に基づいて分析器26により評価される。各候補セクタについて、この候補セクタが現在の磨きセクタである確率が計算される。あるいは、平均値、分散、信号パターン、スペクトルなど[13]のような、加速度測定データの追加の特徴を追加的に使用して、各セクタの確率を計算してもよい。
図4及び5a、bに関して、カメラベースの磨きセクタ分類及び慣性センサベースの磨きセクタ分類を説明してきた。分析器26は、センサ融合手法により、両分類を組み合わせてもよい。センサ融合を適用することの目標は、一方のシステムの弱点を他方のシステムの強みで補うことである。センサ融合プロセスを、図7で例示的に可視化する。分析器26により適用されるセンサ融合の最も簡単な方法は、各磨きセクタについて、異なるセンサ、すなわちカメラ及び慣性センサに基づく異なる分類から得られた確率を、それぞれ乗算することであってもよい。
図7は、80において、歯列の現在磨かれているセクタが表1のリストのインデックス12を有するセクタ、すなわち上顎部分の左側の内側であることを、例示している。上述のように、写真表現及び加速度測定データは、分析器26により受信及び記録される。次いで、分類が、8で別々に遂行され、それにより、ウェイト又は確率値が、すなわちカメラベースの磨きセクタ分類の候補セクタの組のうちの候補セクタ毎に1つもたらされ、この確率値の組は、図7の84に示されており、かつ慣性センサベースの磨きセクタ分類の候補セクタの組のうちの候補セクタ毎に1つの率又は確率値がもたらされ、後者の組は、図7の86に示されている。つまり、セクタ分類は、独立して遂行される。図7は、カメラベースの磨きセクタ分類が左側の磨きを判定し、慣性センサベースの磨きセンサ分類が、表1のインデックス命名法を適用して、セクション3、11、又は12における磨きを判定する場合を例示する。この先、慣性センサベースの磨きセクタ分類により判定された3つのセクタのうち、セクタ3に最も高い確率値が付与される。80に示されるように、これは、明らかに正しくない。しかしながら、最終判定結果又は融合結果が、90に示されるようにセクタ12の正しい分類になるように、センサ融合88により、結果84及び確率86が組み合わされる。
カメラベースの磨きセクタ分類と慣性センサ磨きセンサ分類とのセンサ融合を可能にするため、多量の訓練データについて計算されたスコア値のヒストグラムを計算した。得られたヒストグラムを図8に示す第6のクラスモデル、すなわち融合後の選択に利用可能な候補部分の組。ヒストグラムに基づいてカーネル密度推定を遂行し、図8に提示した混同行列の条件付き確率分布を計算した。行列のエントリは、次のように読み出すことができる。すなわち、現在の磨きセクタと推定クラスとが同じである場合、行列の対角線上の対応する分布が使用される。現在の磨きセクタと推定クラスとが異なる場合、対応する分布は、対角線上に置けない。図8の第1行は、現在の磨きセクタ「磨きなし」、検出されたクラス(左から右へ):「なし」、「左上」、「左下」、「右上、「右下」、及び「正面」の分布を示す。
推定結果を、図9で定義する行列形式で提示する。左上、右上、左下、右下、及び正面のクラスについて、真のクラスの率を計算した。慣性センサ(INS)を使用することとカメラ(SHORE)を使用することとの別々の分類率を、センサ融合(DZM)の結果と共に提示する。比較及び分析のために、加えて、2つの単純なモデル、すなわち上顎と下顎を区別する、又は左側と右側を区別する、の真の分類の率を提示する。モデルの全分類率を図の見出しに表示する。図10では、SHOREの6クラスモデルについて、全推定結果を提示する。センサ融合は、個々のシステムの分類速度を改善する。
よって、上記の説明を手短にまとめ、一般化しながら、以下のことに留意する。分析器26は、カメラに由来する写真提示を第1の評価分析に供するように構成されてもよい。この第1の評価分析は、カメラベースの磨きセクタ分類又はSHOREと呼んでいるが、衛生デバイス12が歯ブラシではない場合、この命名法は、当然ながら、適合するように適宜変更されるべきである。第1の評価分析は、第1の候補頭部部分の組の各候補頭部部分の第1の確率値をもたらし、各第1の確率値は、現在処置されている頭部部分がそれぞれの第1の確率値が属する第1の組のそれぞれの候補頭部部分である確率を示す。第1の評価分析を図11に関して再度例示する。図11は、図11の上部において、各々ある特定のタイムスタンプtと関連付けられている1つ以上の写真を含む写真表現92を示す。カメラによりキャプチャされた各写真か又はあらゆる第2の写真などのその単なる小部分かのいずれかが第1の評価の主題にされ得ることが特筆されるべきである。第1の評価分析、すなわちカメラベースの評価分析は、1組の確率値をもたらすように、各写真を上述のように、かつ図11に例示されているように個別に処置してもよい。よって、確率値の組の更新速度は、写真の速度と一致するであろう。代替的な手法によれば、写真のシーケンスは、一般に、1組の確率値をもたらすように評価され得る。よって、第1の評価分析に供されるシーケンスは、時間的に重なり合う場合があり、重なり合わない場合がある。重なり合いは、確率値の組の更新速度が写真の速度と一致するように、2つの連続して分析されるシーケンスが互いに対して単に1つの写真分だけオフセットされるようなものであり得る。あるいは、2つの連続して分析されるシーケンスは、いかなる重なり合いもなしに時間的に互いに当接するように、互いに対してオフセットされ得、よって、確率値の組の更新速度は、写真の速度をシーケンス毎の写真の数により除算したものに対応するであろう。
第1の評価分析を実現することの2つの可能性を図11に描く。左側に例示する可能性は、図4に対応し、各写真(あるいは、各写真シーケンス)が、特徴抽出94に供され、続いて、得られた特徴が、上述の確率値、すなわちカメラベースの評価分析の候補セクタの組98の候補セクタ毎の1つの確率値にマッピング96される。特徴抽出94は、例えば、写真にある特定の特徴テンプレートを重ね合わせて、それぞれの写真から特徴マップを取得することを含む。この特徴マップは、マッピング96により確率値上にマッピングされてもよい。マッピング96は、代表的な特徴マップからの特徴マップの距離を何らかの距離尺度に従って判定することによってなど、ニューラルネットワークにより、又は何らかの他の手段により行われてもよく、各々が、ある特定の候補セクタオフセット98を表す。あるいは、現在分析されているそれぞれの写真(又は写真のシーケンス)は、ニューラルネットワークに直接供されてもよく、ニューラルネットワーク98は、組98の候補セクタ毎のスコア/確率値を直接与える。
図11は、カメラベースの評価分析を実現するための両選択肢、すなわち特徴抽出及びそれに続くマッピング、又はニューラルネットワークに直接フィードすることが、口領域を探し出し、抽出することから開始されてもよいことをすでに例示している。例えば、図4に関して、すなわち工程50、54、及び58を使用して上記で概説したように、口領域は、絵画的表現92の写真内で探し出され、かつ写真から抽出されてもよく、口領域は、ユーザの口を含み、ユーザの口を取り囲んでいる。次いで、口領域は、カメラの視界内のユーザの顔の所定の位置に対応するように、写真内のユーザの顔の位置に応じて歪められてもよい。次いで、歪められた口領域に基づいてユーザの現在処置されている頭部部分を判定することが、工程94及び96を伴う選択肢を使用して、又はニューラルネットワーク98を使用してのいずれかで、遂行されてもよい。
上記で提示した説明は、分析器26が、図11の第1の評価分析をカメラ16により取得された写真表現に適用することとは別に、慣性センサ20の加速度測定データを第2の評価分析に供するように構成されてもよいことを明らかにした。図12は、加速度測定データを操作する評価分析を再度例示する。図12の100に描かれている加速度測定データは、例えば、衛生デバイス固有の局所軸x、y、及びz沿いの/それらの周りの衛生デバイス12の加速度を測定する直線加速度パラメータ及び、任意追加的に回転加速度パラメータの組のシーケンスを表してもよい。例えば、サンプリング速度は、絵画的表現92の写真速度に等しくてもよく、又は異なってもよい。センサ融合102により、分析器26は、加速度値を、グローバル座標系又は衛生デバイス固有ではない座標系に関するロールΘ及びピッチΦを含む表現に変えてもよい。よって、ある特定のサンプリング速度におけるロールΘ及びピッチΦの値のシーケンスが得られてもよい。融合102は、各写真、及びロール/ピッチ情報の関連付けられた部分がタイムスタンプ毎のデータアイテムを形成するように、絵画的表現92の写真並びにピッチ及びロール対をそれぞれ時間整列させるか、又は少なくとも時間的に関連付けてもよい。
次いで、マッピング104は、ロール/ピッチデータ、すなわち加速度測定により取得されたデータを、慣性センサベースの評価分析のために使用される候補部分の組106の各候補部分の確率値にマッピングしてもよい。慣性センサベースの評価分析は、上記では、慣性センサベースの磨きセクタ分類又はINSと表示されている。
マッピング104は、単一対のロール及びピッチサンプル値に適用されて、次いで歯ブラシのそれぞれの瞬間位置を記述する各後続のロール/ピッチサンプル対のために繰り返されることができないことに留意されたい。この場合、つまり、第1の評価分析により取得される確率値の各組98について、確率値の組106は、組98が判定された写真又は写真シーケンスのタイムスタンプの近く又はそのタイムスタンプの時刻のロール及びピッチの1つの瞬間サンプルにより専ら判定される、第2の評価分析により判定されるであろう。あるいは、マッピング104は、ロール/ピッチ値の各時間的シーケンスについて遂行されてもよい。シーケンスは、例えば、絵画的表現の写真との同期により、すなわちシーケンスが各々、第1の評価分析が遂行されるそれぞれの写真又は写真シーケンスのタイムスタンプと時間的重なり合うように、時間的に判定される。
重要なことに、瞬間サンプル又はロール/ピッチ値のシーケンス、すなわちその単位でマッピング104が遂行され得るロール/ピッチの時間間隔は、絵画的表現の内容にかかわらず、すなわち絵画的表現の内容から独立して、例えば、ユーザがちょうど歯を磨き始めたところであるか否かにかかわらず、時間的に配置される。その上、それに沿って歯ブラシが口腔内で動かされる経路を局所的に「追跡」する必要はないため、連続するロール/ピッチサンプル又は時間間隔に対して適用される連続マッピング104は、相互に独立に遂行される。むしろ、ロール/ピッチ値の任意の他のシーケンスから独立した、組106のセクションに関連付けられたある特定の特徴的パターンを認識することにより、各瞬間ロール/ピッチサンプルが、確率値の組106に個別にマッピングされるか、又はロール/ピッチ値の各時間的シーケンスが、組106の確率値にマッピング104される。
マッピング104は、ニューラルネットワーク、又はクラスタリング技法などの何らかの他の統計的方法を使用してもよく、すなわちマッピング96のように遂行されてもよい。
図11に関する説明と同様に、あるいは、加速度測定データ100は、ニューラルネットワーク106に直接、すなわちいかなる融合102もなしに、供されてもよい。
図11及び12に例示するように、カメラベースの評価分析及び慣性センサベースの評価分析の候補部分98及び106の組は、互いに異なってもよい。つまり、それらの組は、ユーザの頭部、すなわちここでは例示的に歯列の、同じ興味対象部分の異なる区分化を表してもよい。しかしながら、あるいは、それらの組は、同じである。その中から現在処置されている頭部部分が分析器26により最終的に選択され得る候補部分の最終組の同一場所に位置する候補部分に関する確率値を乗算すること又は別の方法で好適に組み合わせることにより、分析器26は、両評価分析の結果を融合/組み合わせて、それにより、現在処置されている頭部部分を判定するための個々のソース内の弱点を相互に補うという上記で概説した効果を達成してもよい。
よって、図11及び12の第1の評価分析及び第2の評価分析、並びに各時間整列したデータアイテム、すなわち写真及び関連付けられたロール/ピッチ対又はロール/ピッチ対のシーケンスのデータ融合/組み合わせを遂行することにより、分析器26は、ロギングモジュール30が、候補頭部部分の最終組の各候補頭部部分、すなわちデータ融合後の適切な組について、どれくらいの時間それぞれの候補頭部部分が現在処置されている頭部部分であると判定されているかの時間的尺度をログできるように、現在処置されている頭部部分の判定を連続して更新する。その上、可視化装置は、それに応じて現在処置されている頭部部分の可視化及び/又は更なる処置を必要とする候補頭部部分の可視化を更新してもよく、又はどれくらいの時間それぞれの候補頭部部分がすでに処置されているかの可視化を更新するために。
分析器のニューラルネットワークなどの分析器26が、存在する場合、現場で教育されてもよいことに留意されたい。つまり、分析器26は、消費者の独特の顔の認識を最適化するように、ローカルで消費者のデバイス上で教育され得る。これは、例えば、顔追跡及び位置判定の頑健性を改善し得る。セットアッププロセスでは、ユーザは、それによりシステムが当初出荷前に研究室で訓練された教育プロセスと類似の教育プロセスを通じて案内され得る。ユーザは、自宅で自身の環境において学習サイクルを実行するであろう。システムは、ユーザの顔、ユーザの浴室、ユーザの歯ブラシ、及び更にはユーザの独特の磨き方の特徴を学習する。次いで、分析器は、ローカルで、又はサーバ上で変更され得る。変更は、単にそのユーザだけのためになされてもよく、又は学習データのいくらかar全てを使用して、データベース全体を改善してもよい。データベース全体は、ユーザにより使用されているあらゆる分析器26が最新の分析器のソフトウェアをそこからロードするサーバ上に置かれ得る。
よって、上記の説明は、混同行列内の定義されたクラスの確率分布を計算するようにビデオ/カメラ出力スコア値を処理することができること、及びこれらの分布をセンサ融合のために使用してもよいことを明らかにした。訓練データを使用して、カメラ及び加速度センサベースの分類を訓練してもよい。分類結果は、慣性センサ及びカメラを使用して取得され、センサ融合に供される。上記で概説した実施形態は、いかなる追加の歯ブラシの開始位置も必要としない。つまり、ユーザは、定義された歯から磨き始めるように促されることはなく、現在処置されている部分の自動判定のためにいかなる初期情報の入力も必要とされない。上述の磨きセクタ分類は、慣性センサベースの側に関する限り、いつでも適用可能であり、慣性航法場合のように衛生デバイスの位置を連続して追跡する必要がない。いかなる積分境界も必要ではない。そうではなくて、セクタ分類を使用すると、訓練された分類子により現在の測定値を評価することにより、慣性データ及びビデオデータのスナップショットデータを使用して各セクタの確率を計算することが可能である。
更に、歯磨きに関していかなる制限もなされない。ユーザは、好みのとおりに、及び慣れ親しんだとおりに、自身の歯を磨くことができる。同じことが、任意の他の衛生デバイスの場合にも当てはまる。これは、可能なスナップショットの分類により達成される。
更に、衛生デバイス内のセンサにより収集された慣性データのみを使用すると、すでに現在処置されている部分の簡潔な分類を、慣性センサ分類により計算することができる。次いで、この分類を、カメラベースの分類とのセンサ融合により改善することができる。同じように、カメラベースの分類のみを使用した簡潔な分類が可能であり、今度は、慣性センサ分類を使用してこの分類を改善する。
磁界センサ(コンパス)及び角速度センサなどの更なるセンサを含めることにより、上述の実施形態が改善され得ることに留意されたい。次いで、電動歯ブラシの配向(角度)の推定を改善することができ、コンパス方位角のような更なる特徴を、加速度データを使用してなされるのと同じ方法で、分類のために使用されるように追加することができる。追加の角速度を使用すると、カルマンフィルタに基づくものなどの姿勢フィルタを使用して、地球の慣性座標系に関して衛生デバイスの三次元姿勢を推定することができる。
いくつかの態様は装置の文脈で説明されているものの、これらの態様はまた、対応する方法の説明を表すことは明らかであり、ブロック又はデバイスは、方法工程又は方法工程の特徴に対応する。同様に、方法工程の文脈で説明した態様はまた、対応する装置の対応するブロック又はアイテム又は特徴の説明を表す。方法工程のうちのいくつか又は全ては、例えば、マイクロプロセッサ、プログラマブルコンピュータ、又は電子回路のようなハードウェア装置により(又はそれを使用して)実行されてもよい。いくつかの実施形態では、最も重要な方法工程のうちのいくつか1つ以上は、このような装置により実行されてもよい。
ある特定の実装要件に応じて、本発明の実施形態は、ハードウェアで、又はソフトウェア内に実装され得る。この実装は、電子的可読制御信号が記憶され、それぞれの方法が遂行されるようにプログラマブルコンピュータシステムと協働する(又は協働することができる)デジタル記憶媒体、例えばフロッピーディスク、DVD、Blu−Ray、CD、ROM、PROM、RAM、EPROM、EEPROM、又はFLASHメモリを使用して遂行され得る。したがって、デジタル記憶媒体は、コンピュータ可読であってもよい。
本発明によるいくつかの実施形態は、電子的可読制御信号を有するデータキャリアを備え、データキャリアは、本明細書に記載の方法のうちの1つが遂行されるように、プログラマブルコンピュータシステムと協働することができる。
一般に、本発明の実施形態は、プログラムコードを有するコンピュータプログラム製品として実装することができ、プログラムコードは、コンピュータプログラム製品がコンピュータで起動するときに、これらの方法のうちの1つを遂行するように動作可能である。プログラムコードは、例えば、機械可読キャリアに記憶されてもよい。
他の実施形態は、機械可読キャリアに記憶された、本明細書に記載の方法のうちの1つを遂行するためのコンピュータプログラムを備える。
言い換えれば、本発明の方法のある実施形態は、したがって、コンピュータプログラムがコンピュータで起動するときに、本明細書に記載の方法のうちの1つを遂行するためのプログラムコードを有するコンピュータプログラムである。
本発明の方法の更なる実施形態は、したがって、本明細書に記載の方法のうちの1つを遂行するためのコンピュータプログラムを備える、それが記録されたデータキャリア(又はデジタル記憶媒体、又はコンピュータ可読媒体)である。データキャリア、デジタル記憶媒体、又は記録媒体は、典型的に有形及び/又は非一時的である。
本発明の方法の更なる実施形態は、したがって、本明細書に記載の方法のうちの1つを遂行するためのコンピュータプログラムを表すデータストリーム又は信号のシーケンスである。データストリーム又は信号のシーケンスは、例えば、データ通信接続を介して、例えばインターネットを介して転送されるように構成されてもよい。
更なる実施形態は、本明細書に記載の方法のうちの1つを遂行するように構成又は適合された処理手段、例えばコンピュータ又はプログラマブル論理デバイスを備える。
更なる実施形態は、本明細書に記載の方法のうちの1つを遂行するためのコンピュータプログラムがインストールされたコンピュータを備える。
本発明による更なる実施形態は、本明細書に記載の方法のうちの1つを遂行するためのコンピュータプログラムを受信器に(例えば、電子的又は光学的に)転送するように構成された装置又はシステムを備える。受信器は、例えば、コンピュータ、モバイル機器、メモリデバイスなどであってもよい。装置又はシステムは、例えば、コンピュータプログラムを受信器に転送するためのファイルサーバを備えてもよい。
いくつかの実施形態では、プログラマブル論理デバイス(例えば、フィールドプログラマブルゲートアレイ)を使用して、本明細書に記載の方法の機能のうちのいくつか又は全てを遂行してもよい。いくつかの実施形態では、フィールドプログラマブルゲートアレイは、本明細書に記載の方法のうちの1つを遂行するために、マイクロプロセッサと協働してもよい。一般に、方法は、いかなるハードウェア装置により遂行されてもよい。
本明細書に記載の装置は、ハードウェア装置を使用して実装されても、コンピュータを使用して実装されても、又はハードウェア装置とコンピュータとの組み合わせを使用して実装されてもよい。
本明細書に記載の方法は、ハードウェア装置を使用して遂行されても、コンピュータを使用して遂行されても、又はハードウェア装置とコンピュータとの組み合わせを使用して遂行されてもよい。
本明細書に開示した寸法及び値は、記載された正確な数値に厳密に限定されるものと理解されるべきではない。むしろ、特に指示がない限り、そのような各寸法は、記載された値及びその値の周辺の機能的に同等の範囲の両方を意味するものとする。例えば、「40mm」として開示される寸法は、「約40mm」を意味するものとする。
上述の実施形態は、単に本発明の原理の例示である。本明細書に記載の配置及び詳細に対する変更及び変形は当業者に明らかであろうことが理解される。したがって、まもなくの特許請求の範囲によってのみ限定され、かつ本明細書に記載の実施形態の記載及び説明により提示された具体的な詳細によっては限定されないことが意図である。
参考文献
[1]J.Saragih,S.Lucey and J.Cohn,「Deformable Model Fitting by Regularized Landmark Mean−Shifts」,International Journal of Computer Vision(IJCV),2010
[2]DeMenthon,D.& Davis,L.Sandini,G.(Ed.)「Model−based object pose in 25 lines of code」,Computer Vision ECCV’92,Springer Berlin Heidelberg,1992,pp.335〜343
[3]Christian Kueblbeck and Andreas Ernst:「Face detection and tracking in video sequences using the modified census transformation」,Journal on Image and Vision Computing,vol.24,issue 6,pp.564〜572,2006,ISSN 0262−8856
[4]Christian Kueblbeck and Andreas Ernst:「Fast face detection and species classification of African great apes」,AVSS 2011,IEEE 8th International Conference on Advanced Video and Signal−based Surveillance,Klagenfurt,2011.
[5]米国特許第6,519,579号;Reliable identification with preselection and rejection class,P.Plankensteiner and U.Dieckmann
[6]米国特許第8320682(B2)号;Evaluation of edge direction information,Bernhard Froeba and Christian Kueblbeck
[7]欧州特許第1593001(B1)号;Adjustment of an image recorder with dynamic measuring fields,Christian Kueblbeck and Bernhard Froeba
[8]欧州特許第2406697(A1)号;Verfahren und System zum Erkennen eines Objektes,und Verfahren und System zum Erzeugen einer Markierung in einer Bildschirmdarstellung mittels eines beruhrungslos Gestik−gesteuerten Bildschirmzeigers,Thomas Wittenberg and Christian MUNZENMAYER and Christian KUBLBECK and Andreas Ernst
[9]独国特許第102009048117(A1)号;Verfahren und Vorrichtung zum Erkennen einer Fehldetektion eines Objekts in einem Bild,Andreas Ernst and Christian KUBLBECK and Tobias Ruf
[10]独国特許第102009048118(A1)号;Verfahren und Vorrichtung zum Verwalten von Objektansichtsdaten in einer Objektdatenbank,Andreas Ernst and Christian KUBLBECK and Tobias Ruf
[11]欧州特許出願公開第13178529.7号;出願係属中 2013/07/30,apparatus and method for resource−adaptive object detection and tracking,Anton Papst and Andreas Ernst and Tobias Ruf and Jens Garbas
[12]Bocksch,Marcus;Seitz,Jochen;Jahn,Jasper:Pedestrian Activity Classification to Improve Human Tracking and Localization.In:Proceedings of the 4th International Conference on Indoor Positioning and Indoor Navigation(IPIN),Montbeliard,France,2013,S.667〜671
[13]米国特許第8,744,192(B2)号

Claims (15)

  1. 個人衛生デバイス(12)を使用してユーザにより処置される前記ユーザの身体部分を判定するための装置であって、
    前記個人衛生デバイス(12)を使用して前記身体部分を処置している間に、前記ユーザをキャプチャして、前記ユーザの絵画的表現を取得するように構成されたカメラ(16)と、
    前記個人衛生デバイス(12)内に存在する少なくとも1つの慣性センサ(20)からセンサデータを受信するように構成されたインターフェース(18)と、
    前記絵画的表現及び前記センサデータを分析して、前記身体部分を判定するように構成された分析器(26)と、を備える、装置。
  2. 前記分析器(26)が、所定の候補身体部分の組から前記身体部分を選択することにより前記判定を遂行するように構成されている、請求項1に記載の装置。
  3. 前記候補身体部分の組が、
    前記ユーザの左側に位置する第1の候補頭部部分と、
    前記ユーザの左側に位置するが、前記ユーザの縦軸に沿って前記第1の候補頭部部分に対して変位された第2の候補頭部部分と、
    前記ユーザの右側に位置する第3の候補頭部部分と、
    前記ユーザの右側に位置するが、前記ユーザの縦軸に沿って前記第3の候補頭部部分に対して変位された第4の候補頭部部分と、を少なくとも含む、請求項2に記載の装置。
  4. 前記個人衛生デバイス(12)が、歯ブラシであり、前記候補身体部分の組が、
    前記ユーザの歯列の上顎左側部分と、
    前記ユーザの歯列の下顎左側部分と、
    前記ユーザの歯列の上顎右側部分と、
    前記ユーザの歯列の下顎右側部分と、を少なくとも含む、請求項2に記載の装置。
  5. 前記絵画的表現が、1つ以上の写真を含み、前記分析器が、前記センサデータの時間整列した部分を前記1つ以上の写真の各々に関連付けて、時間整列した絵画的/加速度混合データを取得し、かつ前記時間整列した絵画的/加速度混合データに基づいて前記身体部分を判定するように構成されている、請求項1〜4のいずれか一項に記載の装置。
  6. 前記分析器(26)が、
    前記絵画的表現を第1の評価分析に供して、第1の候補身体部分の組の各々についての、前記身体部分が前記第1の候補身体部分の組のそれぞれの候補身体部分である確率を示す、第1の確率値を取得し、
    前記センサデータを第2の評価分析に供して、第2の候補身体部分の組の各々の候補身体部分についての、前記身体部分が前記第2の候補身体部分の組のそれぞれの候補身体部分である確率を示す、第2の確率値を取得し、かつ
    前記第1の確率値及び前記第2の確率値に基づいて第3の候補身体部分の組から前記身体部分を選択するように構成されており、
    前記第1の候補身体部分の組、前記第2の候補身体部分の組、及び前記第3の候補身体部分の組が、人間頭部の一部分の同一の区分化又は異なる区分化を表す、請求項1〜5のいずれか一項に記載の装置。
  7. 前記身体部分が、頭部部分であり、前記分析器(26)が、
    前記ユーザの口を含み、前記ユーザの口を取り囲む口領域を、前記絵画的表現の写真から探し出し、前記写真から抽出し、前記ユーザの顔の所定の位置に対応するように前記写真内の前記ユーザの顔の位置に応じて前記口領域を歪め(58)、かつ
    前記歪められた口領域に基づいて前記身体部分を判定する(94、96、98)ように構成されている、請求項1〜6のいずれか一項に記載の装置。
  8. 前記分析器(26)が、前記センサデータに基づいて前記個人衛生デバイスのロール及びピッチを計算し、かつ前記ロール及び前記ピッチに基づいて前記身体部分を判定するように構成されている、請求項1〜7のいずれか一項に記載の装置。
  9. 前記絵画的表現が、所定のタイムスタンプと各々関連付けられた写真のシーケンスを含み、前記分析器が、前記センサデータの時間整列した部分を前記写真のシーケンスの各々に関連付けて、タイムスタンプ毎に時間整列した絵画的/加速度混合データアイテムを有する時間整列した絵画的/加速度混合データアイテムのシーケンスを取得し、かつ各時間整列した絵画的/加速度混合データアイテムについての前記身体部分の判定を更新するように構成されている、請求項1〜8のいずれか一項に記載の装置。
  10. 前記分析器(26)が、前記カメラの視界内の前記ユーザの位置を連続して調べ、かつ前記カメラの前記視界又は前記カメラの対象となる所定の領域を離れるリスクを冒した場合に前記ユーザに警告するように構成されている、請求項1〜9のいずれか一項に記載の装置。
  11. 現在処置されている前記身体部分を前記ユーザに対して可視化するように構成された可視化装置(28)を更に備える、請求項1〜10のいずれか一項に記載の装置。
  12. 候補身体部分の組の各候補身体部分について、どれくらいの時間それぞれの候補身体部分が前記分析器により前記身体部分であると判定されているかの時間的尺度をログするように構成されたログモジュール(30)と、
    各候補身体部分について、前記時間的尺度、又は前記時間的尺度に基づいて判定されたそれぞれの候補身体部分に対する残りの処置要求の尺度を、前記ユーザに対して可視化するように構成された可視化装置(28)と、を更に備える、請求項1〜11のいずれか一項に記載の装置。
  13. 請求項1〜12のいずれか一項に記載の装置(10)と、
    前記個人衛生デバイス(12)と、を備える、システム。
  14. 個人衛生デバイスを使用してユーザにより処置される前記ユーザの身体部分を判定するための方法であって、
    前記個人衛生デバイスを使用して前記身体部分を処置している間に、前記ユーザをキャプチャして、前記ユーザの絵画的表現を取得する工程と、
    前記個人衛生デバイス内に存在する少なくとも1つの慣性センサからセンサデータを受信する工程と、
    前記絵画的表現及び前記センサデータを分析して、前記身体部分を判定する工程と、を含む、方法。
  15. コンピュータで起動するときに、請求項14に記載の前記方法を遂行するためのコンピュータプログラム。
JP2018512418A 2015-09-08 2016-09-01 ユーザの現在処置されている身体部分の判定 Active JP6549316B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP15184240.8 2015-09-08
EP15184240.8A EP3141151B1 (en) 2015-09-08 2015-09-08 Determination of a currently treated body portion of a user
PCT/IB2016/055244 WO2017042673A1 (en) 2015-09-08 2016-09-01 Determination of a currently treated body portion of a user

Publications (2)

Publication Number Publication Date
JP2019500632A true JP2019500632A (ja) 2019-01-10
JP6549316B2 JP6549316B2 (ja) 2019-07-24

Family

ID=54072710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018512418A Active JP6549316B2 (ja) 2015-09-08 2016-09-01 ユーザの現在処置されている身体部分の判定

Country Status (7)

Country Link
US (1) US10702191B2 (ja)
EP (1) EP3141151B1 (ja)
JP (1) JP6549316B2 (ja)
CN (1) CN107949298A (ja)
CA (1) CA2996918C (ja)
ES (1) ES2964759T3 (ja)
WO (1) WO2017042673A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021514221A (ja) * 2018-02-19 2021-06-10 ブラウン ゲーエムベーハー 可動式処置デバイスの運動を分類するための装置及び方法
JP2022008995A (ja) * 2020-05-29 2022-01-14 株式会社ポケモン ゲームプログラム、方法、情報処理装置、システム
JP7043157B1 (ja) 2021-10-11 2022-03-29 株式会社ポケモン ゲームプログラム、方法、情報処理装置、システム
JP2022524858A (ja) * 2019-03-14 2022-05-10 コーニンクレッカ フィリップス エヌ ヴェ 身体部位におけるデバイスの場所の決定
JP2022118706A (ja) * 2021-02-02 2022-08-15 ザイメド カンパニー リミテッド 実時間生体イメージ認識方法及び装置
WO2023153248A1 (ja) * 2022-02-10 2023-08-17 パナソニックIpマネジメント株式会社 速度算出装置、速度算出方法、及び速度算出プログラム

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10172552B2 (en) * 2013-06-19 2019-01-08 Benjamin Ohmer Method for determining and analyzing movement patterns during dental treatment
US10702206B2 (en) 2015-06-29 2020-07-07 Braun Gmbh Toothbrush for oral cavity position detection
EP3141151B1 (en) 2015-09-08 2023-10-18 Braun GmbH Determination of a currently treated body portion of a user
US20170206804A1 (en) * 2015-09-17 2017-07-20 Funbrush Ltd. Interactive add-on device for kids for a toothbrush and a platform for mobile devices containing games controlled by that device
EP3389444A1 (en) * 2015-12-15 2018-10-24 Koninklijke Philips N.V. System and method for tracking an oral care device
EP3207823A1 (en) 2016-02-16 2017-08-23 Braun GmbH Interactive system setup concept
BR112019003640B1 (pt) 2016-08-22 2023-05-02 Kolibree SAS Sistema de higiene bucal para monitoramento de conformidade e sistema de teleodontologia
EP3375370A1 (en) * 2017-03-13 2018-09-19 Koninklijke Philips N.V. An apparatus and a method of estimating the position of a handheld personal care device relative to a user
GB201713034D0 (en) * 2017-08-14 2017-09-27 Playbrush Ltd Toothbrush coaching system
CN107468362B (zh) * 2017-08-16 2019-10-01 深圳市乐易电器科技有限公司 一种自动控制式电动牙刷
ES2795030T3 (es) 2017-09-22 2020-11-20 Braun Gmbh Dispositivo de higiene personal
KR20200072493A (ko) * 2017-10-13 2020-06-22 코닌클리케 필립스 엔.브이. 개인 케어 디바이스의 사용자를 특성화하기 위한 방법들 및 시스템들
WO2019098466A1 (ko) * 2017-11-17 2019-05-23 엘지전자 주식회사 스마트 칫솔과 연동되는 양치 가이드 모듈 및 스마트 칫솔과 양치 가이드 모듈로 구성되는 스마트 칫솔 시스템
EP3713446B1 (en) 2017-11-26 2023-07-26 Dentlytec G.P.L. Ltd. Handheld dental tracking device
BR112020012480B1 (pt) 2017-12-28 2023-11-21 Colgate-Palmolive Company Método para estimativa de uma pose de um dispositivo de higiene oral e sistema de rastreamento de movimento
BR112020012475B1 (pt) 2017-12-28 2023-10-17 Colgate-Palmolive Company Método para promover cumprimento de uma rotina de higiene oral e sistema de higiene oral
US11117276B2 (en) 2018-01-19 2021-09-14 The Gillette Company Llc Method for generating user feedback information from a shave event
US11247354B2 (en) 2018-01-19 2022-02-15 The Gillette Company Llc Personal appliance
US20190224870A1 (en) 2018-01-19 2019-07-25 The Gillette Company Llc Shaving appliance including a notification cirucit for communicating shave stroke direction information
US10647011B2 (en) 2018-01-19 2020-05-12 The Gillette Company Llc Networked shaving appliance system
US10960560B2 (en) 2018-01-19 2021-03-30 The Gillette Company Llc Method for generating user feedback information from a shave event
US10589437B2 (en) 2018-01-19 2020-03-17 The Gillette Company Llc Personal appliance
WO2019166587A1 (en) * 2018-03-01 2019-09-06 Koninklijke Philips N.V. Localization sensing method for an oral care device
WO2019215318A1 (en) * 2018-05-10 2019-11-14 Koninklijke Philips N.V. Methods and systems for adjusting behavior of personal care device based on status of oral cavity
DE102019117923A1 (de) 2018-07-19 2020-01-23 Benjamin Ohmer Verfahren und Vorrichtung zur Bestimmung von Bewegungen bei einer Zahnbehandlung
EP3899973A1 (en) * 2018-12-21 2021-10-27 The Procter & Gamble Company Apparatus and method for operating a personal grooming appliance or household cleaning appliance
US20220192807A1 (en) * 2019-04-16 2022-06-23 Koninklijke Philips N.V. Oral care system for interdental space detection
CN110495962A (zh) * 2019-08-26 2019-11-26 赫比(上海)家用电器产品有限公司 监测牙刷位置的方法及其牙刷和设备
WO2021262528A1 (en) * 2020-06-22 2021-12-30 Colgate-Palmolive Company Oral care system and method for promoting oral hygiene
WO2024007117A1 (en) 2022-07-04 2024-01-11 Braun Gmbh Oral scanner system
WO2024007106A1 (en) 2022-07-04 2024-01-11 Braun Gmbh Oral scanner system
WO2024007100A1 (en) 2022-07-04 2024-01-11 Braun Gmbh Oral scanner system
WO2024007113A1 (en) 2022-07-04 2024-01-11 Braun Gmbh Oral scanner system
WO2024007091A1 (en) 2022-07-04 2024-01-11 Braun Gmbh Oral scanner system
WO2024007098A1 (en) 2022-07-04 2024-01-11 Braun Gmbh Oral scanner system
WO2024007887A1 (en) 2022-07-04 2024-01-11 Braun Gmbh Oral scanner system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009039466A (ja) * 2007-08-13 2009-02-26 Advanced Telecommunication Research Institute International 行動識別装置、行動識別システムおよび行動識別方法
JP2009240759A (ja) * 2008-03-14 2009-10-22 Omron Healthcare Co Ltd 電動歯ブラシ
JP2011146049A (ja) * 2011-02-04 2011-07-28 Denso Corp 人物検出装置、人物検出プログラム、作動制御装置、および衝突緩和装置
JP2012509508A (ja) * 2008-11-20 2012-04-19 ザ ジレット カンパニー 個人衛生機器、システム、及び方法
JP2012524643A (ja) * 2009-05-08 2012-10-18 ザ ジレット カンパニー パーソナルケアシステム、製品、及び方法
US20140065588A1 (en) * 2012-08-31 2014-03-06 Ideas That Work, Llc Toothbrush Training System

Family Cites Families (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US942708A (en) 1908-01-29 1909-12-07 Lucien P Blot Drop-hammer.
US3783364A (en) 1967-06-21 1974-01-01 Sunbeam Corp Electric appliance
US4716614A (en) 1985-11-07 1988-01-05 Jones Arthur R Device for monitoring the process of toothbrushing
US5561881A (en) 1994-03-22 1996-10-08 U.S. Philips Corporation Electric toothbrush
DE4439835C1 (de) 1994-11-08 1996-02-08 Braun Ag Zahnbürste und Verfahren zur Anzeige der Putzzeitdauer
DE19506129A1 (de) 1995-02-22 1996-08-29 Gimelli & Co Ag Zahnbürste
US5701629A (en) 1995-07-19 1997-12-30 Speciality Filaments, Inc. Hollow brush bristle with radiating spokes
JPH09168428A (ja) 1995-12-18 1997-06-30 Royal Kogyo Kk 幼児用歯磨き促進具
US5796325A (en) 1996-08-30 1998-08-18 Optiva Corporation Charging coil core insert for electric toothbrushes
US5864288A (en) 1996-10-11 1999-01-26 Hogan; Rory G. Talking toothbrush holder
DE59814066D1 (de) 1997-03-10 2007-09-06 Fraunhofer Ges Forschung Sichere identifikation mit vorauswahl und rückweisungsklasse
US6102284A (en) 1997-04-23 2000-08-15 Lxe Inc. Cradle for holding a device
US5944531A (en) 1998-04-21 1999-08-31 Foley; Rita S. Oral hygiene instructional display
JP3773655B2 (ja) 1998-06-09 2006-05-10 株式会社バンダイ 歯磨装置及び歯磨動作の評価装置
US6611780B2 (en) 1999-06-09 2003-08-26 Koninklijke Philips Electronics N.V. System for communicating operational data between an electric toothbrush and a separate control unit
US6754928B1 (en) 2000-02-08 2004-06-29 Howard Rosen Brushing behavior reinforcement toothbrush and enclosed electronic game switch with grid
US6536068B1 (en) * 1999-12-29 2003-03-25 Gillette Canada Company Toothbrushing technique monitoring
DE10026859C1 (de) 2000-05-31 2001-08-30 Braun Gmbh Elektromotorisch angetriebene Zahnbürste mit Signalgeber
US6808298B2 (en) 2000-08-21 2004-10-26 Todd Regan Christensen Lighting system
DE10043460C2 (de) 2000-09-04 2003-01-30 Fraunhofer Ges Forschung Auffinden von Körperpartien durch Auswerten von Kantenrichtungsinformation
FR2832298B1 (fr) 2000-09-20 2004-02-20 Audians Dispositif de brossage de dents
DE10159395B4 (de) 2001-12-04 2010-11-11 Braun Gmbh Vorrichtung zur Zahnreinigung
WO2002071970A1 (de) 2001-03-14 2002-09-19 Braun Gmbh Verfahren und vorrichtung zur zahnreinigung
US20030115694A1 (en) 2001-12-20 2003-06-26 Koninklijke Philips Electronics N.V. Toothbrush having a brushhead portion which contains a memory device for communicating with a microcontroller in a handle portion of the toothbrush or other device
US6902397B2 (en) 2002-08-01 2005-06-07 Sunstar Americas, Inc. Enhanced dental hygiene system with direct UVA photoexcitation
US6752627B2 (en) 2002-09-13 2004-06-22 Chang Gung University Light emitting tooth brush having whitening and sterilizing effects
US20060216013A1 (en) 2003-02-12 2006-09-28 Christian Kueblbeck Adjustment of an image recorder with dynamic measuring fields
US20060040246A1 (en) 2004-08-18 2006-02-23 Min Ding Interactive Toothbrush Game
WO2006137648A1 (en) 2005-06-20 2006-12-28 Jin-Sang Hwang Tooth brushing pattern analyzing/modifying device, method and system for interactively modifying tooth brushing behavior
WO2007032015A2 (en) 2005-09-18 2007-03-22 Emad Gith Toothbrush
US7748069B2 (en) 2005-12-15 2010-07-06 Cynthia A Dawley Multimedia toothbrush (toothpix)
US8533892B2 (en) 2005-12-21 2013-09-17 Koninklijke Philips N.V. System for selecting modes of operation in a power toothbrush
US7411511B2 (en) 2006-02-07 2008-08-12 The Procter & Gamble Company Interactive packaging for development of personal hygiene habits
US7976388B2 (en) 2006-03-24 2011-07-12 Umagination Labs, L.P. Oral care gaming system with electronic game
WO2007122491A2 (en) 2006-04-20 2007-11-01 Koninklijke Philips Electronics N.V. System for operating modes for an electric toothbrush
US20080109973A1 (en) 2006-11-15 2008-05-15 Farrell Mark E Personal care products and methods
US8201295B2 (en) 2007-02-16 2012-06-19 Colgate-Palmolive Company Oral care implement having user-interactive display and moving head
US7890193B2 (en) 2007-08-15 2011-02-15 Tingey Terrell F Oral device
KR100947046B1 (ko) 2007-11-19 2010-03-10 황진상 운동체 자세 추적 장치, 운동체 자세 추적 방법, 이를이용한 칫솔 자세 추적 장치 및 칫솔 자세 추적 방법
US8690579B2 (en) 2008-02-27 2014-04-08 Koninklijke Philips N.V. Dental position tracking system for a toothbrush
JP5359210B2 (ja) * 2008-03-14 2013-12-04 オムロンヘルスケア株式会社 電動歯ブラシ
CA2715247A1 (en) * 2008-05-07 2009-11-12 Colgate-Palmolive Company Interactive toothbrush and removeable audio output module
FI20085488A0 (fi) 2008-05-23 2008-05-23 Pump & Brush Finland Oy Älykäs hammasharjamonitorointilaite
JP5251265B2 (ja) * 2008-06-02 2013-07-31 オムロンヘルスケア株式会社 電動歯ブラシ
DE102008027317B4 (de) 2008-06-07 2011-11-10 Gilbert Duong Zahnputznavigationssystem zur Kontrolle des Zähneputzens
US9072370B2 (en) 2008-06-19 2015-07-07 Colgate-Palmolive Company User health profiles derived from oral care implements
US20100186234A1 (en) 2009-01-28 2010-07-29 Yehuda Binder Electric shaver with imaging capability
JP5365277B2 (ja) 2009-03-17 2013-12-11 オムロンヘルスケア株式会社 電動歯ブラシ
DE102009017772A1 (de) 2009-04-16 2010-11-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und System zum Erkennen eines Objektes, und Verfahren und System zum Erzeugen einer Markierung in einer Bildschirmdarstellung mittels eines berührungslos gestikgesteuerten Bildschirmzeigers
CA2766373C (en) 2009-06-26 2014-12-16 The Gillette Company Pressure indicator for a tooth brush
DE102009048118B4 (de) 2009-10-02 2020-06-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zum Verwalten von Objektansichtsdaten in einer Objektdatenbank
DE102009048117A1 (de) 2009-10-02 2011-04-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zum Erkennen einer Fehldetektion eines Objektss in einem Bild
BR112012014418B1 (pt) 2009-12-17 2020-01-21 Unilever Nv sistema de monitoração de escovação dentária
JP5482209B2 (ja) 2010-01-08 2014-05-07 オムロンヘルスケア株式会社 電動歯ブラシ
US8743051B1 (en) 2011-09-20 2014-06-03 Amazon Technologies, Inc. Mirror detection-based device functionality
JP6095053B2 (ja) * 2012-12-27 2017-03-15 日立マクセル株式会社 美容システム
US10172552B2 (en) 2013-06-19 2019-01-08 Benjamin Ohmer Method for determining and analyzing movement patterns during dental treatment
EP2833325A1 (en) 2013-07-30 2015-02-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for resource-adaptive object detection and tracking
US10172443B2 (en) 2013-08-11 2019-01-08 Yong-Jing Wang Oral care tools and systems
US10064711B1 (en) 2013-09-23 2018-09-04 Click Care LLC Smart toothbrush and floss method and system
JP2017532076A (ja) 2014-08-04 2017-11-02 サラボー, デーヴィッドSARUBBO, Davide 適切な口腔衛生処置の検査システム
SG11201704598YA (en) * 2014-12-22 2017-07-28 Sunstar Inc Toothbrush module, attachment for toothbrush, brushing assistance system, brushing evaluation system, brushing assistance device, and brushing assistance program
US10702206B2 (en) 2015-06-29 2020-07-07 Braun Gmbh Toothbrush for oral cavity position detection
JP6741688B2 (ja) 2015-06-29 2020-08-19 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ユーザにフィードバックを供給するためにホール効果センサを用いてユーザの動作特性を抽出するための方法及びシステム
EP3141151B1 (en) 2015-09-08 2023-10-18 Braun GmbH Determination of a currently treated body portion of a user
EP3207823A1 (en) 2016-02-16 2017-08-23 Braun GmbH Interactive system setup concept

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009039466A (ja) * 2007-08-13 2009-02-26 Advanced Telecommunication Research Institute International 行動識別装置、行動識別システムおよび行動識別方法
JP2009240759A (ja) * 2008-03-14 2009-10-22 Omron Healthcare Co Ltd 電動歯ブラシ
JP2012509508A (ja) * 2008-11-20 2012-04-19 ザ ジレット カンパニー 個人衛生機器、システム、及び方法
JP2012524643A (ja) * 2009-05-08 2012-10-18 ザ ジレット カンパニー パーソナルケアシステム、製品、及び方法
JP2014205063A (ja) * 2009-05-08 2014-10-30 ザ ジレット カンパニー パーソナルケアシステム、製品、及び方法
JP2011146049A (ja) * 2011-02-04 2011-07-28 Denso Corp 人物検出装置、人物検出プログラム、作動制御装置、および衝突緩和装置
US20140065588A1 (en) * 2012-08-31 2014-03-06 Ideas That Work, Llc Toothbrush Training System

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021514221A (ja) * 2018-02-19 2021-06-10 ブラウン ゲーエムベーハー 可動式処置デバイスの運動を分類するための装置及び方法
JP7190496B2 (ja) 2018-02-19 2022-12-15 ブラウン ゲーエムベーハー 可動式処置デバイスの運動を分類するための装置及び方法
JP2022524858A (ja) * 2019-03-14 2022-05-10 コーニンクレッカ フィリップス エヌ ヴェ 身体部位におけるデバイスの場所の決定
JP7285947B2 (ja) 2019-03-14 2023-06-02 コーニンクレッカ フィリップス エヌ ヴェ 身体部位におけるデバイスの場所の決定
JP2022008995A (ja) * 2020-05-29 2022-01-14 株式会社ポケモン ゲームプログラム、方法、情報処理装置、システム
JP7025823B2 (ja) 2020-05-29 2022-02-25 株式会社ポケモン ゲームプログラム、方法、情報処理装置、システム
JP2022118706A (ja) * 2021-02-02 2022-08-15 ザイメド カンパニー リミテッド 実時間生体イメージ認識方法及び装置
JP7297334B2 (ja) 2021-02-02 2023-06-26 ザイメド カンパニー リミテッド 実時間生体イメージ認識方法及び装置
JP7043157B1 (ja) 2021-10-11 2022-03-29 株式会社ポケモン ゲームプログラム、方法、情報処理装置、システム
JP2022060245A (ja) * 2021-10-11 2022-04-14 株式会社ポケモン ゲームプログラム、方法、情報処理装置、システム
WO2023153248A1 (ja) * 2022-02-10 2023-08-17 パナソニックIpマネジメント株式会社 速度算出装置、速度算出方法、及び速度算出プログラム

Also Published As

Publication number Publication date
JP6549316B2 (ja) 2019-07-24
EP3141151A1 (en) 2017-03-15
CA2996918A1 (en) 2017-03-16
EP3141151B1 (en) 2023-10-18
CN107949298A (zh) 2018-04-20
ES2964759T3 (es) 2024-04-09
US10702191B2 (en) 2020-07-07
CA2996918C (en) 2020-01-21
WO2017042673A1 (en) 2017-03-16
US20170069083A1 (en) 2017-03-09

Similar Documents

Publication Publication Date Title
JP6549316B2 (ja) ユーザの現在処置されている身体部分の判定
Hesse et al. Computer vision for medical infant motion analysis: State of the art and rgb-d data set
CN110321754B (zh) 一种基于计算机视觉的人体运动姿态纠正方法及系统
CN110546644B (zh) 识别装置、识别方法以及记录介质
Pons-Moll et al. Outdoor human motion capture using inverse kinematics and von mises-fisher sampling
CN105740779B (zh) 人脸活体检测的方法和装置
US20160061582A1 (en) Scale estimating method using smart device and gravity data
TW201201115A (en) Facial expression recognition systems and methods and computer program products thereof
CN108898108B (zh) 一种基于扫地机器人的用户异常行为监测系统及方法
US20220176575A1 (en) Determining a device location a body part
BR112021003953A2 (pt) dispositivos, método e programa para determinar um estado cognitivo de um usuário de um dispositivo móvel
US9990857B2 (en) Method and system for visual pedometry
RU2004123248A (ru) Система и способ отслеживания объекта
CN110991292A (zh) 动作识别比对方法、系统、计算机存储介质和电子装置
JP2015230616A (ja) 画像処理方法および画像処理装置
US11779260B2 (en) Cognitive function evaluation method, cognitive function evaluation device, and non-transitory computer-readable recording medium in which cognitive function evaluation program is recorded
CN111275754B (zh) 一种基于深度学习的脸部痘印比例计算方法
JP2021047538A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2007048232A (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
US20220265168A1 (en) Real-time limb motion tracking
CN112883913A (zh) 一种儿童刷牙训练教导系统和方法及电动牙刷
Batista Locating facial features using an anthropometric face model for determining the gaze of faces in image sequences
Manner et al. Determining child orientation from overhead video: a multiple kernel learning approach
Akbari et al. Tagging wearable accelerometers in camera frames through information translation between vision sensors and accelerometers
Bauer et al. User independent, multi-modal spotting of subtle arm actions with minimal training data

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190626

R150 Certificate of patent or registration of utility model

Ref document number: 6549316

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250