JP7343527B2 - スマートシェービング付属品 - Google Patents

スマートシェービング付属品 Download PDF

Info

Publication number
JP7343527B2
JP7343527B2 JP2020563780A JP2020563780A JP7343527B2 JP 7343527 B2 JP7343527 B2 JP 7343527B2 JP 2020563780 A JP2020563780 A JP 2020563780A JP 2020563780 A JP2020563780 A JP 2020563780A JP 7343527 B2 JP7343527 B2 JP 7343527B2
Authority
JP
Japan
Prior art keywords
user
razor
shaving
accessory
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020563780A
Other languages
English (en)
Other versions
JP2021525115A (ja
Inventor
ザフィロプロス,ピート
Original Assignee
ビック・バイオレクス・エス・エー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ビック・バイオレクス・エス・エー filed Critical ビック・バイオレクス・エス・エー
Publication of JP2021525115A publication Critical patent/JP2021525115A/ja
Application granted granted Critical
Publication of JP7343527B2 publication Critical patent/JP7343527B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B26HAND CUTTING TOOLS; CUTTING; SEVERING
    • B26BHAND-HELD CUTTING TOOLS NOT OTHERWISE PROVIDED FOR
    • B26B19/00Clippers or shavers operating with a plurality of cutting edges, e.g. hair clippers, dry shavers
    • B26B19/38Details of, or accessories for, hair clippers, or dry shavers, e.g. housings, casings, grips, guards
    • B26B19/3806Accessories
    • B26B19/3813Attachments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B26HAND CUTTING TOOLS; CUTTING; SEVERING
    • B26BHAND-HELD CUTTING TOOLS NOT OTHERWISE PROVIDED FOR
    • B26B21/00Razors of the open or knife type; Safety razors or other shaving implements of the planing type; Hair-trimming devices involving a razor-blade; Equipment therefor
    • B26B21/40Details or accessories
    • B26B21/4081Shaving methods; Usage or wear indication; Testing methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B26HAND CUTTING TOOLS; CUTTING; SEVERING
    • B26BHAND-HELD CUTTING TOOLS NOT OTHERWISE PROVIDED FOR
    • B26B19/00Clippers or shavers operating with a plurality of cutting edges, e.g. hair clippers, dry shavers
    • B26B19/38Details of, or accessories for, hair clippers, or dry shavers, e.g. housings, casings, grips, guards
    • B26B19/3873Electric features; Charging; Computing devices
    • B26B19/388Sensors; Control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B26HAND CUTTING TOOLS; CUTTING; SEVERING
    • B26BHAND-HELD CUTTING TOOLS NOT OTHERWISE PROVIDED FOR
    • B26B19/00Clippers or shavers operating with a plurality of cutting edges, e.g. hair clippers, dry shavers
    • B26B19/38Details of, or accessories for, hair clippers, or dry shavers, e.g. housings, casings, grips, guards
    • B26B19/46Details of, or accessories for, hair clippers, or dry shavers, e.g. housings, casings, grips, guards providing for illuminating the area to be shaved or clipped
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B26HAND CUTTING TOOLS; CUTTING; SEVERING
    • B26BHAND-HELD CUTTING TOOLS NOT OTHERWISE PROVIDED FOR
    • B26B21/00Razors of the open or knife type; Safety razors or other shaving implements of the planing type; Hair-trimming devices involving a razor-blade; Equipment therefor
    • B26B21/40Details or accessories
    • B26B21/405Electric features; Charging; Computing devices
    • B26B21/4056Sensors or controlling means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B26HAND CUTTING TOOLS; CUTTING; SEVERING
    • B26BHAND-HELD CUTTING TOOLS NOT OTHERWISE PROVIDED FOR
    • B26B21/00Razors of the open or knife type; Safety razors or other shaving implements of the planing type; Hair-trimming devices involving a razor-blade; Equipment therefor
    • B26B21/40Details or accessories
    • B26B21/46Details or accessories for illuminating the skin
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt

Landscapes

  • Engineering & Computer Science (AREA)
  • Forests & Forestry (AREA)
  • Mechanical Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Dermatology (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Cosmetics (AREA)
  • Dry Shavers And Clippers (AREA)
  • User Interface Of Digital Computer (AREA)

Description

関連出願の相互参照
本出願は、2018年6月8日に提出された「SMART SHAVING ACCESSORY」と題された、米国仮特許出願第62/682,292号の米国特許法第119条(e)に基づく利益を主張し、これは参照により本明細書に組み込まれる。
本開示は、スマートシェービングシステムに関する。
最適なシェービング結果を得るには、シェービングかみそりの選択をユーザの固有の身体的特徴(肌の輪郭、肌のタイプ、ほくろ、傷跡、埋没毛、成長、毛のタイプ、毛の太さなど)に合わせて調整することが役立つ。さらに、ユーザが上記したもののようなユーザ固有の身体的特徴を(例えば、目視検査またはカメラを使用して)判定すること、ならびに特定の肌表面領域が適切に剃られたかどうかを判定することは、しばしば困難である。したがって、とりわけ、(i)ユーザの固有の身体的特徴を決定するのを支援できて、その決定がシェービングかみそりの選択をユーザの固有の身体的特徴に合わせて調整することを支援し、(ii)特定の肌表面領域が適切に剃られているかどうかを判定することを支援でき、(iii)ユーザのシェービング習慣を理解して最適化することを支援できる、システムが求められている。
本開示は、シェービングかみそりのユーザを支援するために、カメラまたは撮像デバイスを備えたスマートシェービングシステムかみそり付属品を提供する。一実施形態では、かみそり付属品は、光源を備えることができる。
本開示はまた、シェービングかみそりのユーザを支援するためのカメラを備えたスマートシェービングシステムかみそり付属品を提供し、かみそり付属品は、シェーバに取り付けられるように構成された取り付け可能なシェービング付属品である。
本開示は、シェービングかみそりのユーザを支援するためのスマートシェービングシステム用に構成されたウェアラブルコンピュータのためのアプリケーションを提供する。
本開示はまた、シェービングかみそりのユーザを支援するためのカメラを備えたスマートシェービングシステムかみそり付属品を提供し、カメラは、かみそりのユーザが特定の肌表面領域が適切に剃られたかどうかを決定するのを支援する。
本開示は、シェービングかみそりのユーザを支援するためのスマートシェービングシステム用に構成されたウェアラブルコンピュータのアプリケーションを提供し、かみそりのユーザが特定の肌表面領域が適切に剃られたかどうかを判定するのを支援する。
本開示は、スマートシェービングシステム用に構成されたウェアラブルコンピュータのためのアプリケーションを提供し、ウェアラブルコンピュータは、スタンドアロンのモノのインターネット(IoT)デバイスとして構成されたハードウェア/ソフトウェアを有する含む。
本開示は、カメラを備えたスマートシェービングシステムのかみそり付属品を提供し、そのアタッチメントは、モノのインターネット(IoT)ゲートウェイを介してベンダープラットフォームに通信可能に接続されている。
本開示は、スマートシェービングシステム用に構成されたウェアラブルコンピュータのアプリケーションを提供し、そのアタッチメントは、モノのインターネット(IoT)ゲートウェイを介してベンダープラットフォームに通信可能に接続されている。
本開示はまた、カメラを備えたスマートシェービングシステムのかみそり付属品を提供し、そのアタッチメントは、モノインターネット(IoT)ゲートウェイを介してシェービングかみそりおよび/またはベンダープラットフォームに通信可能に接続されて、(i)ユーザが、特定の肌表面領域が適切に剃られたかどうかを判定することを支援し、および/または(ii)特定のユーザの身体的特徴(例えば、肌および/または毛)に適したシェービングカートリッジおよび/またはかみそりのタイプに関してユーザを支援する。
本開示は、スマートシェービングシステム用に構成されたウェアラブルコンピュータのアプリケーションを提供し、ウェアラブルコンピュータは、モノのインターネット(IoT)ゲートウェイを介してベンダープラットフォームに通信可能に接続されて、(i)少なくとも1つの運動特性に適したシェービングカートリッジ、(ii)少なくとも1つの運動特性に適したシェービングかみそり、および(iii)最適なシェービング通知を決定する際にユーザを支援する。
本開示はまた、ウェアラブルコンピュータデバイスおよび/またはかみそり付属品カメラを備えたスマートシェービングシステムを提供し、かみそり付属品、ウェアラブルコンピュータデバイス、ユーザデバイス上のアプリケーション、ベンダープラットフォーム、および/または他のリンクされたデバイスは、特定のユーザの身体的特徴(例えば、毛と肌のタイプ)、過去のシェービングカートリッジ情報、および/またはシェービング習慣にアクセスおよび/または累積的に収集、保存、および/または分析して、特定のユーザの身体的特徴(例えば、肌および/または毛)、過去のシェービングカートリッジ情報およびシェービング習慣に適したシェービングカートリッジおよび/またはかみそりのタイプに関して特定のユーザを支援することができる。
ハンドルを有するかみそりの一例の斜視図である。 複数の異なる形状のかみそりの例を示す。 かみそり付属品の例示的な実施形態の斜視図を示す。 例示的なかみそり付属品およびかみそりの正面図および側面図を示す。 かみそり付属品およびシェーバハンドルの例示的な実施形態の平面図を示す。 本開示の一実施形態による、かみそり付属品の様々な電気/電子部品および外部通信インフラストラクチャを示す概略図である。 ウェアラブルコンピュータデバイスの正面図である。 本開示の一実施形態による、ウェアラブルコンピュータの様々な電気/電子部品および外部通信インフラを示す概略図である。 例示的な実施形態による方法のフローチャートである。 例示的な実施形態による方法の論理フローチャートである。 別の例示的な実施形態による方法の論理フローチャートである。 さらに別の例示的な実施形態による方法の論理フローチャートである。 本明細書の例示的な実施形態によるコンピュータ可読記憶媒体である。 例示的な通信デバイスの実施形態である。 本開示のシステム概略図の例示的な実施形態である。 本開示の例示的な方法のフローチャートである。 本開示の例示的な方法のフローチャートである。
複数の図面に共通する構成要素または機能は、各図面で同じ参照番号で示される。
図面を参照し、特に図1を参照すると、ハンドル9と複数の刃を含むカートリッジ5とを有する例示的なかみそり1が示されている。この例示的な実施形態では、潤滑剤、化粧品および/または他の材料を選択的に生成するように設計された「スマート」ポリマー5をカートリッジ上に提供することができる。「スマート」ポリマーは、少なくとも1つの環境刺激にさらされたときに特定の方法で応答するように設計された人工材料である。環境刺激としては、温度、pH、湿度/湿度、酸化還元、重量、電気刺激、化学的刺激、光(波長および/または強度)、電界/磁界、および/または電気化学的刺激を挙げることができる。
理解されるように、図2に示されるように、かみそり1およびかみそりハンドル9は、多くの形状をとることができ、そのうちのいくつかが示されている。シェーバおよびかみそりには、使いやすく低コストの使い捨てシェーバが含まれる。使い捨てシェーバは、コストが低くものの、それでもそのコストに匹敵するパフォーマンスを提供するはずである。他の場合としては、ユーザが、彼らが使用していて交換したくない特定のかみそり、例えば、ハイエンドまたは特別に細工されたかみそりハンドル9を備えたシェーバを持っている場合がある。
本明細書では、任意のシェーバに取り付けたり取り外したりすることができ、とりわけスマートフォンアプリケーションまたは他のユーザデバイスアプリケーションを含むスマートシェーバシステムと連動して収集データを分析し、ユーザにフィードバックを提供することができるかみそりアタッチメントの実施形態が説明される。本明細書では、収集データを分析し、ユーザにフィードバックを提供し、および/またはスマートフォンアプリケーションまたは他のユーザデバイスアプリケーションと対になって同じことを行うためのアプリケーションを含むことができるウェアラブルコンピュータデバイスの実施形態も説明される。
図3A~4に示されるように、本明細書では、スマートシェービングシステムのためのかみそり付属品10の実施形態が説明される。かみそり付属品10は、任意のかみそりに取り付けられるように構成されている。図3A~3Cは、かみそり付属品10の例を示している。かみそり付属品10は、ストローク、速度、肌状態、および毛の方向を測定するように構成されたカメラ15などの撮像デバイスを含む。撮像デバイスは、1つ以上のカメラまたはカメラタイプ、例えば、HDカメラ、2Dカメラ、3Dカメラなどから選択されるカメラ15を含むことができる。理解されるように、1つ以上の実施形態では、かみそり付属品は、とりわけ、当技術分野で知られているモバイルユーザデバイス(例えば、スマートフォン/タブレットカメラ)で使用される任意のカメラまたは他の撮像デバイスを装備することができる。
かみそり付属品10はまた、光源14、例えば、1つ以上のLED光を含むことができる。光源14は、カメラ15が撮像している表面を照らすように配置されている。一実施形態では、光源14は、付属品が使用されているときにオンになるように構成することができる。例えば、一実施形態では、光源14は、かみそりが使用されているときに、暗い環境でオンになるように構成することができる。
一実施形態では、光源14は、異なる色を放出するように構成することができる。例えば、複数のLEDが異なる色の照明を放出するように構成することができる。LEDは典型的には1つの色を発するので、付属品の光源14は、複数の色から特定の色を選択するために複数のLEDから構成することができる。一実施形態では、その選択は、例えば、ユーザデバイス40のアプリケーション111において行うことができる。色の選択は、剃られている領域をよりよく見ることができるというユーザの要望を最もよく満たすためのオプションとして役立つ。例えば、特定の肌色素は、白色光を最もよく反射してコントラストを付けるが、他の色素は、青または緑のバリエーションで最もよく機能する。
一実施形態では、かみそり付属品は、剃毛中に光源14を使用してフィードバックを提供するように構成することができる。例えば、光源14が異なる色で照明するように構成されている場合、かみそり付属品10は、光源14が正および負のフィードバックのために異なる色の光を生成するように構成することができる。例えば、正のフィードバック、例えば、ユーザが最適な速度で剃っていること、または剃っているターゲット領域に毛がないこと、のために安定した緑色光を使用できる。かみそり付属品は、負のフィードバック、例えば、シェービングストロークが速すぎてより遅くする必要があること、ターゲット領域ですべての毛が剃られていないこと、または適用されたシェービング角度が正しくないこと、のために光源が赤または点滅赤の光を生成するように構成することもできる。明るい色を使用して、かみそり付属品10の異なる機能を知らせることもできる。例えば、かみそり付属品10が速度を測定していることを示す緑色光、またはかみそり付属品10が圧力を測定していることを示す青色光により、ユーザは、どのタイプの情報がかみそり付属品10によって収集されているかを知ることができる。理解されるように、光源40は、色以外の、または色に加えて、例えば、点滅および閃光、強度、光パターンなどの技術を使用してフィードバックを提供するように構成することができる。
かみそり付属品10は、シェーバハンドル9に取り付けたり、シェーバハンドル9から取り外したりすることができる。図3A~4に示されるように、かみそり付属品10は、ハンドル位置9に取り付けられるように構成される。一実施形態では、かみそり付属品10は、2つの可撓性フラップ12a、12bを含み、これらは、ハンドル9に巻き付けられ、フラップ12a、12bがハンドル9に巻き付けられるように機械的に取り付けるように構成される。かみそり付属品10フラップ12a、12bは、ハンドル9の後ろに取り付けるための機械的留め具を含む。例示的な留め具には、例えば、磁石、フックアンドループ留め具、スナップ、または他の留め具を含むことができる。代替の実施形態では、フラップ12a、12bは、所定の位置に曲げられたときにその形状を保持する変形可能なエラストマーまたは金属材料を含むことができる。一実施形態では、かみそり付属品は、高摩擦熱可塑性エラストマー(TPE)を含み、摩擦係数はまた、かみそり付属品10がかみそりハンドル2に固定されたときにかみそり付属品10をその位置に保持する。
かみそり付属品10は、本明細書で説明するように、例えばBluetooth(商標)トランシーバ17を介して、スマートフォン、パーソナルコンピュータデバイス、または他のユーザデバイス40と同期するように構成される。一実施形態では、インジケータ11は、信号ペアリングのために構成することができる。本明細書でも説明するように、かみそり付属品10は、入力/出力ポート16、例えば、USBポートを含むことができ、ここで、かみそり付属品10は、再充電および更新のために接続することができる。かみそり付属品10がペアリングされると、シェーバアプリケーションをユーザデバイス40に提供することができる。一実施形態では、アプリケーションは、シェービングデータを受信するように構成され、アプリケーションソフトウェアは、人工知能(AI)ソフトウェアで構成されるか、または本明細書で説明されているようにシェービングデータを分析してリアルタイムフィードバックを提供することができる別のスマートシェービングシステムデバイスAIに動作可能に接続される。
図4は、(i)外部通信インフラストラクチャ200(図4の右側に示されている)の電子部品を有するかみそり付属品10(図4の左側に示されている)の電気および/または電子部品、および本開示の一実施形態による、かみそり付属品10と外部通信インフラストラクチャ200との間の様々な接続および通信経路の様々な例を示す。
図4に示されるかみそり付属品10は、電気的および/または通信的に接続される以下の例示的な部品を含む:カメラ15、視覚的(例えば、光)、触覚的および/または音による通知を生成するように構成することができる通知ユニット11、コントローラ、処理ユニットおよび/またはメモリを含むように構成することができる制御ユニット16、ローカル電源13(例えば、バッテリ)、外部電源接続および/または外部データ接続のためのインターフェースとして構成することができるインターフェースユニット21、ワイヤレス通信用のトランシーバユニット17、およびアンテナ18。ユニット11および16に関連して使用できる通信技術として、セルラー、衛星、WiFi、Bluetooth、低電力広域ネットワーク(LPWAN)、またはイーサネット経由でインターネットに直接接続するものが挙げられる。利用できるデータ転送プロトコルとしては、ハイパーテキスト転送プロトコル(HTTP)、メッセージキューイングテレメトリトランスポート(MQTT)、制約付きアプリケーションプロトコル(CoAP)などが挙げられるが、これらの例に限定されない。
一実施形態では、かみそり付属品はまた、かみそり上の付属品のユーザの活動を検出するための1つ以上の活動センサ20を含むことができる。活動センサ20には、加速度計、ジャイロスコープ、運動センサ、または他のセンサ(複数可)、および/またはそれらの組み合わせなどの、運動を検出するための1つ以上のタイプのセンサを含めることができ、これらはすべてトランシーバ17およびコントローラ16に動作可能に接続することができる。示されていないが、他のセンサ(複数可)は、受動赤外線センサ、超音波センサ、マイクロ波センサ、断層撮影運動検出器、光センサ、タイマーなどのいずれかを含むことができる。
例えば、加速度計、方向センサ、およびジャイロスコープは、かみそり1およびかみそり付属品10のユーザが活動中であるか、剃毛していないか、または特定のジェスチャを実行しているかを判定するために使用できる活動データをさらに生成できる。例えば、センサデータを使用して、シェービングシステムがシェービングストローク、非シェービングバックストローク、ストローク圧力、ストローク速度、刃すすぎ時間、ストローク数、シェービングゾーンごとのストローク数などを決定できるようにすることができる。
いくつかの実施形態では、センサ20の運動またはカメラ15の動作を使用して、かみそり付属品が使用されていることを制御ユニット16に示すことができる。したがって、カメラ15またはセンサ20は、かみそり付属品10の他の電子システムを「目覚めさせる」ためのスイッチとして使用することができる。センサ20またはカメラをスイッチとして使用することにより、かみそり付属品の電子システムが、例えば、シェービングセッション中など、必要な場合にのみ使用されることを保証することにより、エネルギーを節約することができる。
かみそり付属品10は、例えば、ユーザの身体活動の持続時間(例えば、シェービング時間、刃洗浄/すすぎ時間)または非活動、活動が検出されたまたは検出されなかった日の時間(複数可)等などの検出された身体活動の様々な属性に時間次元を追加するのに使用することができるタイマーを任意選択で含むことができる。
1つ以上の活動センサ20は、かみそり付属品10の本体において付属品の外側(例えば、デバイス本体の上面または下面の近く)に埋め込むことができ、または他の任意の望ましい位置に配置することができる。いくつかの例では、異なる活動センサ20は、かみそり付属品20の内部または表面上の異なる場所に配置することができ、例えば、いくつかは身体の内側に配置され、いくつかはバンド12a、12bの上面または下面などに配置される。
制御ユニット16はまた、(i)カメラ15から出力された情報を受信および処理し、および/または(ii)視覚情報をキャプチャおよび/または出力するようにカメラ15を制御することができる。例示的な実施形態では、カメラ15は、カメラ15の記録機能がアクティブ化されたときに、画像(例えば、ユーザの肌表面の画像)をキャプチャすることができる。この場合、図4に示されるように、カメラ15によってキャプチャされた情報は、制御ユニット16によって処理することができ、および/または、例えば、ユーザデバイス40、例えば、モバイルデバイス40の表示要素を介して、表示のために提示することができる。
制御ユニット16は、シェービング活動に関する情報を累積的に収集および/または保存して、個人のシェービングの習慣、使用、および有効性を分析および/または決定することができる。さらに、制御ユニット16は、(i)ユーザの特定の肌タイプおよび/または毛特性に関してカメラ15によってキャプチャされた情報と、および/または(ii)ユーザによって提供されたデータまたは特定の肌のタイプおよび/または毛の特性に関するデータベースからのデータと併せてシェービング活動を分析することができる。これにより、個々のユーザの身体的特徴および/またはかみそりの使用に関するカスタマイズされた分析およびデータ収集が可能になる。ユーザのデータをシェービングデータのデータベースと組み合わせて、例えばスマートシェービングシステムによって収集および処理されたデータと組み合わせて、さらにカスタマイズされた分析を可能にすることができる。ユーザのデータを収集し、ユーザのシェービングプロファイルデータと組み合わせて、例えば、2018年5月21日に提出され、「3D SMART SHAVING SYSTEM WITH A 3D CAMERA」と題された米国仮特許出願第62/674,099号、および2018年5月21日に提出され、「SYSTEM AND METHOD FOR PROVIDING A VOICE-ACTIVATED ORDERING OF REPLACEMENT SHAVING CARTRIDGE」と題された米国仮特許出願第62/674,105号(それぞれの全体は参照により本明細書に組み込まれる)で説明されているように、スマートシェービングシステムからの日付と組み合わせて、さらにカスタマイズされた分析を可能にすることができる。シェービング活動、特定の肌タイプおよび/または毛特性、および/またはカメラ15によってキャプチャされた情報に関するデータは、かみそり、クラウドデータベース、または外部デバイス(例えば、IoT接続デバイス)に(部分的にまたは全体的に)格納することができる。
実施形態では、かみそり付属品10によって検出されたデータは、例えばカメラ15を使用して、シェービングセッションの前および/または中に撮影されたユーザの画像と併せて分析することができる。データは、剃られるべきユーザの体の領域、例えば顔の画像および/またはマッピングと併せて分析することができる。例えば、シェービングが行われる前に、ユーザは、自分のスマートフォンまたはコンピュータユーザデバイス40にアプリケーションをダウンロードすることができる。ユーザがシェービングを開始すると、かみそり付属品またはユーザデバイス40上のアプリケーションは、シェービング中にカメラをアクティブ化して写真撮影またはビデオの撮影を開始するようにユーザに促すことができる。ユーザが剃毛するとき、カメラ15は、カメラが身体領域に対して異なる角度で動かされるとき、またはユーザがカメラに対して身体領域を動かすときに、写真またはビデオを撮る。
別の例として、一実施形態では、本明細書で説明するように、かみそり付属品10は、1つ以上のプロセッサ16を含むことができるか、そうでなければ1つ以上のプロセッサ16に結合することができる。センサ20およびカメラ15によってキャプチャされたデータは、メモリに格納し、プロセッサ(複数可)16によって分析することができる。いくつかの実施形態では、かみそり付属品10上のカメラ15またはセンサ20からのデータは、別個のユーザデバイス、スマートフォン40、またはコンピュータに送信することができる。例示的な実施形態では、カメラ15またはセンサ20からのデータは、受信データを分析して、ユーザのシェービング技術、ユーザによって取られた多数のシェービングストローク(またはシェービングストローク中のかみそり1が移動した距離またはかみそり1の速度)に関する情報、および/またはユーザがシェービングのパフォーマンスおよび快適さを最適化するために1つ以上の特殊なアイテムの恩恵を受けるかどうかをユーザに提供するように構成されたソフトウェアを備えたユーザデバイス40に送信することができる。プロセッサおよび/またはメモリは、シェービングシステムの任意の構成要素、例えば、かみそり付属品10自体、スマートフォンなどのユーザデバイス40、またはコンピュータ上に配置することができ、またはシェービングシステムの構成要素は、格納されたまたは検出された任意のデータを本明細書で説明されるように分析のためにプロセッサ16および/または外部ネットワーク200に送信することができる。
上記のように、システムは、かみそり付属品10のカメラ15またはセンサ20から経時的に受信された入力に基づいて、かみそり1の使用法を決定するように構成することができる。例えば、プロセッサ16は、かみそり付属品10が移動した全体の距離、および/またはかみそり付属品10が使用された多数のシェービングストロークを追跡するように構成することができる。例えば、プロセッサ16が、かみそり付属品10が使用閾値ベースの距離測定値を超えたと判定した場合、または行われたシェービングストロークの計算された数に基づいて、プロセッサ16は、本明細書で説明されるようにアラートを生成することができる。
センサ20またはカメラ15のそれぞれから受信した追跡データの違いを、ユーザが行ったシェービングストロークを分析するためにプロセッサ16が使用することができる。例えば、シェービングストロークの過程で、かみそり付属品10に配置されたカメラ15またはセンサ20によって測定された様々な運動が、プロセッサ16によって使用されて、ユーザがシェービング中のかみそり1の前縁、後縁、または両側のうちの1つ以上に過度の力を加えていることを判定することができる。力の不均一な適用は、切り口、肌の炎症、および/または過度のシェービングストロークを引き起こす可能性がある。同様に、カメラ15またはセンサ20は、ユーザのシェービングストロークが左右の運動の成分を含むことを検出することができる(例えば、かみそり1の1つ以上の刃に平行な方向への運動)。そのような左右の運動、または左右の運動の成分を含むシェービングストロークは、ユーザの肌の切り口および/または切り傷をもたらす可能性がある。したがって、そのような場合、プロセッサ16は、かみそり付属品10またはユーザデバイス40を介してユーザに通知または他のフィードバックを提供して、シェービングストロークを調整するか、さもなければかみそり1の運動方向を変更するように構成することができる。したがって、かみそり付属品10は、本明細書に説明された様々なフィードバックメカニズムを介して、そのような異常についてユーザに警告することができる。例えば、プロセッサ16が、カメラ15またはセンサ20の位置からのビデオ画像が、かみそり付属品10の一方側での距離の方がかみそり付属品10の反対側で測定されたものよりも長いことを記録することを示す場合、プロセッサ16は、前縁または後縁に向かうユーザのシェービングストロークの偏りをユーザに通知するように構成することができる。したがって、プロセッサ16は、様々なセンサ20のアクティブ化履歴またはカメラ15の画像を評価して、所与のユーザのシェービング技術で観察された肌/かみそりの接触挙動を判定することができる。
システムは、かみそり付属品のカメラ15またはセンサ20からのデータを分析して、シェービングストロークの効率、またはユーザのシェービング技術の効率を決定するように構成することができる。例えば、プロセッサ16は、センサ20からの追跡データまたはカメラ15からの画像データを分析して、ユーザがシェービングストローク中に効率的な経路(曲がり過ぎるか直線過ぎるか)をとっているかそれ以外の最適な経路をとっているかどうか、シェービングストロークが長すぎるか短すぎるか、および/またはストロークのテンポが適切かどうか、を判定することができる。したがって、プロセッサ16は、ユーザが自分のシェービングストロークに望ましくない一時停止を取り入れているかどうか、および/またはシェービングストロークが速すぎるか遅すぎるかを判定することができる。プロセッサ16はまた、力の測定に基づいて、ユーザがストロークの任意の部分に加えている力が多すぎるか少なすぎるかを判定することができる。
様々なメカニズムを使用して、本明細書で説明されているような次に最適なシェービング技術をユーザに通知することができる。例えば、ユーザは、シェービングを開始する前に、コンピュータまたはスマートフォン40上でアプリケーションを開くことができる。ユーザがシェービングすると、シェービングセッションに関する情報が生成および分析され、分析結果がアプリケーションを介してユーザに表示することができる。例えば、顔の写真をアプリケーションに表示し、顔の領域をさらに剃る必要がある、または十分に剃ったことをユーザに示すことができる。チャート、テキスト、色、光、写真、またはその他の適切な視覚補助は、ユーザが剃る必要がある場所と剃る必要がない場所、特定の領域で残っている、または達成されたシェービングの割合、または、例えば、ユーザが速すぎる、遅すぎるシェービングストロークを使用しているかどうか、シェービングストローク中に使用している力が多すぎるか少なすぎるか、シェービングストローク中にユーザが次に最適な経路を使用しているかどうか、および/またはユーザのシェービングストロークのテンポが改善できるかどうかといった他の適切なフィードバックを示すことができる。いくつかの実施形態では、アプリケーションは、視覚的フィードバックの代わりに、またはそれに加えて、聴覚的または触覚的フィードバックを提供することができる。例えば、振動や音が、体のある領域が適切に剃られていることを示している可能性がある。いくつかの実施形態では、音声で、ユーザの顔のどの部分がひりひりしているのかについてユーザに指示することができる。
いくつかの実施形態では、光、ノイズ、振動、および/または他の視覚的、触覚的、または聴覚的フィードバックを別個のデバイスで提供することができる。例えば、かみそり1の1つ以上の刃が鈍すぎる場合、またはユーザが不十分な技術を使用している場合にライトが点灯したり、ライトが緑から赤に変わって同じ情報を示したりすることができる。または、ユーザデバイス40の画面で、アプリケーションに関して上記と同様の視覚的インジケータを表示することができ、または振動または音を、上述のように別個のデバイスによって生成することができる。
このようにして、かみそり付属品10は、シェービング技術およびかみそり1またはかみそりカートリッジの残りの耐用年数に関するリアルタイムのフィードバックをユーザに提供するように構成することができる。このガイダンスおよびフィードバックは、シェービングセッションをガイドして、ユーザのシェービングエクスペリエンスを向上させ、使用済みのシェービング機器を交換するのに役立つ。
一実施形態では、所与の身体領域におけるシェービングの適切性を判定することは、かみそり付属品10によって検出されない情報、例えば、ユーザが有する毛のタイプ、ユーザの所望の剃毛レベル(例えば、ユーザが無精ひげを残したいかどうか、きれいに剃毛をしたいかどうか、または特定の領域に毛を残したいかどうか)を考慮することもできる。その他の情報としては、塗布したクリームまたはジェルのタイプ、ユーザのシェービング履歴、ユーザの体の形、ユーザの体の毛の密度、刃の使用履歴(例えば、刃の鋭さや新品の程度、タイプ、使い捨てかみそりまたはカートリッジの刃の数)、使用するかみそり1のタイプ、ユーザの肌のタイプ(例えば、普通、乾燥、または敏感)、ユーザの年齢(例えば、ユーザの肌の感度または毛の質)、もしくはその他の適切な情報、または情報の組み合わせが挙げられる。この情報の一部またはすべては、以下でさらに説明するように、ユーザによって入力され、かみそり付属品10のカメラ15またはセンサ20からのデータとともに評価することができる。
本明細書で説明されるように、カメラ15または様々なセンサ20および本明細書に説明されるカメラによって収集されたデータは、本明細書に説明されるさらなる研究および分析のためにIotTプラットフォーム222およびベンダープラットフォーム223に送信することができる。
制御ユニット16から出力された情報および/またはカメラ15によってキャプチャされた情報は、(i)トランシーバ17を介して無線で、および/または(ii)外部電源/データ接続用のインターフェースユニット21を経由して有線接続を介して、かみそり付属品からIoTゲートウェイ30に送信することができる。さらに、トランシーバ17は、無線で接続することができ、および/またはインターフェース21は、有線接続を介してユーザデバイス40(例えば、携帯電話またはタブレット)に接続することができる。
図4に示される例示的な実施形態では、かみそり付属品10の回路は、それ自体がインターネットプロトコル(IP)対応であるユニットとして構成することができ、かみそりアクセサ10との間の情報フローは、例えば、IoTゲートウェイ220として機能するWiFiルータを経由してルーティングすることができる。あるいは、かみそり付属品10の回路は、それ自体がインターネットプロトコル(IP)に対応していないユニットとして構成することができ、その場合、IoTゲートウェイおよび/またはそれに接続されたユーザデバイス40は、インターネット/クラウドを介してインターフェースを提供して、例えば、プロトコルの解読、暗号化、処理、データ管理等を行うように構成することができる。その他の通信技術としては、セルラー、衛星、Bluetooth、低電力広域ネットワーク(LPWAN)、またはイーサネット経由でインターネットに直接接続することが挙げられるが、これらの例は限定するものではない。情報は、クラウドネットワーク21およびIoTプラットフォーム222を介して、IoTゲートウェイ6020からベンダープラットフォーム223にルーティングすることができる。IoTプラットフォーム222は、図4のクラウドネットワーク221とは別に示されているが、クラウドネットワーク221は、IoTプラットフォーム222を包含することができる。本開示で使用される場合、「クラウドネットワーク」という用語は、インターネットおよび関連する接続インフラストラクチャを包含する。
例示的な実施形態では、ユーザデータ(例えば、ユーザの毛の太さ、肌のタイプ、肌の輪郭、顔の輪郭に関するデータおよび/または情報、および/またはかみそり付属品10が適用された肌表面領域に関するかみそり付属品10のカメラ15によってキャプチャされた画像情報)は、コントローラ16、モバイルデバイス40、ベンダープラットフォーム223、および/またはIoTプラットフォーム222に(部分的または全体的に)格納することができる。一例では、ベンダープラットフォーム223は、(i)例えば、最適なかみそりモデル、かみそりの使用法、および/またはかみそりカートリッジモデルに関する提案を提供し、および/または(ii)かみそり付属品10および/またはモバイルデバイス40に、個々のユーザのかみそりの使用(視覚、音声、および/またはデータ)、肌のタイプ、毛の特徴、履歴から好まれているかみそりカートリッジ、および/または数量パッケージ等(これらの情報はかみそり付属品10および/またはモバイルデバイス40によって出力することができる)に関する情報(例えば、カメラによって撮像されたおよび/またはスキャンされた肌表面領域が適切に剃られているかどうか)を送信することができる。
例えば、システムは、かみそり付属品10の通知ユニット11またはモバイルユニット40に、ユーザが剃毛された身体部分のすべてのゾーン(例えば、顔、脚、腋毛)を剃ったという通知を提供するように構成することができ、シェービングを中止することができる。かみそり付属品10は、ユーザが表面領域またはゾーンを剃り続け必要がある、またはユーザが異なるストローク技術、例えば、より長いストロークまたはより低い圧力を使用する必要があるという通知を通知ユニット11に提供するように構成することができる。別の例として、システムは、ユーザがユーザデバイス40および/またはユーザの通信チャネル(例えば、電子メール、テキスト)に対して最適なシェービング製品を識別するためのレポートを生成するように構成することができる。
図4はまた、本開示の別の実施形態による、かみそり付属品10と外部通信インフラストラクチャ220との間の様々な接続および通信経路を示している。図4に示される実施形態では、ユーザデバイス40は、(i)トランシーバ17に無線で通信接続し、および/または(ii)インターフェースユニット21にハードワイヤ接続を介して通信接続することができる。かみそり付属品のカメラ15は、かみそり1に機械的に結合され、それにより、かみそり付属品10が使用されている間、シェービング表面に関する監視およびフィードバックを可能にする。図4に示される例示的な実施形態の1つの通信経路では、制御ユニット16、センサ(複数可)20、カメラ15から出力される情報、および/またはユーザの身体的特徴に関する情報(例えば、ユーザの毛の太さ、肌のタイプ、肌の輪郭、顔の輪郭に関するデータおよび/または情報、および/またはユーザの肌表面領域に関してカメラ15によってキャプチャされた画像情報)を、かみそり付属品10からユーザデバイス40に送信することができる(例えば、ユーザがバスルーム内でかみそり1を使用している間に)。モバイルデバイス40は、クライアント(複数可)(例えば、1つ以上のソフトウェアアプリケーションのソフトウェアまたは「アプリ」)を備え、図4に示されるかみそり1の回路部品によって実行される機能、例えば、インターネットを介した情報の送信、データ分析、および/または取得した情報の保存、のいくつかまたはすべてを実行することができる。ユーザデバイス40によって受信された情報は、IoTゲートウェイ220、例えば、WiFiルータにルーティングして、その後、クラウドネットワーク221およびIoTプラットフォーム222を介してカートリッジベンダープラットフォーム223にルーティングすることができる。モバイルデバイス240からルーティングされた情報に基づいて、ベンダープラットフォーム223および/またはIoTプラットフォーム222は、適切なフィードバック情報、例えば、ユーザにとって最適なかみそりモデル、ユーザにとって最適なかみそりカートリッジモデル、および/またはカメラ15によって撮像されたユーザの肌表面領域が適切に剃られたどうかに関する情報(視覚的、音声的および/またはデータ)を提供することができる。IoTプラットフォーム222は、図4のクラウドネットワーク221とは別に示されているが、クラウドネットワーク221は、IoTプラットフォーム222を包含することができる。他の通信技術としては、セルラー、衛星、Bluetooth、低電力ワイドエリアネットワーク(LPWAN)、またはイーサネット経由でインターネットに直接接続することが含まれるが、これらの例に限定されない。利用できるデータ転送プロトコルとしては、ハイパーテキスト転送プロトコル(HTTP)、メッセージキューイングテレメトリトランスポート(MQTT)、制約付きアプリケーションプロトコル(CoAP)などが挙げられるが、これらの例に限定されない。
図4に示される例示的なシステムでは、情報および/または情報の処理は、かみそり付属品10、ユーザデバイス40、IoTゲートウェイ220、クラウドネットワーク2021、IoTプラットフォーム6022、および/またはベンダープラットフォーム223のうちの2つ以上の間で共有することができる。例えば、(情報源に関係なく)情報の処理は、制御ユニット16、ユーザデバイス40、クラウドネットワーク221、IoTプラットフォーム222、および/またはベンダープラットフォーム223で実行することができる。さらに、情報(例えば、音声、視覚、および/またはデータ)の入力/出力は、かみそり付属品、かみそり付属品10(図示せず)上もしくは中に任意選択で提供される双方向マイクロフォン/スピーカー、および/またはユーザデバイス40を介して実施することができる。
図4に示される例示的なシステムにおける分散機能の例として、カメラ15によってキャプチャされた(例えば、ユーザの肌表面の)画像情報を、ユーザデバイス40(例えば、表示用)に、および/またはカートリッジベンダープラットフォーム223(例えば、分析用)に送信することができる。さらに、電気センサ20からのセンサデータは、モバイルデバイス40に送信することができ(例えば、ユーザがかみそり付属品10を使用している間)、ユーザの音声コマンドおよび/またはクエリは、かみそり付属品10上もしくは中に任意選択で提供される双方向マイクロフォン/スピーカー、またはユーザデバイス40のマイクロフォン/スピーカーを介して入力することができる。さらに、ベンダープラットフォーム223からの応答送信に含まれる情報は、かみそり付属品10のマイクロフォン/スピーカー(例えば、音声用)を介して、ユーザデバイス40(例えば、音声、視覚、および/またはテキストデータ用)を介して、および/またはユーザデバイス40の表示画面(例えば、視覚および/またはテキストデータ用)を介して、出力することができる。
別の実施形態では、図5A~5Bは、ウェアラブルコンピュータデバイス110を示している。ウェアラブルコンピュータデバイス110の例では、ウェアラブルコンピュータデバイス110は、腕時計のように手首に装着されるように構成される。ウェアラブルコンピュータデバイス110は、ユーザの生体認証および活動データを取得および追跡するように構成することができる。ウェアラブルコンピュータデバイスの例として、Apple Watch 1.0、2.0、Fitbitウェアラブルトラッキングデバイス(例えば:Flex 2、Alta HR、Ionic、Versa、Ace、Surge、Blaze)、Garminウェアラブルトラッキングデバイス(例えば、vivofit、vivoactive 3、Forerunner 645/645)、およびAndroid Wear(商標)デバイスが挙げられる。例示的なウェアラブルコンピュータデバイス110は、2016年6月15日に提出された「EXERCISED-BASED WATCH FACE AND COMPLICATIONS」と題された米国特許出願公開第2017/0053542号(その全体が参照により本明細書に組み込まれる)に記載されている。一実施形態では、図5A~Bに示されるように、ウェアラブルコンピュータデバイスは、スマートシェービングシステムのシェービングデータを取得、追跡、および報告するように構成されたアプリケーション111を含む。
ウェアラブルコンピュータデバイス110は、運動センシング技術で構成されている。一実施形態では、ウェアラブルコンピュータデバイスは、かみそり上の付属品のユーザの活動を検出するための1つ以上の活動センサを含む。活動センサは、加速度計、ジャイロスコープ、運動センサ、または他のセンサ(複数可)、および/またはそれらの組み合わせを含む、運動を検出するための1つ以上のタイプのセンサを含むことができる。示されていないが、他のセンサ(複数可)は、受動赤外線センサ、超音波センサ、マイクロ波センサ、断層撮影運動検出器、光センサ、タイマーなどのいずれかを含むことができる。
例えば、加速度計、方向センサ、およびジャイロスコープは、かみそり1のユーザが活動中であるか、剃毛していないか、または特定のジェスチャを実行しているかを判定するために使用できる活動データをさらに生成できる。例えば、センサデータを使用して、シェービングシステムがシェービングストローク、非シェービングバックストローク、ストローク圧力、ストローク速度、刃すすぎ時間、ストローク数、シェービングゾーンごとのストローク数などを決定できるようにすることができる。
ウェアラブルコンピュータデバイス110は、例えば、ユーザの身体活動の持続時間(例えば、シェービング時間、刃洗浄/すすぎ時間)または非活動、活動が検出されたまたは検出されなかった日の時間(複数可)等などの検出された身体活動の様々な属性に時間次元を追加するのに使用することができるタイマーを任意選択で含むことができる。
一実施形態では、アプリケーション111は、デバイスセンサがシェービングの繰り返される運動またはストロークを追跡するように構成されている。ユーザは、ウェアラブルコンピュータデバイス上でシェービングアプリケーション111を選択することができ、ウェアラブルコンピュータデバイスは、次に、シェービング中の手首の運動によってストロークおよび他の詳細を測定および追跡する。
一実施形態では、シェーバには、RFIDタグ(図示せず)を供給することができる。ウェアラブルコンピュータデバイス110は、RFIDタグがかみそり1で検出された場合にアプリケーションをアクティブ化するように構成することができる。
実施形態では、ウェアラブルコンピュータデバイス110によって検出されたデータは、例えばカメラ115を使用して、シェービングセッションの前および/または中に撮影されたユーザの画像と併せて分析することができる。データは、剃られるべきユーザの体の領域、例えば顔の画像および/またはマッピングと併せて分析することができる。例えば、シェービングが行われる前に、ユーザは、自分のスマートフォンまたはコンピュータユーザデバイス40にアプリケーションをダウンロードすることができる。ユーザがシェービングを開始すると、ウェアラブルコンピュータデバイス110またはユーザデバイス40上のアプリケーションは、シェービング前またはシェービング中にビデオの撮影またはアップロードを開始するためにカメラ115またはユーザデバイス40のカメラをアクティブ化するようにユーザに促すことができる。ユーザが剃毛するとき、カメラ15は、カメラが身体領域に対して異なる角度で動かされるとき、またはユーザがカメラに対して身体領域を動かすときに、写真またはビデオを撮る。
別の例として、一実施形態では、本明細書で説明するように、ウェアラブルコンピュータデバイス110は、1つ以上のプロセッサを含むことができるか、そうでなければ1つ以上のプロセッサに結合することができる。センサによってキャプチャされたデータは、メモリに格納し、プロセッサによって分析することができる。いくつかの実施形態では、ウェアラブルコンピュータデバイス上のセンサからのデータは、別個のユーザデバイス40、スマートフォン、またはコンピュータに送信することができる。例示的な実施形態では、カメラ115またはセンサ20からのデータは、受信データを分析して、ユーザのシェービング技術、ユーザによって取られた多数のシェービングストローク(またはシェービングストローク中のかみそり1が移動した距離またはかみそり1の速度)に関する情報、および/またはユーザがシェービングのパフォーマンスおよび快適さを最適化するために1つ以上の特殊なアイテムの恩恵を受けるかどうかをユーザに提供するように構成されたソフトウェアを備えたユーザデバイス40に送信することができる。プロセッサおよび/またはメモリは、シェービングシステムの任意の構成要素、例えば、ウェアラブルコンピュータデバイス110自体、スマートフォンなどのユーザデバイス40、またはコンピュータ上に配置することができ、またはシェービングシステムの構成要素は、格納されたまたは検出された任意のデータを本明細書で説明されるように分析のためにプロセッサおよび/または外部ネットワーク200に送信することができる。
上記のように、システムは、ウェアラブルコンピュータデバイスのカメラ115またはセンサ20から経時的に受信された入力に基づいて、かみそり1の使用法を決定するように構成することができる。例えば、ウェアラブルコンピュータデバイス110またはユーザデバイス40のプロセッサは、かみそり付属品10が移動した全体の距離、および/またはかみそり1が使用された多数のシェービングストロークを追跡するように構成することができる。例えば、シェービングアプリケーションを実行しているウェアラブルコンピュータデバイス110が、距離に基づいて、または行われたシェービングストロークの計算された数に基づいて使用閾値を超えたとプロセッサが判定した場合、プロセッサは、例えばウェアラブルコンピュータデバイス110またはユーザデバイス40上でアラートを生成することができる。
センサ20のそれぞれから受信した追跡データの違いを、ユーザが行ったシェービングストロークを分析するためにプロセッサが使用することができる。例えば、シェービングストロークの過程で、ウェアラブルコンピュータデバイス110のセンサによって測定された様々な運動が、プロセッサによって使用され、ユーザがシェービング中のかみそり1の前縁、後縁、または両側のうちの1つ以上に過度の力を加えていることを判定することができる。力の不均一な適用は、切り口、肌の炎症、および/または過度のシェービングストロークを引き起こす可能性がある。同様に、センサ20は、ユーザのシェービングストロークが左右の運動の成分を含むことを検出することができる(例えば、かみそり1の1つ以上の刃に平行な方向への運動)。そのような左右の運動、または左右の運動の成分を含むシェービングストロークは、ユーザの肌の切り口および/または切り傷をもたらす可能性がある。したがって、そのような場合、プロセッサは、ウェアラブルコンピュータデバイス110またはユーザデバイス40を介してユーザに通知または他のフィードバックを提供して、シェービングストロークを調整するか、さもなければかみそり1の運動方向を変更するように構成することができる。したがって、ウェアラブルコンピュータデバイス110またはユーザデバイス40は、本明細書に説明された様々なフィードバックメカニズムを介して、そのような異常についてユーザに警告することができる。例えば、プロセッサ16が、ウェアラブルコンピュータデバイス110内のセンサ位置が、バイアスを示すウェアラブルコンピュータデバイス110内の角度位置を登録することを示す場合、プロセッサは、ユーザのシェービングストロークにおける前縁または後縁に向けたバイアスをユーザに通知するように構成することができる。したがって、プロセッサは、様々なセンサのアクティブ化履歴およびカメラ115の画像を評価して、所与のユーザのシェービング技術で観察された肌/かみそりの接触挙動を判定することができる。
システムは、かみそり付属品のカメラ115またはセンサ20からのデータを分析して、シェービングストロークの効率、ならびにかみそり付属品10の測定値に関して上記と同様の力測定値を決定するように構成することができる。
様々なメカニズムを使用して、本明細書で説明されているような次に最適なシェービング技術をユーザに通知することができる。例えば、ユーザは、シェービングを開始する前に、コンピュータまたはスマートフォンまたは他のユーザデバイス40と同期することができるウェアラブルコンピュータデバイス110上でアプリケーション111を開くことができる。ユーザがシェービングすると、シェービングセッションに関する情報が生成および分析され、分析結果がアプリケーションを介してユーザに表示することができる。例えば、顔の写真をアプリケーションに表示し、顔の領域をさらに剃る必要がある、または十分に剃ったことをユーザに示すことができる。チャート、テキスト、色、光、写真、またはその他の適切な視覚補助は、ユーザが剃る必要がある場所と剃る必要がない場所、特定の領域で残っている、または達成されたシェービングの割合、または、例えば、ユーザが速すぎる、遅すぎるシェービングストロークを使用しているかどうか、シェービングストローク中に使用している力が多すぎるか少なすぎるか、シェービングストローク中にユーザが次に最適な経路を使用しているかどうか、および/またはユーザのシェービングストロークのテンポが改善できるかどうかといった他の適切なフィードバックを示すことができる。いくつかの実施形態では、アプリケーションは、視覚的フィードバックの代わりに、またはそれに加えて、聴覚的または触覚的フィードバックを提供することができる。例えば、振動や音が、体のある領域が適切に剃られていることを示している可能性がある。いくつかの実施形態では、音声で、ユーザの顔のどの部分がひりひりしているのかについてユーザに指示することができる。
このようにして、ウェアラブルコンピュータデバイス110またはユーザデバイス40は、シェービング技術およびかみそり1またはかみそりカートリッジの残りの耐用年数に関するリアルタイムのフィードバックをユーザに提供するように構成することができる。このガイダンスおよびフィードバックは、シェービングセッションをガイドして、ユーザのシェービングエクスペリエンスを向上させ、使用済みのシェービング機器を交換するのに役立つ。
一実施形態では、所与の身体領域におけるシェービングの適切性を判定することは、かみそり付属品10の測定値に関して上記で説明したものと同様に、ウェアラブルコンピュータデバイス110またはカメラ115によって検出されない情報も考慮に入れることができる。この情報の一部またはすべては、以下でさらに説明するように、ユーザによって入力され、ウェアラブルコンピュータデバイス110、ユーザデバイス40、またはカメラ115からのデータとともに評価することができる。
本明細書で記載されるように、本明細書に説明されるウェアラブルコンピュータデバイス110、ユーザデバイス40、またはカメラ115によって収集されたデータは、本明細書に説明されるさらなる研究および分析のためにIotTプラットフォーム222およびベンダープラットフォーム223に送信することができる。
図5Bは、本開示の別の実施形態による、ウェアラブルコンピュータデバイス110と外部通信インフラストラクチャ200との間の様々な接続および通信経路を示している。図6に示す実施形態では、カメラ115(表示要素を含むことができる)などの撮像デバイスは、ウェアラブルコンピュータデバイス110とは別に提供され、ウェアラブルコンピュータデバイスとは完全に独立して使用することができる。撮像デバイスは、1つ以上のカメラまたはカメラタイプ、例えば、HDカメラ、2Dカメラ、3Dカメラなどから選択されるカメラ15を含むことができる。あるいは、図6に示されるように、カメラ115および/またはカメラを備えたユーザデバイス40(例えば、スマートフォン)は、(i)トランシーバ17に無線で通信可能に接続するか、またはウェアラブルコンピュータデバイスにハードワイヤ接続することによって通信可能に接続することができる。図5Bに示される例示的な実施形態では、ウェアラブルコンピュータデバイス110、ユーザデバイス40、および/またはカメラ115は、インターネットプロトコル(IP)対応デバイスとして構成することができる。
図6に示される例示的な実施形態の1つの通信経路では、ウェアラブルコンピュータデバイス110のセンサから出力される情報は、ウェアラブルコンピュータデバイス110(例えば、ユーザがバスルーム内でウェアラブルコンピュータデバイス110を装着しながらかみそり1を使用している間に)および/またはカメラ115からユーザデバイス40に送信することができる。一例では、ユーザがウェアラブルコンピュータデバイス110に通信可能に接続されたカメラ115を使用して、(i)特定の身体領域の肌表面が適切に剃られたかどうかを判定するために、および/またはおよび/または(ii)シェービングの間(シェービング前に3Dスキャンを実行して格納したことにより)ユーザをガイドするために、剃毛される身体領域(例えば、顔、脚等)の3Dスキャンを実行することができる。
ウェアラブルコンピュータデバイス110および/またはユーザデバイス40は、1つ以上のソフトウェアアプリケーション111または「アプリ」を備え)、図6に示されるウェアラブルコンピュータデバイス110によって実行される機能の一部またはすべて、例えば、インターネットを介した情報の送信、データ分析、および/または取得した情報の保存を実行することができる。一実施形態では、ウェアラブルコンピュータデバイス110からユーザデバイス40によって受信された情報は、IoTゲートウェイ2020、例えば、WiFiルータにルーティングされて、その後、クラウドネットワーク221およびIoTプラットフォーム222を介してベンダープラットフォーム223にルーティングすることができる。一実施形態では、情報は、ウェアラブルコンピュータデバイス110からIoTゲートウェイ220に直接送信し、その後、クラウドネットワーク2021およびIoTプラットフォーム2022を介してベンダープラットフォーム223にルーティングすることができる。モバイルデバイス240からルーティングされた情報に基づいて、ベンダープラットフォーム223および/またはIoTプラットフォーム222は、適切なフィードバック情報、例えば、ユーザにとって最適なかみそりモデル、ユーザにとって最適なかみそりカートリッジモデル、および/またはカメラ115によって撮像されたユーザの肌表面領域が適切に剃られたどうかに関する情報(視覚的、音声的および/またはデータ)を提供することができる。IoTプラットフォーム2022は、図6のクラウドネットワーク2021とは別に示されているが、クラウドネットワーク221は、IoTプラットフォーム222を包含することができる。他の通信技術としては、セルラー、衛星、Bluetooth、低電力ワイドエリアネットワーク(LPWAN)、またはイーサネット経由でインターネットに直接接続することが含まれるが、これらの例に限定されない。利用できるデータ転送プロトコルとしては、ハイパーテキスト転送プロトコル(HTTP)、メッセージキューイングテレメトリトランスポート(MQTT)、制約付きアプリケーションプロトコル(CoAP)などが挙げられるが、これらの例に限定されない。
図6に示される例示的な実施形態の別の通信経路では、ウェアラブルコンピュータデバイス110からカメラ115に出力される情報は、ソフトウェアアプリケーション111で提供され、ウェアラブルコンピュータデバイス110および/または図6に関しても説明されるようなユーザデバイス40によって実行される機能の一部またはすべて、例えば、インターネットを介した情報の送信、データ分析、および/または取得された情報の保存を実行することができる。ユーザの皮膚表面領域に関してカメラ115によってキャプチャされた画像情報とともにウェアラブルコンピュータデバイス110から受信したセンサ情報は、IoTゲートウェイ220、例えば、WiFiルータにルーティングして、その後、クラウドネットワーク2021およびIoTプラットフォーム222を介してカートリッジベンダープラットフォーム223にルーティングすることができる。ユーザの皮膚表面領域に関してカメラ115によってキャプチャされた画像情報とともにカメラ115によって受信された情報は、IoTゲートウェイ220、例えば、WiFiルータにルーティングして、その後、クラウドネットワーク2021およびIoTプラットフォーム222を介してベンダープラットフォーム223にルーティングすることができる。カメラ115からルーティングされた情報に基づいて、ベンダープラットフォーム223および/またはIoTプラットフォーム222は、適切なフィードバック情報、例えば、ユーザにとって最適なかみそりモデル、ユーザにとって最適なかみそりカートリッジモデル、および/またはカメラ115によって撮像されたおよび/またはセンサ(複数可)20によって追跡されたユーザの肌表面領域が適切に剃られたどうかに関する情報(視覚的、音声的および/またはデータ)を提供することができる。他の通信技術としては、セルラー、衛星、Bluetooth、低電力ワイドエリアネットワーク(LPWAN)、またはイーサネット経由でインターネットに直接接続することが含まれるが、これらの例に限定されない。
図5Bに示される例示的なシステムでは、情報および/または情報の処理は、ウェアラブルコンピュータデバイス110、カメラ115、ユーザデバイス240、IoTゲートウェイ220、クラウドネットワーク221、IoTプラットフォーム222、および/またはベンダープラットフォーム223のうちの2つ以上の間で共有することができる。例えば、(情報源に関係なく)情報の処理は、ウェアラブルコンピュータデバイス110、カメラ115、モバイルデバイス240、クラウドネットワーク221、IoTプラットフォーム222、および/またはベンダープラットフォーム223で実行することができる。さらに、情報(例えば、音声、視覚、および/またはデータ)の入力/出力は、カメラ115、ウェアラブルコンピュータデバイス110上もしくは中に任意選択で提供される双方向マイクロフォン/スピーカー、および/またはユーザデバイス40を介して実施することができる。
図5Bに示される例示的なシステムにおける分散構成の例として、電気センサ(複数可)20からのセンサデータによってキャプチャされた運動データは、カメラ115および/またはモバイルデバイス40に送信することができ(例えば、ユーザがウェアラブルコンピュータデバイスを使用して剃っている間に)、ユーザの音声コマンドおよび/またはクエリは、ウェアラブルコンピュータデバイス110上または中に任意選択で提供される双方向マイクロフォン/スピーカーまたはモバイルデバイス40のマイクロフォン/スピーカーを介して入力することができる。さらに、ベンダープラットフォーム223からの応答送信に含まれる情報は、腕時計110のマイクロフォン/スピーカー(例えば、音声用)を介して、ユーザデバイス40(例えば、音声、視覚、および/またはテキストデータ用)を介して、および/またはウェアラブルコンピュータデバイス110、モバイルデバイス40、またはカメラ115の表示画面(例えば、視覚および/またはテキストデータ用)を介して、出力することができる。
スマートシェービングアプリケーションを含む例示的なかみそり付属品10またはウェアラブルコンピュータデバイス110は、図6のプロセスフロー600に示される方法で使用することができる。当業者であれば、図6に示される方法の1つ以上のステップが省略されるか、または図6に示される順序から外れて実行され得ることを認識するであろう。第1に、ユーザは、シェービングアプリケーションをスマートフォン、コンピュータ、または他のユーザデバイス40、またはブロック6001のウェアラブルコンピュータデバイス110にダウンロードすることができる。ブロック6002において、ユーザは、かみそり付属品10またはシェービングアプリケーション111を含むウェアラブルコンピュータデバイス110を、スマートフォン、コンピュータ、または他のユーザデバイス40上のシェービングアプリケーションと同期させることができる。次に、ブロック6003において、ユーザは、ユーザプロファイルを完成させることができる。ユーザプロファイルの完成には、一連の質問やプロンプトへの回答を含めることができる。ユーザプロファイルの例示的な質問には、ユーザが有している毛のタイプ、ユーザが望む剃毛のレベル(例えば、ユーザが無精ひげを残したいかどうか、きれいに剃毛したいかどうか、または特定の領域に毛を残したいかどうか)、通常使用するクリームまたはジェルのタイプ、ユーザのシェービング履歴、ユーザの体の形、ユーザの体の毛の密度、ユーザの刃の使用履歴(例えば、それらがどれほど鋭いか新しいか)、ユーザが有しているまたは通常購入しているシェーバ1のタイプ、ユーザの肌のタイプ(例えば、普通、乾燥、または敏感)、ユーザの年齢(例えば、ユーザの肌の感度または毛の質に影響を与える可能性がある)、またはその他の適切な情報もしくは情報の組み合わせに関する質問を含めることができる。ユーザは、任意の適切な方法で情報を入力することができる。例えば、ユーザは、シェービングアプリケーションに情報を入力したり、カメラをアクティブ化してシェーバタイプのバーコードをスキャンしたりすることができる。ユーザは、アプリケーションに戻って、後日、例えば質問への回答が時間の経過とともに変化した場合に、回答を変更することができる。
ブロック6005において、ユーザプロファイルが完成すると、ユーザは、シェービングを開始することができる。上で論じたように、剃毛される領域の画像またはセンサデータは、シェービングプロセス中にキャプチャすることができる。
ブロック6006において、実施形態では、この方法はまた、本明細書で説明されるように、センサデータまたは画像データなどのシェービングデータを提供することを含むことができる。理解されるように、カメラ15を含むかみそり付属品10の実施形態では、画像データは、本明細書に説明されるように、シェービング中に提供することができる。他の実施形態では、例えばウェアラブルコンピュータデバイス110の実施形態では、ユーザは、シェービング前に、スマートフォン、コンピュータ、外部カメラのうちの1つ以上を使用して、既存の写真またはビデオをアップロードし、および/または新しい写真および/またはビデオを生成およびアップロードすることができる。
ブロック6007において、ユーザが剃毛するとき、ユーザ自身は、かみそり付属品10、ウェアラブルコンピュータデバイス110、および/またはユーザデバイス40上のアプリケーションからフィードバックを受信して、所与の領域におけるシェービングの適切性を判定することができる。フィードバックに基づいて、ユーザは、体の特定の領域でシェービングを続行または中止することができる。ユーザは、フィードバックが身体領域のすべての領域で適切なシェービングが達成されたことを示すまで、シェービングを続けることができる。そのとき、ブロック6008において、シェービングフィードバックがシェービングが完了したことを示すとき、ユーザはシェービングを停止することができる。
図7は、例えば、シェービングおよび/またはシェービングかみそりの選択/交換に関連して、ユーザを支援するためにカメラを含むかみそり付属品を使用する例示的な方法の論理フロー700を示している。開始ブロックで、ユーザは、かみそり付属品をアクティブ化し、例えば、ユーザデバイス40上またはかみそり付属品10上のシェービングアプリケーションでアクティブ化デバイスを使用することによって、シェービングを開始する。ブロック7001において、ユーザの皮膚表面およびユーザの体の輪郭のうちの少なくとも1つの画像が、カメラ(例えば、かみそり付属品10のカメラ15または別個のカメラ115またはモバイルデバイス40のカメラ)によって記録および/またはスキャンされる。ブロック7002において、カメラに通信可能に接続された制御ユニット(例えば、制御ユニット16、カメラ115の制御ユニット、ユーザデバイス40の制御ユニット、ウェアラブルコンピュータデバイス110の制御ユニット、ベンダープラットフォーム223の制御ユニット、および/またはIoTプラットフォーム222の制御ユニット)は、カメラによって記録された画像の画像データを処理して、ユーザの皮膚表面およびユーザの体の輪郭(例えば、あごの領域、首の領域、脚の領域等)のうちの少なくとも1つの少なくとも1つの身体的特徴を判定する。一実施形態では、センサ20も含むかみそり付属品はまた、センサデータを制御ユニットに送信することができる。ブロック7003において、フィードバック情報は、(例えば、ベンダープラットフォーム223および/またはベンダープラットフォーム223の制御ユニットなどのフィードバック要素の助けを借りて)少なくとも1つの身体的特徴に基づく、(i)少なくとも1つの身体的特徴に適したシェービングカートリッジ、(ii)少なくとも1つの身体的特徴に適したかみそり、および(iii)カメラによって記録されたユーザの皮膚表面およびユーザの体の輪郭のうちの少なくとも1つに残っている毛の量、のうちの少なくとも1つに関するフィードバック情報を提供する。フィードバック情報は、フィードバック要素からインターネットおよびインターネットゲートウェイ220を介してユーザデバイス40、カメラ115、またはウェアラブルコンピュータデバイス110に送信することができる。ブロック7004において、出力ユニット(例えば、カメラ115のディスプレイ、モバイルデバイス40のカメラのディスプレイ、モバイルデバイス40のマイクロフォン/スピーカー、ウェアラブルコンピュータデバイス110、および/またはかみそり付属品10の任意選択のマイクロフォン/スピーカー)は、フィードバック情報をユーザに出力する。図7に示され上記で説明された論理フロー700は、情報および/または情報の処理は、かみそり付属品10、ウェアラブルコンピュータデバイス110、カメラ115、モバイルデバイス40、IoTゲートウェイ2020、クラウドネットワーク221、IoTプラットフォーム222、および/またはカートリッジベンダープラットフォーム2023のうちの2つ以上の間で共有することができる。
図8は、かみそり付属品10のカメラを使用してユーザを支援する別の例示的な方法の論理フロー800を示している。開始ブロックで、ユーザは、かみそり付属品10をアクティブ化し、例えば、ユーザデバイス40上またはかみそり付属品10上のシェービングアプリケーションでアクティブ化デバイスを使用することによって、シェービングを開始する。ブロック8001において、ユーザの皮膚表面およびユーザの体の輪郭のうちの少なくとも1つの画像が、かみそり付属品10のカメラ15によって記録および/またはスキャンされる。ブロック8002において、カメラによって記録された画像の画像データは、インターネットに接続されたインターネットゲートウェイを介して、インターネットに接続されたベンダープラットフォーム(例えば、ベンダープラットフォーム2023)に送信される。ブロック8003において、ベンダープラットフォームに通信可能に接続された制御ユニット(例えば、制御ユニット16、モバイルデバイス40の制御ユニット、ベンダープラットフォーム223の制御ユニット、および/またはIoTプラットフォーム222の制御ユニット)は、カメラ15によって記録された画像の画像データを処理して、ユーザの皮膚表面およびユーザの体の輪郭のうちの少なくとも1つの少なくとも1つの身体的特徴を判定する。一実施形態では、センサ20も含むかみそり付属品はまた、センサデータを制御ユニットに送信することができる。ブロック8004において、フィードバック情報は、(例えば、ベンダープラットフォーム223および/またはカートリッジベンダープラットフォーム223の制御ユニットなどのフィードバック要素の助けを借りて)、少なくとも1つの身体的特徴に基づく、(i)少なくとも1つの身体的特徴に適したシェービングカートリッジ、(ii)少なくとも1つの身体的特徴に適したかみそり、および(iii)かみそり付属品10カメラ15によって記録されたユーザの皮膚表面およびユーザの体の輪郭のうちの少なくとも1つに残っている毛の量、のうちの少なくとも1つに関するフィードバック情報を提供する。ブロック8005において、フィードバック情報は、インターネットに接続されたインターネットゲートウェイを介して、ユーザデバイス40および/またはかみそり付属品10に送信される。ブロック8006において、ユーザデバイス40の出力ユニット(例えば、モバイルデバイス40のディスプレイ)および/またはかみそり付属品10(例えば、かみそり付属品10の任意選択のマイクロフォン/スピーカー)は、フィードバック情報をユーザに送信する。図8に示され上記に説明された論理フロー800は、情報および/または情報の処理は、カメラ15を有するかみそり付属品10、ユーザデバイス40、IoTゲートウェイ220、クラウドネットワーク221、IoTプラットフォーム222、および/またはカートリッジベンダープラットフォーム223のうちの2つ以上の間で共有することができる。
図9は、例えば、シェービングおよび/またはシェービングかみそりの選択/交換に関連して、ユーザを支援するためにウェアラブルコンピュータ110を使用する例示的な方法の論理フロー900を示している。ブロック9001において、ユーザは、ウェアラブルコンピュータデバイス上でシェービングアプリケーションを開始し、シェービングを開始する。ブロック9002において、ウェアラブルコンピュータデバイスは、ユーザが剃るときのユーザのシェービング運動を追跡し110、記録する。ブロック9003において、シェービング運動データは、インターネットに接続されたインターネットゲートウェイを介して、インターネットに接続されたベンダープラットフォーム(例えば、ベンダープラットフォーム223)に送信される。ブロック9004において、ベンダープラットフォームに通信可能に接続された制御ユニット(ウェアラブルコンピュータデバイス110の制御ユニット、カメラ115の制御ユニット、モバイルデバイス40の制御ユニット、ベンダープラットフォーム223の制御ユニット、および/またはIoTプラットフォームの制御ユニット222)は、ウェアラブルコンピュータデバイスによって記録されたシェービング運動データを処理して、少なくとも1つのシェービング運動特性を判定する。ブロック9005において、フィードバック情報は、(例えば、ベンダープラットフォーム223および/またはベンダープラットフォーム223の制御ユニットなどのフィードバック要素の助けを借りて)少なくとも1つのシェービング運動特性に基づく、(i)少なくとも1つの運動特性に適したシェービングカートリッジ、(ii)少なくとも1つの運動特性に適したシェービングかみそり、および(iii)最適なシェービング通知、の少なくとも1つに関するフィードバック情報を提供する。ブロック9005において、フィードバック情報は、インターネットに接続されたインターネットゲートウェイを介して、ウェアラブルコンピュータデバイス110および/またはユーザデバイス40に送信される。ブロック9006において、ウェアラブルコンピュータデバイスまたはモバイルデバイス40の出力ユニット、例えば、ディスプレイ、触覚インターフェース、またはマイクロフォン/スピーカーは、フィードバック情報をユーザに出力する。図9に示され上記で説明された論理フロー900は、情報および/または情報の処理は、ウェアラブルコンピュータデバイス110、モバイルデバイス40、IoTゲートウェイ220、クラウドネットワーク221、IoTプラットフォーム222、および/またはカートリッジベンダープラットフォーム223のうちの2つ以上の間で共有することができる。
図6~9および14~15に示される例示的な技法600、700、800、900、1300、および1400の一部は、部分的および/または全体的に修正および/または組み合わせることができることに留意されたい。例えば、一実施形態では、論理フロー700および/または800に関連して説明されるようにカメラによって記録および/またはスキャンされた画像データは、論理フロー900に関して説明されるように運動追跡と組み合わせて、身体的特徴(複数可)とフィードバック情報の運動特性(複数可)との両方を判定することができる。本明細書に説明されるように、かみそり付属品は、シェービング運動の持続時間を追跡するために1つ以上のセンサを備えることができる。したがって、かみそり付属品10内のウェアラブルコンピュータデバイス110の追跡および/またはセンサは、ユーザが剃毛するときのユーザのシェービング運動を追跡および記録することができる。
図11は、1つ以上の実施形態による、論理フロー700、論理フロー800、および論理フロー900、記憶媒体1100、コントローラ16、ウェアラブルコンピュータデバイス110、ユーザデバイス40、および1つ以上を実装することができる通信デバイス1500、かみそり付属品10の回路の1つ以上の機能の実施形態を示している。例示的な実施形態では、通信デバイス1500は、例えば、論理フロー700、論理フロー800、および論理フロー900のうちの1つ以上について説明された動作を実行するための物理回路を含むことができる論理回路1528を備えることができる。さらに、通信デバイス1500は、無線インターフェース1510、ベースバンド回路1520、およびコンピューティングプラットフォーム1530を含むことができる。しかしながら、実施形態は、この例示的な構成に限定されない。
通信デバイス1500は、(i)単一のコンピューティングエンティティで、例えば単一のデバイス、または(ii)分散方式で、論理フロー700、論理フロー800、および論理フロー900、記憶媒体1100、コントローラ15、ウェアラブルコンピュータデバイス110、ユーザデバイス40、かみそり付属品110の回路の1つ以上の機能、および論理回路1528のうちの1つ以上の構造および/または動作のいくつかまたはすべてを実装することができる。後者の場合、通信デバイス1500は、論理フロー700、論理フロー800、および論理フロー900、記憶媒体1100、コントローラ15、ウェアラブルコンピュータデバイス110、ユーザデバイス40のうちの1つ以上の構造および/または運動の一部、かみそり付属品110の回路および論理回路1528の1つ以上の機能を、分散システムアーキテクチャ、例えば、マスタースレーブアーキテクチャ、クライアントサーバアーキテクチャ、ピアツーピアアーキテクチャ、共有データベースアーキテクチャなどを使用して複数のコンピューティングプラットフォームおよび/またはエンティティにわたって、分散することができる。実施形態は、この文脈に限定されない。
記憶媒体1110は、とりわけ、アプリケーション111および/または他のデータを記憶するために通信デバイス1100によって利用され得る1つ以上のデータ記憶をさらに含む。アプリケーション111は、論理フロー700、論理フロー800、および論理フロー900に関連して説明されたものと同様のプロセスまたはプロセスの一部を使用して、そのアクションの少なくともいくつかを実行することができる。
例示的な実施形態では、無線インターフェース1510は、CCK(相補コードキーイング)、OFDM(直交周波数分割多重方式)、および/またはSC-FDMA(シングルキャリア周波数分割多元接続)シンボルなどのシングルキャリアまたはマルチキャリア変調信号を送信および/または受信するように適合された1つ以上の構成要素(複数可)を含むことができる。無線インターフェース1510は、例えば、受信機1511、周波数シンセサイザ1514、送信機1516、および1つ以上のアンテナ1518を含むことができる。しかしながら、実施形態は、これらの例に限定されない。
受信信号および/または送信信号を処理するために無線インターフェース1510と通信するベースバンド回路1520は、アナログ-デジタル変換器、デジタル-アナログ変換器、および受信/送信信号の物理リンク層処理のためのベースバンドまたは物理層(PHY)処理回路を含むユニット1522を含むことができる。ベースバンド回路1520はまた、例えば、インターフェース1534を介してコンピューティングプラットフォーム1530と通信するためのメモリコントローラ1532を含むことができる。
デバイス1500にコンピューティング機能を提供することができるコンピューティングプラットフォーム1530は、プロセッサ1540および他のプラットフォームコンポーネント1750、例えば、プロセッサ、センサメモリユニット、チップセット、コントローラ、周辺機器、インターフェース、入力/出力(I/O)コンポーネント、電源などを含むことができる。
デバイス1500は、例えば、モバイルデバイス、スマートフォン、固定デバイス、マシンツーマシンデバイス、パーソナルデジタルアシスタント(PDA)、ウェアラブルコンピュータデバイス、モバイルコンピューティングデバイス、ユーザ機器、コンピュータ、ネットワークアプライアンス、Webアプライアンス、コンシューマエレクトロニクス、プログラム可能なコンシューマエレクトロニクス、ゲームデバイス、テレビ、デジタルテレビ、セットトップボックス、ワイヤレスアクセスポイント、ベースステーション、サブスクライバステーション、モバイルサブスクライバセンター、無線ネットワークコントローラ、ルータ、ハブ、ゲートウェイなどとすることかできる。これらの例は限定的なものではない。
様々な実施形態のうちの少なくとも1つでは、デバイス1500は、ベンダープラットフォームまたはサードパーティおよび/または外部コンテンツプロバイダサービスを、プラットフォーム(複数可)によって提供されるAPIまたは他の通信インターフェースを使用して統合および/または通信するように構成することができる。例えば、ベンダープラットフォーム223のプロバイダサービスは、ベンダープラットフォーム223がプラットフォームによって提供されるフィードバックに関連付けることができる様々なイベントを決定できるようにするHTTP/RESTベースのインターフェースを提供することができる。
図12は、プラットフォーム1200として構成された例示的なシステム実施形態であり、これは、例えば、プロセッサ902、チップセット904、I/O(入力/出力)デバイス906、DRAM(ダイナミックRAM)などのRAM(ランダムアクセスメモリ)908、およびROM(読み取り専用メモリ)910、ワイヤレス通信チップ916、グラフィックスデバイス918、およびディスプレイ920、ならびに他のプラットフォームコンポーネント914(例えば、冷却システム、ヒートシンク、ベント、など)を含むことができ、これらは、バス312およびチップセット904を介して互いに結合される。この例は限定的なものではない。
プラットフォーム1200のグラフィカルユーザインターフェースは、様々な実施形態のうちの少なくとも1つに対して生成することができる。いくつかの実施形態では、ユーザインターフェースは、Webページ、モバイルアプリケーション、電子メール、PDFドキュメント、テキストメッセージなどを使用して生成することができる。様々な実施形態のうちの少なくとも1つでは、ベンダープラットフォーム、ユーザデバイス、カメラ、およびウェアラブルコンピュータなどは、ユーザインターフェースを生成するためのプロセスおよび/またはAPIを含むことができる。
方法1300が図13に示されており、これは、かみそり付属品10内のプロセッサ16によって実行されるように構成された様々なファームウェアプロトコルを示している。図13は、かみそり付属品のファームウェアプロトコルに関して説明されているが、同様のプロトコルを、ウェアラブルコンピュータデバイス110上で実行されるアプリケーション111のために配置することができる。方法1300は、かみそり付属品10が電力を節約するように構成された「スリープモード」にあるとき、ブロック802で開始することができる。方法1300は、ブロック804に進むことができ、プロセッサ16は、かみそり付属品10が使用のためにアクティブ化されたかどうか、例えば、入力デバイスが第1の閾値期間、例えば2秒より長く押し下げられているかどうか、またはカメラの電源が入っているかどうかを判定することができる。プロセッサ16がデバイスがオンであると判定した場合、ブロック805で、バッテリ13への接続またはバッテリ13の電力レベルを判定することができる。バッテリ13の電力レベルが比較的低いと判定された場合(ブロック806)、または完全に電源が切られたと判定された場合、ブロック808において、赤色LEDまたは他の低バッテリ表示がアクティブ化され、プロセッサ16は、ブロック802においてスリープモードに移行することができる。いくつかの例では、プロセッサ16が、バッテリ13が、例えば、ワイヤレストランシーバ17を介して少なくとも10分間のユーザデバイス40の接続を提供できないと判定した場合、バッテリ13は低電力レベルを有すると定義することができる。
しかしながら、ブロック805において、プロセッサ16が、バッテリ13が例えば、シェービングセッションに進むのに十分な電力レベルを有すると判定した場合(ブロック810)、ブロック812において、緑色のLED、または十分なバッテリレベルを示す他の表示がアクティブ化される。
プロセッサ16が、バッテリ13がシェービングセッションに進むのに十分な電力を有すると判定した場合(ブロック812)、方法1300は、図13のケース1およびケース2として識別される例など、多数の例示的な潜在的経路のうちのいずれか1つに進むことができる。
ケース1(ブロック814)は、例えば5秒を超える延長された入力の間、デバイスがオンにされた(例えば、比較的長いセンサ入力または画像の運動)ときに起こることができる。比較的長い入力は、例えば、ユーザが最初に長いシェービングストロークを介してシェービングを開始したとき、またはユーザが入力デバイスを、第1の閾値期間よりも長い第2の閾値期間を超えてアクティブ化したときに(「オン」)起こることができる。第2の閾値期間は、例えば5秒とすることができるか、または別の適切な期間とすることができる。第2の閾値期間の代わりに、プロセッサ16は、例えば、入力デバイスの複数の迅速かつ連続的なアクティブ化など、ブロック814で異なるコマンドに応答することができる。プロセッサ16がブロック814で肯定的な判定を行った場合、ブロック816において、ワイヤレス通信モジュール17(例えば、Bluetooth低エネルギー送信機)をアクティブ化することができ、ブロック818で、第1の青色LED表示をアクティブ化して、そのワイヤレス通信モジュール17が「検出可能」モードであることを示すことができる。ブロック820において、ワイヤレス通信モジュール17は、例えば、ユーザデバイス40内のBluetooth低エネルギー受信機などの互換性のある受信機を検索することができる。検索は、例えば、1秒に1回の速度、またはその他の適切な速度で実行することができる。ブロック822において互換性のあるデバイスが見つかった場合、ブロック824においてかみそり付属品10と互換性のあるデバイスとが互いにペアリングされる。ブロック826で第2の青色LED表示(例えば、複数の点滅するライト)をアクティブ化して、ペアリングが成功したことを示すことができる。次に、ブロック828aにおいて、プロセッサ16は、ユーザデバイス40上で実行されるアプリケーションを介して提供される命令に従うことができる。しかしながら、ブロック822において互換性のあるデバイスが見つからない場合、ブロック830において、適切な回数、例えば、互換性のあるデバイスを見つけるために所定の期間内に30回の試行を行うことができる。規定された回数の試行の後、互換性のあるデバイスが見つからない場合、ブロック802において、プロセッサ16はスリープモードに移行することができる。
方法1400が図14に示されており、これは、かみそり付属品10のアプリケーションまたはウェアラブルコンピュータデバイス110のアプリケーション111のためにプロセッサ1500によって実行されるように構成された様々なソフトウェアプロトコルを示している。方法1400は、例えば、スマートフォン、スマートデバイス、またはコンピュータ、または他のユーザデバイス40にインストールされたアプリケーションを開始することができるブロック902において開始することができる。ブロック904において、アプリケーションは、デバイス上のBluetoothまたは別のワイヤレスプロトコルをオンにするか、またはデバイスを選択するようにユーザに促すことができる。ブロック908において、デバイス40とかみそり付属品10またはウェアラブルコンピュータデバイス110との間の接続を行うことができる。ブロック908から、方法は、電池情報をアプリケーションに表示することができるブロック910、および/またはメニューをユーザに提示することができるブロック912に進むことができる。図14に示されるように、例示的なメニューは、(a)「フラッシュメモリからデータを取得する」、(b)「リアルタイムデータ(ストローク)を取得する」、(c)「アプリを終了する」、および/または(d)「フラッシュメモリを削除する」を含むことができる。ブロック912において、ユーザが「フラッシュメモリからデータを取得する」を選択した場合、方法は、ブロック914に進むことができ、そこで、プロセッサはかみそり付属品10のメモリを読み取ることができ、ブロック916において、格納されたデータのファイル(例えば、csvファイル)のエクスポートを開始することができる。方法1400は、ブロック918に進むことができ、そこで、ユーザに、フラッシュメモリを削除するかどうかを選択するよう促すことができる。ブロック918において、ユーザが「いいえ」を選択した場合、ブロック920において、方法1400は、ブロック922に進み、メニューであるブロック912に戻ることができる。しかしながら、ブロック918において、ユーザが「はい」を選択した場合、ブロック924において、方法1400は、ブロック926に進んで、メモリ726を消去することができる。次に、方法900は、ブロック926から「終了」であるブロック922に進むことによって終了することができる。
ブロック912において、ユーザが「リアルタイムデータ(ストローク)を取得する」を選択した場合、方法1400は、ブロック928に進むことができ、そこで、例えば、行われたシェービングストロークの数および長さを含むリアルタイムストロークデータを収集して、スマートフォン、スマートデバイス、コンピュータ、または他のユーザデバイス40の画面を介してユーザに表示することができる。次に、方法1400は、ブロック928から「終了」であるブロック922に進むことによって終了することができる。
ブロック912において、ユーザが「アプリを終了する」を選択した場合、方法1400は、ブロック930に進んで、このアクションの確認を要求することができる。ユーザがブロック932において「No」を選択した場合、方法1400は、「終了」であるブロック922に進むことによって終了することができる。ユーザがブロック934においてアプリケーションを終了する必要があることを確認した場合、かみそり付属品10との接続、例えば、Bluetooth接続を、ブロック936において切断することができ、アプリケーションを、ブロック938において閉じることができる。ブロック912において、ユーザが「フラッシュメモリを削除する」を選択した場合、方法1400は、上記のブロック918に進むことができる。ブロック922に進むことによって方法900が終了する各インスタンスにおいて、方法1400は、ブロック912に関連して上記のメニューにユーザを戻すことができる。
上で詳述したように、本開示の実施形態は、画像データを提供するためのカメラ15、および任意選択で、かみそり付属品10に関連する1つ以上のセンサを説明する。本開示の実施形態はまた、ウェアラブルコンピュータデバイス110に関連するアプリケーション111および1つ以上のセンサを説明する。かみそり付属品10またはウェアラブルコンピュータデバイス110は、例えば、かみそり1で行われたストロークの数、シェービングセッションの長さ、剃られた体の領域、シェービングストロークの持続時間、および/または刃に適用された力、およびその結果としてユーザが剃った肌に関するデータを取得するように構成される。1つ以上のプロセッサ(複数可)1500は、(適切なアルゴリズムを介して)画像またはセンサに関連するデータ、ならびに期間に関連するセンサデータまたは画像データを分析して、シェービングセッションの長さを判定するように構成することができる。いくつかの実施形態では、かみそり付属品10またはウェアラブルコンピュータデバイス110から得られたデータから判定された情報は、例えば、スマートフォン、スマートデバイス、コンピュータ、および/または他のユーザデバイス40上の画面を介してユーザに表示することができる。データはまた、適切なサードパーティ、例えば、シェーバまたはそのコンポーネントの製造業者に送信することができる。
シェービングストロークの数とストローク期間を履歴データと比較することによる、剃られた身体の領域。例えば、腋毛のシェービングセッションは、一般に、顔のシェービングセッションに一般的に関連するシェービングストロークの20%を構成することができる。
本明細書に記載の技術は例示的なものであり、本開示に対する特定の制限を意味するものとして解釈されるべきではない。当業者であれば、様々な代替、組み合わせ、および修正を考案できることを理解されたい。例えば、ここで説明するプロセスに関連するステップは、ステップ自体によって別段の指定または指示がない限り、任意の順序で実行することができる。本開示は、添付の特許請求の範囲内にあるそのようなすべての代替案、修正、および差異を包含することを意図している。
フローチャート図の各ブロック、およびフローチャート図中のブロックの組み合わせは、コンピュータプログラム命令によって実装できることが理解されよう。これらのプログラム命令は、プロセッサ上で実行される命令がフローチャートブロックまたは複数のブロックで指定されたアクションを実装するための手段を作成するように、マシンを生成するためにプロセッサに提供することができる。コンピュータプログラム命令は、プロセッサによって実行されて、一連の操作ステップがプロセッサによって実行され、コンピュータで実装されるプロセスを生成し、プロセッサ上で実行される命令が、フローチャートブロックまたは複数のブロック内で指定されたアクションを実装するためのステップを提供するようにすることができる。コンピュータプログラム命令はまた、フローチャートのブロック内に示される操作ステップの少なくともいくつかを並行して実行させることができる。さらに、いくつかのステップは、マルチプロセッサコンピュータシステムまたは複数のコンピュータシステムのグループでさえ発生する可能性があるように、複数のプロセッサにわたって実行することもできる。さらに、フローチャート図の1つ以上のブロックまたはブロックの組み合わせは、他のブロックまたはブロックの組み合わせと同時に、または本発明の範囲または精神から逸脱することなく、図示とは異なる順序でさえも実行することができる。
したがって、フローチャート図のブロックは、指定されたアクションを実行するための手段の組み合わせ、指定されたアクションを実行するためのステップの組み合わせ、および指定されたアクションを実行するためのプログラム命令手段の組み合わせをサポートする。フローチャート図の各ブロック、およびフローチャート図のブロックの組み合わせは、指定されたアクションまたはステップを実行する専用ハードウェアベースのシステム、または専用ハードウェアとコンピュータ命令の組み合わせによって実装できることも理解されよう。前述の例は、限定的および/または網羅的であると解釈されるべきではなく、むしろ、様々な実施形態のうちの少なくとも1つの実装を示すための例示的な使用例として解釈されるべきである。
コンピュータ可読記憶媒体または機械可読記憶媒体のいくつかの例としては、電子データを記憶することができる有形媒体、例えば、揮発性メモリまたは不揮発性メモリ、取り外し可能または取り外し不可能なメモリ、消去可能または消去不可能なメモリ、書き込み可能または再書き込み可能なメモリなどが挙げられる。コンピュータ実行可能命令のいくつかの例としては、適切なタイプのコード、例えば、ソースコード、コンパイルされたコード、インタプリタコード、実行可能コード、静的コード、動的コード、オブジェクト指向コード、ビジュアルコードなどが挙げられる。この例は、このコンテキストに限定されるものではない。
「含む(comprise)」または「含む(comprising)」という用語は、記載された特徴、整数、ステップまたは構成要素の存在を指定するものとして解釈されるべきであるが、1つ以上の他の特徴、整数、ステップまたは構成要素またはそれらのグループの存在を排除するものではない。「a」および「an」という用語は不定冠詞であり、したがって、複数の冠詞を有する実施形態を排除するものではない。「結合された」、「接続された」および「リンクされた」という用語は、本開示において交換可能に使用され、実質的に同じ意味を有する。
いくつかの実施形態は、それらの派生物とともに「一実施形態」または「実施形態」という表現を使用して説明され得る。これらの用語は、実施形態に関連して説明される特定の特徴、構造、または特性が少なくとも1つの実施形態に含まれることを意味する。本明細書の様々な場所での「実施形態」という句の出現は、必ずしもすべてが同じ実施形態を指すとは限らない。

Claims (15)

  1. かみそり付属品であって、
    本体部を備え、前記本体部が、
    シェービングプロセス中に画像を記録するように構成されたカメラと、
    前記かみそり付属品をかみそりに機械的に取り付けるように構成された留め具と、を備え、
    前記かみそり付属品が、前記カメラによって記録された前記画像の画像データを処理して、ユーザの皮膚表面およびユーザの体の輪郭のうちの少なくとも1つの身体的特徴を決定するように構成された制御ユニットに通信可能に接続される、かみそり付属品。
  2. 前記カメラが前記画像を記録するときに、前記ユーザの皮膚表面および前記ユーザの体の輪郭のうちの前記少なくとも1つを照らすように構成された光源をさらに備える、請求項1に記載のかみそり付属品。
  3. ンドルに巻き付き、前記かみそり付属品を固定するように構成された少なくとも2つの可撓性フラップをさらに含む、請求項1または2に記載のかみそり付属品。
  4. 前記フラップが、機械的留め具を含む、請求項3に記載のかみそり付属品。
  5. 通知ユニットをさらに含む、請求項1~4のいずれか一項に記載のかみそり付属品。
  6. 前記通知ユニットが、視覚的、触覚的および/または音による通知を生成するように構成されている、請求項5に記載のかみそり付属品。
  7. 外部電源接続および/または外部データ接続のためのインターフェースとして構成されたインターフェースユニットをさらに含む、請求項1~6のいずれか一項に記載のかみそり付属品。
  8. ワイヤレス通信用のトランシーバユニットをさらに含む、請求項1~7のいずれか一項に記載のかみそり付属品。
  9. 少なくともいくつかのデータ転送プロトコルが、ハイパーテキスト転送プロトコル(HTTP)、メッセージキューイングテレメトリトランスポート(MQTT)、および制約付きアプリケーションプロトコル(CoAP)を含む、請求項8に記載のかみそり付属品。
  10. 前記かみそり上の前記付属品のユーザの活動を検出するための1つ以上の活動センサを含む、請求項1~9のいずれか一項に記載のかみそり付属品。
  11. 前記活動センサが、運動を検出するための1つ以上のタイプのセンサを含む、請求項10に記載のかみそり付属品。
  12. より多くのまたは前記活動センサのうちの1つが、加速度計、ジャイロスコープ、運動センサ、および/またはそれらの組み合わせを含む、請求項11に記載のかみそり付属品。
  13. ワイヤレス通信用のトランシーバユニットをさらに含み、前記活動センサのうちの1つ以上が、前記トランシーバユニットに動作可能に接続されている、請求項10~12のいずれか一項に記載のかみそり付属品。
  14. 前記1つ以上の活動センサが、ユーザが前記かみそり付属品を用いた活動中であるかどうかを決定するように構成されている活動データを生成するように構成されている、請求項10~13のいずれか一項に記載のかみそり付属品。
  15. シェービングシステム用に構成されたウェアラブルコンピュータデバイスであって、
    シェービング中のユーザのシェービング運動を追跡するための1つ以上のセンサであって、前記ウェアラブルコンピュータデバイスが、少なくとも1つのシェービング運動特性を決定するように構成された制御ユニットに通信可能に接続されている、1つ以上のセンサと、
    前記少なくとも1つのシェービング運動特性に基づいてフィードバック情報を提供するのを助けるように構成されたフィードバック要素と、を備える、ウェアラブルコンピュータデバイス。
JP2020563780A 2018-06-08 2019-06-06 スマートシェービング付属品 Active JP7343527B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862682292P 2018-06-08 2018-06-08
US62/682,292 2018-06-08
PCT/EP2019/064770 WO2019234144A1 (en) 2018-06-08 2019-06-06 Smart shaving accessory

Publications (2)

Publication Number Publication Date
JP2021525115A JP2021525115A (ja) 2021-09-24
JP7343527B2 true JP7343527B2 (ja) 2023-09-12

Family

ID=66912785

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020563780A Active JP7343527B2 (ja) 2018-06-08 2019-06-06 スマートシェービング付属品

Country Status (6)

Country Link
US (1) US11529745B2 (ja)
EP (1) EP3802022A1 (ja)
JP (1) JP7343527B2 (ja)
KR (1) KR20210018798A (ja)
CN (1) CN112088076B (ja)
WO (1) WO2019234144A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11007659B2 (en) * 2014-12-10 2021-05-18 Haggai Goldfarb Intelligent shaving system having sensors
WO2019011523A1 (en) * 2017-07-14 2019-01-17 Bic Violex S.A. APPARATUSES AND METHODS FOR MEASURING SKIN CHARACTERISTICS AND IMPROVING SHAVING EXPERIENCES
EP3715070A1 (en) * 2019-03-26 2020-09-30 Koninklijke Philips N.V. A computer-implemented method for providing visual feedback to a user of a rotary shaver, and an apparatus and computer program product implementing the same
EP3838521A1 (en) * 2019-12-18 2021-06-23 Société BIC Razor component including a pressure-responsive phase-change component
EP3885084A1 (en) * 2020-03-27 2021-09-29 Bic Violex S.A. System and method for assisting shaving
US11801610B2 (en) 2020-07-02 2023-10-31 The Gillette Company Llc Digital imaging systems and methods of analyzing pixel data of an image of a user's body for determining a hair growth direction value of the user's hair
US11741606B2 (en) * 2020-07-02 2023-08-29 The Gillette Company Llc Digital imaging systems and methods of analyzing pixel data of an image of a user's body after removing hair for determining a user-specific hair removal efficiency value
US11419540B2 (en) * 2020-07-02 2022-08-23 The Gillette Company Llc Digital imaging systems and methods of analyzing pixel data of an image of a shaving stroke for determining pressure being applied to a user's skin
US11890764B2 (en) * 2020-07-02 2024-02-06 The Gillette Company Llc Digital imaging systems and methods of analyzing pixel data of an image of a user's body for determining a hair density value of a user's hair
US20240217131A1 (en) * 2021-05-14 2024-07-04 Sunbeam Products, Inc. Hair clippers
EP4108397A1 (en) 2021-06-22 2022-12-28 Koninklijke Philips N.V. Determining a beard growth distribution for a subject

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160167241A1 (en) 2014-12-10 2016-06-16 Haggai Goldfarb Intelligent shaving system having sensors
JP2016106806A (ja) 2014-12-05 2016-06-20 株式会社泉精器製作所 剃り残し判定方法、剃り残し判定プログラム、画像表示プログラム、電気かみそり、および髭剃りシステム
JP2017500906A (ja) 2013-11-06 2017-01-12 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 身体部位を処置するためのシステム及び方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999026411A1 (en) * 1997-11-13 1999-05-27 Aqua Communications, Inc. Finger-mountable video camera
JP3462986B2 (ja) * 1998-08-31 2003-11-05 株式会社日立製作所 カメラ付きペン型入力装置
WO2009076301A2 (en) 2007-12-07 2009-06-18 Eveready Battery Company, Inc. Shaving data device
US20100186234A1 (en) 2009-01-28 2010-07-29 Yehuda Binder Electric shaver with imaging capability
CN102470532B (zh) 2009-08-13 2016-01-27 May专利有限公司 具有成像能力的电动剃须刀
US8928747B2 (en) * 2011-07-20 2015-01-06 Romello J. Burdoucci Interactive hair grooming apparatus, system, and method
CN105741256B (zh) 2014-12-09 2020-08-04 富泰华工业(深圳)有限公司 电子设备及其刮须提示系统与方法
US11007659B2 (en) * 2014-12-10 2021-05-18 Haggai Goldfarb Intelligent shaving system having sensors
RU2719426C2 (ru) 2015-07-17 2020-04-17 Конинклейке Филипс Н.В. Устройство и способ определения положения мобильного устройства относительно субъекта
EP4321088A3 (en) 2015-08-20 2024-04-24 Apple Inc. Exercise-based watch face
EP3372357A1 (en) * 2017-03-10 2018-09-12 Koninklijke Philips N.V. Handheld personal care device and method of estimating a position and/or an orientation of a handheld personal device relative to a subject
CN107718059B (zh) 2017-10-31 2019-11-15 北京小米移动软件有限公司 毛发修理设备的控制方法及装置、毛发修理设备
EP3899974A1 (en) * 2018-12-21 2021-10-27 The Procter & Gamble Company Apparatus and method for operating a personal grooming appliance or household cleaning appliance

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017500906A (ja) 2013-11-06 2017-01-12 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 身体部位を処置するためのシステム及び方法
JP2016106806A (ja) 2014-12-05 2016-06-20 株式会社泉精器製作所 剃り残し判定方法、剃り残し判定プログラム、画像表示プログラム、電気かみそり、および髭剃りシステム
US20160167241A1 (en) 2014-12-10 2016-06-16 Haggai Goldfarb Intelligent shaving system having sensors

Also Published As

Publication number Publication date
CN112088076A (zh) 2020-12-15
US20210260780A1 (en) 2021-08-26
CN112088076B (zh) 2023-10-10
EP3802022A1 (en) 2021-04-14
US11529745B2 (en) 2022-12-20
WO2019234144A1 (en) 2019-12-12
JP2021525115A (ja) 2021-09-24
KR20210018798A (ko) 2021-02-18

Similar Documents

Publication Publication Date Title
JP7343527B2 (ja) スマートシェービング付属品
JP7138123B2 (ja) シェーバとシェービング特性を検出する方法
EP3525621B1 (en) Connected hairbrush
RU2665443C2 (ru) Система и способ управления движениями пользователя во время процедуры бритья
US10292606B2 (en) System and method for determining performance capacity
US11785330B2 (en) Personal care device with camera
CN105373219B (zh) 可穿戴装置及其操作方法
EP3513923B1 (en) Method for generating user feedback information from a shave event
EP3513925B1 (en) Networked shaving appliance system
US20160051184A1 (en) System and method for providing sleep recommendations using earbuds with biometric sensors
JP7351852B2 (ja) シェービング作業でユーザーを支援するように構成されているシステム、シェービング作業でユーザーを支援するための方法
CN104808783A (zh) 移动终端及其控制方法
US20160029974A1 (en) System and method for tracking biological age over time based upon heart rate variability using earphones with biometric sensors
EP3513924B1 (en) Method for generating user feedback information from a shave event
FR3039773A1 (fr) Procedes et systemes de stimulation acoustique des ondes cerebrales.
US10420474B2 (en) Systems and methods for gathering and interpreting heart rate data from an activity monitoring device
CN213551697U (zh) 个人护理设备
WO2020260904A1 (en) Apparatus for monitoring
CN113963522A (zh) 智能剃须刀及系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220506

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230831

R150 Certificate of patent or registration of utility model

Ref document number: 7343527

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150