JP7351852B2 - シェービング作業でユーザーを支援するように構成されているシステム、シェービング作業でユーザーを支援するための方法 - Google Patents

シェービング作業でユーザーを支援するように構成されているシステム、シェービング作業でユーザーを支援するための方法 Download PDF

Info

Publication number
JP7351852B2
JP7351852B2 JP2020560311A JP2020560311A JP7351852B2 JP 7351852 B2 JP7351852 B2 JP 7351852B2 JP 2020560311 A JP2020560311 A JP 2020560311A JP 2020560311 A JP2020560311 A JP 2020560311A JP 7351852 B2 JP7351852 B2 JP 7351852B2
Authority
JP
Japan
Prior art keywords
camera
user
razor
shaving
internet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020560311A
Other languages
English (en)
Other versions
JP2021523762A (ja
Inventor
ブレッテ,トーマス
Original Assignee
ビック・バイオレクス・エス・エー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ビック・バイオレクス・エス・エー filed Critical ビック・バイオレクス・エス・エー
Publication of JP2021523762A publication Critical patent/JP2021523762A/ja
Application granted granted Critical
Publication of JP7351852B2 publication Critical patent/JP7351852B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B26HAND CUTTING TOOLS; CUTTING; SEVERING
    • B26BHAND-HELD CUTTING TOOLS NOT OTHERWISE PROVIDED FOR
    • B26B19/00Clippers or shavers operating with a plurality of cutting edges, e.g. hair clippers, dry shavers
    • B26B19/38Details of, or accessories for, hair clippers, or dry shavers, e.g. housings, casings, grips, guards
    • B26B19/3873Electric features; Charging; Computing devices
    • B26B19/388Sensors; Control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B26HAND CUTTING TOOLS; CUTTING; SEVERING
    • B26BHAND-HELD CUTTING TOOLS NOT OTHERWISE PROVIDED FOR
    • B26B21/00Razors of the open or knife type; Safety razors or other shaving implements of the planing type; Hair-trimming devices involving a razor-blade; Equipment therefor
    • B26B21/40Details or accessories
    • B26B21/405Electric features; Charging; Computing devices
    • B26B21/4056Sensors or controlling means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B26HAND CUTTING TOOLS; CUTTING; SEVERING
    • B26BHAND-HELD CUTTING TOOLS NOT OTHERWISE PROVIDED FOR
    • B26B21/00Razors of the open or knife type; Safety razors or other shaving implements of the planing type; Hair-trimming devices involving a razor-blade; Equipment therefor
    • B26B21/40Details or accessories
    • B26B21/4081Shaving methods; Usage or wear indication; Testing methods

Description

相互参照の相互参照
この出願は、2018年5月21日に出願された「A SMART SHAVING SYSTEM WITH A 3D CAMERA」と題された米国仮特許出願第62/674,099号に対する米国特許法第119条に基づく利益を主張し、参照により本明細書に組み込まれる。
本開示は、かみそりハンドル、および1つ以上のブレードを有する交換可能なカートリッジを有するシェービングかみそりを有するスマートシェービングシステムに関する。より具体的には、本開示は、シェービングかみそりのユーザーを支援する3Dカメラを有するスマートシェービングシステムに関する。
最適なシェービング結果を達成するためには、ユーザーの固有の身体的特性、例えば、皮膚輪郭、皮膚タイプ、皮膚特性、ほくろ、傷跡、埋没毛、成長、毛タイプ、および毛の太さに、シェービングかみそりの選択を合わせると便利である。加えて、ユーザーが(例えば、視覚精査または2D(二次元)カメラを使用して)上記のようなユーザーに固有の身体的特性を決定すること、ならびに特定の皮膚表面領域が適切に剃られているかどうかを決定することは、しばしば困難である。したがって、(i)ユーザーの固有の身体的特性を決定するのを支援し、その決定が次に、ユーザーの固有の身体的特性に、シェービングかみそりの選択を合わせるのを支援する、および(ii)特定の皮膚表面領域が適切に剃られているかどうかを決定するのを支援する、システムが必要である。
本開示は、シェービングかみそりのユーザーを支援するように、3D(三次元)カメラを有するスマートシェービングシステムを提供する。
本開示はまた、シェービングかみそりのユーザーを支援するように、3Dカメラを有するスマートシェービングシステムを提供し、この3Dカメラは、かみそりに組み込まれている。
本開示はまた、シェービングかみそりのユーザーを支援するように、3Dカメラを有するスマートシェービングシステムを提供し、この3Dカメラは、かみそりのユーザーが特定の皮膚表面領域が適切に剃られているかどうかを決定するのを支援するように、かみそりに組み込まれる。
本開示はまた、シェービングかみそりに組み込まれた3Dカメラを有するスマートシェービングシステムを提供し、このかみそりは、スタンドアロンのモノのインターネット(IoT)デバイスとして機能するように、ハードウェア/ソフトウェア能力を有する。
本開示はさらに、シェービングかみそりのユーザーを支援するように、3Dカメラを有するスマートシェービングシステムを提供し、この3Dカメラは、(i)特定の身体領域の皮膚表面が適切に剃られているかどうかを決定する、および/または(ii)(シェービングの前に3Dスキャンが実行されて、記憶されることによって)シェービングの間ユーザーに案内するために、剃られる身体領域(例えば、顔、脚など)の3Dスキャンをユーザーが実行することを可能にするように、かみそりに組み込まれている。
本開示はさらに、シェービングかみそりのユーザーを支援するように、3Dカメラを有するスマートシェービングシステムを提供し、この3Dカメラは、シェービングかみそりに通信可能に接続されている。
本開示はさらに、シェービングかみそりのユーザーを支援するように、3Dカメラを有するスマートシェービングシステムを提供し、この3Dカメラは、かみそりのユーザーが特定の皮膚表面領域が適切に剃られているかどうかを決定するように、シェービングかみそりに通信可能に接続されている。
本開示はさらに、シェービングかみそりのユーザーを支援するように、3Dカメラを有するスマートシェービングシステムを提供し、この3Dカメラは、モノのインターネット(IoT)ゲートウェイを介してかみそりカートリッジベンダープラットフォームに通信可能に接続されている。
本開示はさらに、シェービングかみそりのユーザーを支援するように、3Dカメラを有するスマートシェービングシステムを提供し、この3Dカメラは、(i)特定の身体領域の皮膚表面が適切に剃られているかどうかを決定する、および/または(ii)(シェービングの前に3Dスキャンが実行されて、記憶されることによって)シェービングの間ユーザーに案内するために、剃られる身体領域(例えば、顔、脚など)の3Dスキャンをユーザーが実行することを可能にするように、シェービングかみそりに通信可能に接続されている。
本開示はさらに、シェービングかみそりのユーザーを支援するように、3Dカメラを有するスマートシェービングシステムを提供し、この3Dカメラは、(i)特定の皮膚表面領域が適切に剃られているかどうかをユーザーが決定するのを支援するように、かつ/または(ii)特定のユーザーの身体的特性(例えば、皮膚および/または毛)に適したシェービングカートリッジおよび/またはかみそりのタイプに関してユーザーを支援するように、モノのインターネット(IoT)ゲートウェイを介して、シェービングかみそりおよび/またはかみそりカートリッジベンダープラットフォームに通信可能に接続されている。
本開示はさらに、3Dカメラ、かみそり、かみそりカートリッジベンダープラットフォーム、および/または他のリンクされたデバイスが、特定のユーザーの身体的特徴(例えば、毛と皮膚タイプ)、過去のシェービングカートリッジ情報、および/または特定のユーザーの身体的特性(例えば、皮膚および/または毛)に適したシェービングカートリッジ、および/またはかみそりのタイプ、過去のシェービングカートリッジ情報、およびシェービング習慣に関して特定のユーザーを支援するためのシェービング習慣を、アクセス、および/または累積的に収集、保存、および/または分析することができる、スマートシェービングシステムを提供する。
シェービングカートリッジの実施例の斜視図である。 シェービングカートリッジの上面図である。 図2の線A-Aに沿ったシェービングカートリッジの断面図である。 ハンドルおよびシェービングカートリッジを有するかみそりの斜視図である。 ハンドルおよびシェービングカートリッジを有するかみそりの別の斜視図である。 本開示の実施形態による、かみそりおよび外部通信基盤の様々な電気/電子コンポーネント、ならびにかみそりと外部通信基盤との間の通信経路を示す概略図である。 本開示の別の実施形態による、かみそりの様々な電気/電子コンポーネント、ならびにかみそり、外部デバイス、および外部通信基盤の間の通信経路を示す概略図である。 例示的な実施形態による、方法の論理フローチャートである。 別の例示的な実施形態による、方法の論理フローチャートである。 さらに別の例示的な実施形態による、方法の論理フローチャートである。 本明細書の実施形態による、コンピュータ可読記憶媒体である。 本明細書で1つ以上の論理フローを実装するための通信デバイスの一実施形態である。 本開示のシステムの一実施形態である。
複数の図面に共通する、コンポーネントまたは特徴は、図面の各々で同じ参照番号で示されている。
図面、特に図1を参照すると、シェービングカートリッジが示されており、概して参照番号100によって表されている。シェービングカートリッジ100は、ブレード117をシェービングカートリッジ100に固定するためのリテーナ200を含む。シェービングカートリッジ100はまた、前縁部101、後縁部103、一対の側縁部105、107、上面109、および下面111を有するハウジングを有する。一対の側縁部105、107は、ハウジングの前縁部101とハウジングの後縁部103との間に延在する。シェービングカートリッジ100は、ハウジングの前縁部101に隣接するガードバー113、およびハウジングの後縁部103に隣接するキャップ115を含む。潤滑ストリップ116は、キャップ115の表面上に提供されることができる。1つ以上のブレード117は、ガードバー113とキャップ115との間に位置決めされ、1つ以上の保持要素(複数可)、例えば、ハウジング内に位置決めされた一対のリテーナ200を使用して、ハウジング内の所定の位置に保持される。図1に示されているシェービングカートリッジ100は、一対のリテーナ200を使用してハウジング内の所定の位置に保持される5つのブレード117を含むが、任意の数のブレードが使用されることができ、任意の数および/またはタイプの保持要素(複数可)、例えば、1つ以上の保持クリップが、ブレード(複数可)を所定の位置に保持するように好適な場(複数可)に提供されることができる。加えて、潤滑ストリップ116は、キャップ115上に提供されるものとして実施例において示されているが、潤滑ストリップが、カートリッジの他の任意の領域、例えば、ガードバー113上に、および/またはリテーナ(複数可)200上に提供されることができる。
図2~図3を参照すると、リテーナ200は、間隔を置いて配置されており、ハウジングの両側に位置決めされている。リテーナ200は、ハウジングの側縁部105および107に沿って延在しており、ハウジング内のブレード117の位置を保持するように、ハウジングの上面109上に、および1つ以上のブレード117上に延在する、上部部分201を含む。リテーナ200は、金属で作られることができる。リテーナ200は、ブレード117に物理的に接触するので、リテーナ200および1つ以上のブレードは、電気経路を形成することができる。
この実施形態において、リテーナ200は、例えば、約8.5mmの側縁部105および107上の長さLに沿って延在する。しかしながら、リテーナ200は、側縁部105および107の、より短い部分、またはより長い部分に沿って延在することができることを理解されたい。例えば、一対のリテーナ200は、各々、側縁部105および107の全長、より短い部分、またはより長い部分に沿って延在することができる。そのような延長部は、例えば、ガードバー、キャップ要素、またはトリマーアセンブリを所定の場所に固定することができる。加えて、上記のように、任意の数のリテーナ200は、シェービングカートリッジ100と共に使用されることができる。例えば、単一のリテーナ200、または4つのリテーナ200は、ハウジング内のブレード117の位置を保持するように使用されることができる。
図4~図5は、ハンドル199およびカートリッジ100を有する例示的なかみそり1を示す。この例示的な実施形態において、潤滑剤、化粧品、および/または他の材料を選択的に生成するように設計された「スマート」ポリマー1150は、カートリッジ上に提供されることができる。「スマート」ポリマーは、少なくとも1つの環境刺激に曝されたときに、特定の方法で応答するように設計された人工材料である。環境刺激は、温度、pH、湿度/水分、酸化還元、重量、電気刺激、化学的刺激、ライト(波長、および/または強度)、電気/磁界、および/または電気化学的刺激を含むことができる。スマートポリマー1150の場は、図1~図2に示されている、キャップ115の表面に実質的に対応する。加えて、図6aおよび図6bに示されているように、様々なコンポーネント(電気および/または電子コンポーネントを含む)、および回路は、本開示の様々な態様を実装するように、かみそりの中、または上に提供されることができる。
図6aは、本開示の一実施形態による、(i)カートリッジ100、ハンドル199、およびスマートポリマーストリップ1150を有するかみそり1(図6aの左側に示されている)の電気および/または電子コンポーネント、(ii)外部通信基盤6200(図6aの右側に示されている)の電子コンポーネント、および(iii)かみそり1と外部通信基盤6200との間の様々な接続および通信経路、の様々な実施例を示す。
図6aに示されている、かみそり1は、電気的および/または通信可能に接続されている、以下の例示的なコンポーネントである、電気センサー6001、電気センサー6001に加えて提供されることができる、化学センサー6002、3Dカメラ6115、視覚(例えば、ライト)、触覚および/または音通知を生成するように構成されることができる、通知ユニット6003a、コントローラ、処理ユニット、および/またはメモリを含むように構成されることができる、制御ユニット6004、ローカル電源6005(例えば、バッテリー)、外部電源接続および/または外部データ接続のためのインターフェースとして構成されることができる、インターフェースユニット6006a、無線通信のためのトランシーバユニット6007a、およびアンテナ1518a、を含む。ユニット6006aおよび6007aに関連して使用され得る、いくつかの通信技術は、セルラー、衛星、WiFi、Bluetooth、低電力広域ネットワーク(LPWAN)、またはイーサネットを介してインターネットに直接接続することを含む。利用されることができる、いくつかのデータ転送プロトコルは、例えば、ハイパーテキスト転送プロトコル(HTTP)、メッセージキューイングテレメトリトランスポート(MQTT)、制約付きアプリケーションプロトコル(CoAP)を含むが、これらの実施例には限定されない。
電気センサー6001は、ブレード(複数可)117のブレード摩耗のレベルに関する測定パラメータを検出するように構成されることができる。電気センサー6001は、例えば、ブレード摩耗のレベルを示すブレード(複数可)117の物理的および/または電気化学的特性を検出するように、電気感知技術および/または電気化学的感知技術のうちの1つ以上を使用することができる。例えば、ブレード摩耗のレベルは、1つ以上のブレード(複数可)117に適用されたコーティングの枯渇のレベルに基づいて決定され得、その枯渇のレベルは、次に、1つ以上のブレード(複数可)117の電気化学的特性および/または電気化学的特性に影響を与える。この実施例は、限定的なものとして解釈されるべきではない。加えて、または代替的に、化学センサー6002から出力される測定パラメータ(例えば、ブレード摩耗を示す材料コーティングのレベルに関するパラメータ)を使用して、ブレード(複数可)117のブレード摩耗のレベルを決定することができる。電気センサー6001および/または化学センサー6002からの出力情報は、ブレード摩耗のレベルを決定するように、基準閾値パラメータレベルと比較されることができる。
例示的な実施形態において、制御ユニット6004は、例えば、ブレード117がカートリッジ100の交換を必要とするほど十分に摩耗している、ブレード117の摩耗のレベルに関する表示を(例えば、通知ユニット6003aを介して)出力するように、電気センサー6001および/または化学センサー6002から出力された情報を受信および処理する。通知ユニット6003aは、(i)ライト表示(例えば、異なる色のLEDライトを使用する)、(ii)聴覚的表示(例えば、異なる音のレベルおよび/またはパターンを使用する)、および/または(iii)触覚的表示(例えば、異なる触覚強度および/またはパターンを使用する)、のうちの少なくとも1つによって、ブレード117の摩耗のレベルの表示(ブレード117を含むカートリッジを交換するための表示を含む)を提供することができる。代替的に、ユーザーは、ブレード117がカートリッジ100の交換を必要とするほど十分に摩耗していることを、手動で決定することができる。
制御ユニット6004はまた、(i)3Dカメラ6115から出力された情報を受信および処理し、および/または(ii)視覚情報をキャプチャおよび/または出力するように3Dカメラ6115を制御することができる。例示的な一実施形態において、3Dカメラ6115の記録機能が作動されるときに、3Dカメラ6115は、画像(例えば、ユーザーの皮膚表面の)をキャプチャすることができる。この場合において、図6aに示されているように、3Dカメラ6115によってキャプチャされた情報は、制御ユニット6004によって処理され、および/または、例えば、3Dカメラ6115の表示要素を介して、表示のために提示されることができる。
制御ユニット6004は、ブレード摩耗の速度を分析および/または決定するように、ブレード摩耗の決定されたレベル(または対応する残りの量/割合)に関する情報を累積的に収集および/または記憶することができる。加えて、制御ユニット6004は、(i)ユーザーの特定の皮膚特性および/または毛特性に関して3Dカメラ6115によってキャプチャされた情報、および/または(ii)ユーザーまたは特定の皮膚特性および/または毛特性に関するデータベースからのデータによって提供されたデータ、と併せて、ブレード摩耗率を分析することができ、これにより、個々のユーザーの身体的特性および/またはかみそりの使用のカスタマイズされた分析、およびデータ収集が可能になる。ブレード摩耗に関するデータ、特定の皮膚特性および/または毛特性に関するデータ、および/または3Dカメラ6115によってキャプチャされた情報は、かみそり内、クラウドデータベース内、または外部デバイス内(例えば、IoT接続デバイス)に(部分的または全体的に)記憶されることができる。
制御ユニット6004、電気センサー6001、化学センサー6002から出力された情報、決定された摩耗のレベル(または対応する残りのブレード使用)に関する情報、および/または3Dカメラ6115によってキャプチャされた情報は、かみそり1から(i)トランシーバ6007aを介して無線で、および/または(ii)外部電源/データ接続のためのインターフェースユニット6006aを通した有線接続を介して、IoTゲートウェイ6020に伝送されることができる。加えて、トランシーバ6007aは、無線で接続されることができ、および/またはインターフェース6006aは、有線接続を介して、3Dカメラおよびディスプレイと共に提供されることができる、モバイルデバイス6040(例えば、携帯電話またはタブレット)に接続されることができる。
図6aに示されている例示的な一実施形態において、かみそり1の回路は、それ自体によってインターネットプロトコル(IP)対応であるユニットとして構成され得、かみそり1との間の情報フローは、例えば、IoTゲートウェイ6020としての役割をもつWiFiルータを通してルーティングされる。代替的に、かみそり1の回路は、それ自体によってインターネットプロトコル(IP)対応でないユニットとして構成され得、その場合、IoTゲートウェイは、インターネット/クラウドを介した通信に関与する機能、例えば、プロトコル変換、暗号化、処理、データ管理などを実行する。他の通信技術は、セルラー、衛星、WiFi、Bluetooth、低電力広域ネットワーク(LPWAN)、またはイーサネットを介してインターネットに直接接続することを含み得るが、これらの実施例には限定されない。情報は、クラウドネットワーク6021およびIoTプラットフォーム6022を介して、IoTゲートウェイ6020からカートリッジベンダープラットフォーム6023にルーティングされ得る。IoTプラットフォーム6022は、図6aのクラウドネットワーク6021とは別に示されているが、クラウドネットワーク6021は、IoTプラットフォーム6022を包含することができる。本開示で使用される場合、「クラウドネットワーク」という用語は、インターネットおよび関連する接続基盤を包含する。
加えて、かみそり1は、追加的に、自然言語入力および/または出力の取り扱いを可能にする、ハードウェア(例えば、双方向マイクロフォン/スピーカー)および/またはソフトウェア(例えば、自然言語処理(NLP))要素と共に提供されることができる。自然言語処理は、制御ユニット6004、クラウドネットワーク6021、IoTプラットフォーム6022、および/またはカートリッジベンダープラットフォーム6023で実行されることができる。
例示的な一実施形態において、ユーザーデータ(例えば、ユーザーの毛の太さ、皮膚特性、皮膚輪郭、顔輪郭に関するデータおよび/または情報、および/またはかみそり1が適用されている皮膚表面領域に関する3Dカメラ6115によってキャプチャされた画像情報)は、コントローラ6004、モバイルデバイス6040、カートリッジベンダープラットフォーム6023、および/またはIoTプラットフォーム6022に(部分的または全体的に)記憶され得る。1つの実施例において、カートリッジベンダープラットフォーム6023は、(i)例えば、最適なかみそりモデルおよび/またはかみそりカートリッジモデルに関する提案を提供し得え、および/または(ii)3Dカメラ6115および/またはモバイルデバイス6040を介して出力され得る情報である、個々のユーザーのかみそりの使用(例えば、3Dカメラによって画像化および/またはスキャンされた皮膚表面領域が適切に剃られているかどうか)、皮膚特性、毛特性、歴史的に好ましいかみそりカートリッジのモデル、および/または数量パッケージなどに関する情報(視覚、音声、および/またはデータ)をかみそり1および/またはモバイルデバイス6040に伝送し得る。別の実施例において、かみそり1の3Dカメラ6115は、(i)特定の身体領域の皮膚表面が適切に剃られているかどうかを決定する、かつ/または(ii)(シェービングの前に3Dスキャンが実行されて、記憶されることによって)シェービングの間ユーザーに案内するために、剃られる身体領域(例えば、顔、脚など)の3Dスキャンを実行するように、ユーザーによって使用されることができる。
図6bは、本開示の別の実施形態による、かみそり1と外部通信基盤6200との間の様々な接続および通信経路を示している。図6bに示されている実施形態において、3Dカメラ6115(表示要素を含むことができる)は、かみそり1とは別に提供され、かみそり1とは完全に独立して使用されることができる。代替的に、図6bに示されているように、3Dカメラ6115および/または3Dカメラを有するモバイルデバイス6040は、(i)トランシーバ6007aに無線で通信可能に接続され、および/または(ii)有線接続を介してインターフェースユニット6006aに通信可能に接続されることができる。通信接続が無線であるか有線であるかに関係なく、3Dカメラ6115および/または3Dカメラを有するモバイルデバイス6040はまた、かみそり1に機械的に結合されることができ、それにより、かみそり1が使用されている間、シェービング表面に関する監視およびフィードバックを可能にする。図6bに示されている例示的な実施形態において、モバイルデバイス6040および/または3Dカメラ6115は、インターネットプロトコル(IP)対応デバイスとして構成されることができ、かみそり1の回路は、それ自体によってインターネットプロトコル(IP)対応である必要はないが、例示的な実施形態は、かみそり1の回路がそれ自体によってIP対応であることを排除するものではない。
図6bに示されている例示的な実施形態の1つの通信経路において、制御ユニット6004、電気センサー6001、化学センサー6002、3Dカメラ6115から出力される情報、決定された摩耗のレベル(または対応する残りのブレード使用)に関する情報、および/またはユーザーの身体的特性に関する情報(例えば、ユーザーの毛の太さ、皮膚特性、皮膚輪郭、顔輪郭に関するデータおよび/または情報、および/またはユーザーの皮膚表面領域に関して3Dカメラ6115によってキャプチャされた画像情報)は、かみそり1(例えば、ユーザーが浴室でかみそり1を使用している間)および/または3Dカメラ6115からモバイルデバイス6040に伝送されることができる。1つの実施例では、かみそり1に通信可能に接続された3Dカメラ6115は、(i)特定の身体領域の皮膚表面が適切に剃られているかどうかを決定する、および/または(ii)(シェービングの前に3Dスキャンが実行されて、記憶されることによって)シェービングの間ユーザーに案内するために、剃られる身体領域(例えば、顔、脚など)の3Dスキャンを実行するように、ユーザーによって使用されることができる。
モバイルデバイス6040は、クライアント(複数可)(例えば、1つ以上のアプリケーションソフトウェアまたは「アプリ」)と共に提供されることができ、例えば、インターネットを介した情報の伝送、データ分析、および/または取得した情報の記憶など、図6aに示されているかみそり1の回路コンポーネントによって実行される機能のいくつか、またはすべてを実行する。モバイルデバイス6040によって受信された情報は、IoTゲートウェイ6020、例えば、WiFiルータにルーティングされ得、続いて、クラウドネットワーク6021およびIoTプラットフォーム6022を介してカートリッジベンダープラットフォーム6023にルーティングされ得る。モバイルデバイス6040からルーティングされた情報に基づいて、カートリッジベンダープラットフォーム6023および/またはIoTプラットフォーム6022は、適切なフィードバック情報、例えば、ユーザーにとって最適なかみそりモデル、ユーザーにとって最適なかみそりカートリッジモデル、および/または3Dカメラ6115によって画像化されたユーザーの皮膚表面領域が適切に剃られているかどうかに関する情報(視覚、音声、および/またはデータ)を提供することができる。IoTプラットフォーム6022は、図6aのクラウドネットワーク6021とは別に示されているが、クラウドネットワーク6021は、IoTプラットフォーム6022を包含し得る。他の通信技術は、セルラー、衛星、WiFi、Bluetooth、低電力広域ネットワーク(LPWAN)、またはイーサネットを介してインターネットに直接接続することを含むが、これらの実施例には限定されない。利用され得る、いくつかのデータ転送プロトコルは、例えば、ハイパーテキスト転送プロトコル(HTTP)、メッセージキューイングテレメトリトランスポート(MQTT)、および制約付きアプリケーションプロトコル(CoAP)を含むが、これらの実施例には限定されない。
図6bに示されている例示的な実施形態の別の通信経路において、制御ユニット6004、電気センサー6001、化学センサー6002から出力された情報、決定された摩耗のレベル(または対応する残りのブレード使用)に関する情報、および/またはユーザーの身体的特性(例えば、ユーザーの毛の太さ、皮膚特性、皮膚輪郭、顔輪郭に関するデータおよび/または情報)に関する情報は、かみそり1から(例えば、ユーザーが浴室でかみそり1を使用している間)、クライアント(複数可)(例えば、1つ以上のアプリケーションソフトウェア)と共に提供されることができる、3Dカメラ6115に伝送されることができ、図6aに示されているかみそり1の回路コンポーネントによって実行されている機能、例えば、伝送するインターネットを介した情報、データ分析、および/または取得した情報の記憶のいくつか、またはすべてを実行することができる。3Dカメラ6115によって受信された情報は、ユーザーの皮膚表面領域に関して3Dカメラ6115によってキャプチャされた画像情報と共に、IoTゲートウェイ6020、例えば、WiFIルータにルーティングされ得、続いて、クラウドネットワーク6021およびIoTプラットフォーム6022を介して、カートリッジベンダープラットフォーム6023にルーティングされ得る。3Dカメラ6115からルーティングされた情報に基づいて、カートリッジベンダープラットフォーム6023および/またはIoTプラットフォーム6022は、適切なフィードバック情報、例えば、ユーザーにとって最適なかみそりモデル、ユーザーにとって最適なかみそりカートリッジモデル、および/または3Dカメラ6115によって画像化されたユーザーの皮膚表面領域が適切に剃られているかどうかに関する情報(視覚、音声、および/またはデータ)を提供することができる。他の通信技術は、セルラー、衛星、WiFi、Bluetooth、低電力広域ネットワーク(LPWAN)、またはイーサネットを介してインターネットに直接接続することを含み得る、これらの実施例には限定されない。
図6bに示される例示的なシステムでは、情報および/または情報の処理は、2つ以上のかみそり1、3Dカメラ6115、モバイルデバイス6040、IoTゲートウェイ6020、クラウドネットワーク6021、IoTプラットフォーム6022および/またはカートリッジベンダープラットフォーム6023間で共有されることができる。例えば、(情報源に関係なく)情報の処理は、制御ユニット6004、3Dカメラ6115、モバイルデバイス6040、クラウドネットワーク6021、IoTプラットフォーム6022、および/またはカートリッジベンダープラットフォーム6023で実行されることができる。加えて、情報(例えば、音声、視覚、および/またはデータ)の入力/出力は、3Dカメラ6115、かみそり1上、またはその中にオプションで提供されている双方向マイクロフォン/スピーカー、および/またはモバイルデバイス6040を介して実装されることができる。
図6bに示されている例示的なシステムにおける分散機能の一実施例として、3Dカメラ6115によってキャプチャされた(例えば、ユーザーの皮膚表面の)画像情報は、モバイルデバイス6040(例えば、ディスプレイのため)に、および/またはカートリッジベンダープラットフォーム6023(例えば、分析のため)に伝送されることができる。加えて、電気センサー6001からのセンサーデータは、3Dカメラ6115および/またはモバイルデバイス6040(例えば、ユーザーが、電気センサー6001が提供されているカートリッジを使用している間)に伝送されることができ、およびユーザーの音声コマンドおよび/またはクエリーは、かみそり1上、またはその中にオプションで提供されている双方向マイクロフォン/スピーカー、またはモバイルデバイス6040のマイクロフォン/スピーカーを介して入力されることができる。加えて、カートリッジベンダープラットフォーム6023からの応答送信に含まれる情報は、かみそり1のマイクロフォン/スピーカー(例えば、音声のため)、モバイルデバイス6040(例えば、音声、視覚、および/またはテキストデータのため)、および/または3Dカメラ6115のディスプレイ画面を介して(例えば、視覚、および/またはテキストデータのため)出力されることができる。
図7は、例えば、シェービングおよび/またはシェービングかみそりの選択/交換に関連して、ユーザーを支援するように、3Dカメラを使用する例示的な方法の論理フロー700を示している。ブロック7001で、ユーザーの皮膚表面およびユーザーの身体輪郭のうちの少なくとも1つの画像は、3Dカメラ(例えば、3Dカメラ6115、またはモバイルデバイス6040の3Dカメラ)によって、記録、および/またはスキャンされている。ブロック7002で、3Dカメラに通信可能に接続された制御ユニット(例えば、制御ユニット6004、3Dカメラ6115の制御ユニット、モバイルデバイス6040の制御ユニット、カートリッジベンダープラットフォーム6023の制御ユニット、および/またはIoTプラットフォーム6022の制御ユニット)は、3Dカメラによって記録された画像の画像データを処理して、ユーザーの皮膚表面およびユーザーの身体輪郭(例えば、あご領域、首領域、脚領域など)のうちの少なくとも1つの少なくとも1つの身体的特性を決定する。ブロック7003で、フィードバック情報は、少なくとも1つの身体的特性、(i)少なくとも1つの身体的特性に適したシェービングカートリッジ、(ii)少なくとも1つの身体的特性に適したシェービングかみそり、および(iii)3Dカメラによって記録された、ユーザーの皮膚表面およびユーザーの身体輪郭のうちの少なくとも1つに残っている毛の量、のうちの少なくとも1つに関するフィードバック情報に基づいて(例えば、カートリッジベンダープラットフォーム6023、および/またはカートリッジベンダープラットフォーム6023の制御ユニットなどのフィードバック要素の助けを借りて)、提供されている。フィードバック情報は、フィードバック要素からインターネット、およびインターネットゲートウェイ6020を介して3Dカメラ(例えば、3Dカメラ6115、またはモバイルデバイス6040の3Dカメラ)に伝送されることができる。ブロック7004で、出力ユニット(例えば、3Dカメラ6115のディスプレイ、モバイルデバイス6040の3Dカメラのディスプレイ、モバイルデバイス6040のマイクロフォン/スピーカー、および/またはかみそり1のオプションのマイクロフォン/スピーカー)は、フィードバック情報をユーザーに出力する。図7に示され、上で記載された論理フロー700は、情報および/または情報の処理が、かみそり1、3Dカメラ6115、モバイルデバイス6040、IoTゲートウェイ6020、クラウドネットワーク6021、IoTプラットフォーム6022、および/またはカートリッジベンダープラットフォーム6023のうちの2つ以上の間で共有されることができることを想定している。
図8は、例えば、シェービングおよび/またはシェービングかみそりの選択/交換に関連して、ユーザーを支援するように、3Dカメラを使用する別の例示的な方法の論理フロー800を示している。ブロック8001で、ユーザーの皮膚表面およびユーザーの身体輪郭のうちの少なくとも1つの画像は、かみそり1の3Dカメラ6115によって、記録、および/またはスキャンされている。ブロック8002で、3Dカメラによって記録された画像の画像データは、インターネットに接続されたインターネットゲートウェイを介して、インターネットに接続されたベンダープラットフォーム(例えば、カートリッジベンダープラットフォーム6023)に、伝送される。ブロック8003で、ベンダープラットフォームに通信可能に接続された制御ユニット(例えば、制御ユニット6004、カートリッジベンダープラットフォーム6023の制御ユニット、および/またはIoTプラットフォーム6022の制御ユニット)は、3Dカメラ6115によって記録された画像の画像データを処理して、ユーザーの皮膚表面およびユーザーの身体輪郭のうちの少なくとも1つの少なくとも1つの身体的特性を決定する。ブロック8004で、フィードバック情報は、少なくとも1つの身体的特性、(i)少なくとも1つの身体的特性に適したシェービングカートリッジ、(ii)少なくとも1つの身体的特性に適したシェービングかみそり、および(iii)3Dカメラ6115によって記録された、ユーザーの皮膚表面およびユーザーの身体輪郭のうちの少なくとも1つに残っている毛の量、のうちの少なくとも1つに関するフィードバック情報に基づいて(例えば、カートリッジベンダープラットフォーム6023、および/またはカートリッジベンダープラットフォーム6023の制御ユニットなどのフィードバック要素の助けを借りて)、提供されている。ブロック8005で、フィードバック情報は、インターネットに接続されたインターネットゲートウェイを介して、3Dカメラ6115および/またはかみそり1に伝送される。ブロック8006で、3Dカメラ6115の出力ユニット(例えば、3Dカメラ6115のディスプレイ)、および/またはかみそり1(例えば、かみそり1のオプションのマイクロフォン/スピーカー)は、フィードバック情報をユーザーに出力する。図8に示され、上で記載された論理フロー800は、情報および/または情報の処理が、3Dカメラ6115を有するかみそり1、IoTゲートウェイ6020、クラウドネットワーク6021、IoTプラットフォーム6022、および/またはカートリッジベンダープラットフォーム6023のうちの2つ以上の間で共有されることを想定している。
図9は、例えば、シェービングおよび/またはシェービングかみそりの選択/交換に関連して、ユーザーを支援するように、3Dカメラを使用するさらに別の例示的な方法の論理フロー900を示している。ブロック9001で、ユーザーの皮膚表面およびユーザーの身体輪郭の少なくとも1つの画像は、機械的に、および/または通信可能にかみそり(例えば、かみそり1)に接続または結合されている3Dカメラ(例えば、3Dカメラ6115またはモバイルデバイス6040の3Dカメラ)によって、記録、および/またはスキャンされる。ブロック9002で、3Dカメラによって記録された画像の画像データは、インターネットに接続されたインターネットゲートウェイを介して、インターネットに接続されたベンダープラットフォーム(例えば、カートリッジベンダープラットフォーム6023)に、伝送される。ブロック9003で、ベンダープラットフォームに通信可能に接続された制御ユニット(制御ユニット6004、3Dカメラ6115の制御ユニット、モバイルデバイス6040の制御ユニット、カートリッジベンダープラットフォーム6023の制御ユニット、および/またはIoTプラットフォーム6022の制御ユニット)は、3Dカメラ6115によって記録された画像の画像データを処理して、ユーザーの皮膚表面およびユーザーの身体輪郭のうちの少なくとも1つの少なくとも1つの身体的特性を決定する。ブロック9004で、フィードバック情報は、少なくとも1つの身体的特性、(i)少なくとも1つの身体的特性に適したシェービングカートリッジ、(ii)少なくとも1つの身体的特性に適したシェービングかみそり、および(iii)3Dカメラ6115によって記録された、ユーザーの皮膚表面およびユーザーの身体輪郭のうちの少なくとも1つに残っている毛の量、のうちの少なくとも1つに関するフィードバック情報に基づいて(例えば、カートリッジベンダープラットフォーム6023、および/またはカートリッジベンダープラットフォーム6023の制御ユニットなどのフィードバック要素の助けを借りて)、提供されている。ブロック9005で、フィードバック情報は、インターネットに接続されたインターネットゲートウェイを介して、3Dカメラ(例えば、3Dカメラ6115、またはモバイルデバイス6040の3Dカメラ)および/またはかみそり1に伝送される。ブロック9006で、3Dカメラの出力ユニット(例えば、3Dカメラ6115のディスプレイ、モバイルデバイス6040の3Dカメラのディスプレイ、および/または3Dカメラを有するモバイルデバイス6040のマイクロフォン/スピーカー)、および/またはかみそり(例えば、かみそり1のオプションのマイクロフォン/スピーカー)は、フィードバック情報をユーザーに出力する。図9に示され、上で記載された論理フロー900は、情報および/または情報の処理が、かみそり1、3Dカメラ6115、モバイルデバイス6040、IoTゲートウェイ6020、クラウドネットワーク6021、IoTプラットフォーム6022、および/またはカートリッジベンダープラットフォーム6023のうちの2つ以上の間で共有されることを想定している。
図7~図9に図示されている例示的な技術700、800、および900の一部が、部分的に、および/または全体的に修正され、および/または組み合わせられることができることに留意されたい。
図10は、製造物品を含むことができる、記憶媒体1100の実施形態を示し、例えば、記憶媒体1100は、光学的、磁気的、または半導体記憶などの、任意の非一時的なコンピュータ可読媒体、または機械可読媒体を含むことができる。記憶媒体1100は、様々なタイプのコンピュータ実行可能命令、例えば1120を記憶することができる。例えば、記憶媒体2000は、技術700、800、および900を実装するように、様々なタイプのコンピュータ実行可能命令を記憶することができる。さらに、そのような命令は、本明細書に記載の技術を実行するように、例えば、制御ユニット6004、コンピュータ6030、および/またはモバイルデバイス6040によって実行されることができる。
コンピュータ可読記憶媒体、または機械可読記憶媒体のいくつかの実施例は、電子データを記憶することが可能な有形媒体、例えば、揮発性メモリまたは不揮発性メモリ、取り外し可能または取り外し不可能なメモリ、消去可能または消去不可能なメモリ、書き込み可能または再書き込み可能なメモリなど、を含むことができる。コンピュータ実行可能命令のいくつかの実施例は、好適なタイプのコード、例えば、ソースコード、コンパイルされたコード、解釈されたコード、実行可能コード、静的コード、動的コード、オブジェクト指向コード、視覚コードなどを含むことができる。実施例は、この文脈には限定されない。
図11は、1つ以上の実施形態による、論理フロー700、論理フロー800、および論理フロー900のうちの1つ以上、記憶媒体1100、コンピュータ6030、モバイルデバイス6040、およびかみそり1の回路の1つ以上の機能を実装することができる、通信デバイス1500の実施形態を示する。例示的な一実施形態において、通信デバイス1500は、例えば、論理フロー700、論理フロー800、および論理フロー900のうちの1つ以上について記載されている動作を実行するように、物理回路を含むことができる、論理回路1528を備えることができる。加えて、通信デバイス1500は、無線インターフェース1510、ベースバンド回路1520、およびコンピューティングプラットフォーム1530を含むことができる。しかしながら、実施形態は、この例示的な構成には限定されない。
通信デバイス1500は、論理フロー700、論理フロー800、および論理フロー900のうちの1つ以上の構造および/または動作の一部またはすべて、記憶媒体1100、コンピュータ6030、モバイルデバイス6040、かみそり1の回路のうちの1つ以上の機能、および論理回路1528を、(i)単一のコンピューティング実体、例えば、単一のデバイス中に、または(ii)分散して、実装することができる。後者の場合において、通信デバイス1500は、論理フロー700、論理フロー800、および論理フロー900のうちの1つ以上、記憶媒体1100、コンピュータ6030、モバイルデバイス6040、かみそり1の回路、ならびに分散システムアーキテクチャ、例えば、マスタースレーブアーキテクチャ、クライアントサーバーアーキテクチャ、ピアツーピアアーキテクチャ、共用データベースアーキテクチャなどを使用する、複数のコンピューティングプラットフォーム、および/または実体にわたる論理回路1528の1つ以上の機能の構造、および/または動作の一部を分散することができる。実施形態は、この文脈には限定されない。
例示的な実施形態において、無線インターフェース1510は、CCK(相補コードキーイング)、OFDM(直交周波数分割多重方式)、および/またはSC-FDMA(シングルキャリア周波数分割多元接続)シンボルなどのシングルキャリア、またはマルチキャリア変調信号を、伝送および/または受信するように適合された1つ以上のコンポーネント(複数可)を含むことができる。無線インターフェース1510は、例えば、受信機1511、周波数シンセサイザ1514、伝送機1516、および1つ以上のアンテナ1518を含むことができる。しかしながら、実施形態は、これらの実施例には限定されない。
受信信号および/または伝送信号を処理するように無線インターフェース1510と通信する、ベースバンド回路1520は、アナログ-デジタル変換器、デジタル-アナログ変換器、および受信/伝送信号の物理リンク層処理のためのベースバンド、または物理層(PHY)処理回路を含むユニット1522を含むことができる。ベースバンド回路1520はまた、例えば、インターフェース1534を介してコンピューティングプラットフォーム1530と通信するためのメモリコントローラ1532を含むことができる。
デバイス1500のためにコンピューティング機能を提供することができる、コンピューティングプラットフォーム1530は、プロセッサ1540、および他のプラットフォームコンポーネント1750、例えば、プロセッサ、メモリユニット、チップセット、コントローラ、周辺機器、インターフェース、入力/出力(I/O)コンポーネント、電源などを含むことができる。
デバイス1500は、例えば、モバイルデバイス、スマートフォン、固定デバイス、マシンツーマシンデバイス、パーソナルデジタルアシスタント(PDA)、モバイルコンピューティングデバイス、ユーザー機器、コンピュータ、ネットワークアプライアンス、Webアプライアンス、家庭用電化製品、プログラム可能な家庭用電化製品、ゲームデバイス、テレビ、デジタルテレビ、セットトップボックス、ワイヤレスアクセスポイント、ベースステーション、サブスクライバーステーション、モバイルサブスクライバーセンター、無線ネットワークコントローラー、ルータ、ハブ、ゲートウェイなどであることができる。これらの実施例は、限定的なものではない。
図12は、バス312およびチップセット904を介して互いに結合されている、例えば、プロセッサ902、チップセット904、I/O(入力/出力)デバイス906、RAM(ランダムアクセスメモリ)908、例えば、DRAM(ダイナミックRAM)、およびROM(読み取り専用メモリ)910、無線通信チップ916、グラフィックスデバイス918、およびディスプレイ920、ならびに他のプラットフォーム構成要素914(例えば、冷却システム、ヒートシンク、ベントなど)、含むことができる、プラットフォーム1200として構成されている例示的なシステムの一実施形態である。実施例は、限定的ではない。
本明細書に記載の技術は、例示的なものであり、本開示に対する特定の制限を意味するものとして解釈されるべきではない。様々な代替、組み合わせ、および修正が、当業者によって工夫されることができることを理解されたい。例えば、本明細書に記載されるプロセスを有するステップは、ステップ自体によって別段の指定、または指示がない限り、任意の順序で実行されることができる。本開示は、添付の特許請求の範囲内にある、そのようなすべての代替、修正、および差異を取り入れることを意図している。
「備える(comprise)」または「備える(comprising)」という用語は、言及された特徴、完全体、ステップまたはコンポーネントの存在を指定するものとして解釈されるべきであるが、1つ以上の他の特徴、完全体、ステップもしくはコンポーネント、またはそれらのグループの存在を排除するものではない。「a」および「an」という用語は、不定冠詞であり、したがって、複数の冠詞を有する実施形態を排除するものではない。「結合された」、「接続された」および「リンクされた」という用語は、本開示において交換可能に使用され、実質的に同じ意味を有する。
いくつかの実施形態は、それらの派生と共に「1つの実施形態」または「一実施形態」という表現を使用して記載され得る。これらの用語は、実施形態に関連して記載される特定の特徴、構造、または特性が少なくとも1つの実施形態に含まれることを意味する。本明細書の様々な場所での「一実施形態」という句の出現は、必ずしもすべてが同じ実施形態を指すとは限らない。
上に提示された図およびテキスト、ならびに以下の実施例から明らかなように、様々な実施形態が企図されている。
実施形態:
1.シェービング作業でユーザーを支援するように構成されているシステムであって、
ユーザーの皮膚表面およびユーザーの身体輪郭のうちの少なくとも1つの画像を記録するように構成されている3Dカメラ(6115)と、
3Dカメラに通信可能に接続されており、3Dカメラによって記録された画像の画像データを処理して、ユーザーの皮膚表面およびユーザーの身体輪郭のうちの少なくとも1つの少なくとも1つの身体的特性を決定するように構成されている制御ユニット(6004)と、
少なくとも1つの身体的特性に基づいて、フィードバック情報を提供することを助けるように構成されているフィードバック要素(6023)であって、フィードバック情報が、(i)少なくとも1つの身体的特性に適したシェービングカートリッジ(100)、(ii)少なくとも1つの身体的特性に適したシェービングかみそり、および(iii)3Dカメラによって記録されたユーザーの皮膚表面およびユーザーの身体輪郭のうちの少なくとも1つに残っている毛の量のうちの少なくとも1つに関する、フィードバック要素(6023)と、
フィードバック情報を出力するように構成されている出力ユニットと、を備える、システム。
2.3Dカメラが、インターネットプロトコル(IP)対応デバイスであり、3Dカメラ(6115)が、3Dカメラによって記録された画像の画像データを伝送するように、インターネットに接続されたインターネットゲートウェイと直接インターフェースするように構成されている、実施形態1に記載のシステム。
3.かみそり(1)をさらに備え、
3Dカメラ(6115)が、かみそりに通信可能におよび機械的にのうちの少なくとも1つで接続されている、実施形態1または2に記載のシステム。
4.3Dカメラ(6115)が、かみそり内に提供されている、実施形態3に記載のシステム。
5.制御ユニット(6004)が、フィードバック要素としての役割をもつベンダープラットフォームに通信可能に接続されており、3Dカメラによって記録された画像の画像データが、インターネットに接続されたインターネットゲートウェイを介して制御ユニット(6023)に伝送される、実施形態1~4のいずれか1つに記載のシステム。
6.フィードバック情報が、ベンダープラットフォーム(6023)から、インターネットに接続されたインターネットゲートウェイを介して、3Dカメラに伝送される、実施形態5に記載のシステム。
7.フィードバック情報が、ベンダープラットフォーム(6023)から、インターネットに接続されたインターネットゲートウェイを介して、かみそり(1)に伝送される、実施形態1~6のいずれか1つと組み合わせて取られる、実施形態3および5に記載のシステム。
8.3Dカメラ(6115)が、かみそり(1)に機械的に接続されており、出力ユニットが、3Dカメラのディスプレイ画面である、実施形態1~7のいずれか1つと組み合わせて取られる、実施形態3に記載のシステム。
9.3Dカメラ(6115)が、モバイルデバイス(6040)の一部として提供されており、出力ユニットが、モバイルデバイスのディスプレイ画面である、実施形態1~3または5~8のいずれか1つに記載のシステム。
10.シェービング作業でユーザーを支援するための方法であって、
3Dカメラ(6115)によって、ユーザーの皮膚表面およびユーザーの身体輪郭のうちの少なくとも1つの画像を記録することと、
3Dカメラに通信可能に接続された制御ユニット(6004)によって、3Dカメラによって記録された画像の画像データを処理して、ユーザーの皮膚表面およびユーザーの身体輪郭のうちの少なくとも1つの少なくとも1つの身体的特性を決定することと、
フィードバック要素(6023)の助けを借りて、少なくとも1つの身体的特性に基づくフィードバック情報を提供することであって、フィードバック情報が、(i)少なくとも1つの身体的特性に適したシェービングカートリッジ(100)、(ii)少なくとも1つの身体的特性に適したシェービングかみそり、および(iii)3Dカメラによって記録されたユーザーの皮膚表面およびユーザーの身体輪郭のうちの少なくとも1つに残っている毛の量のうちの少なくとも1つに関する、提供することと、
出力ユニットによって、フィードバック情報を出力することと、を含む、方法。
11.3Dカメラ(6115)が、インターネットプロトコル(IP)対応デバイスであり、3Dカメラが、3Dカメラによって記録された画像の画像データを伝送するように、インターネットに接続されたインターネットゲートウェイと直接インターフェースする、実施形態10に記載の方法。
12.3Dカメラ(6115)が、かみそり(1)に通信可能におよび機械的にのうちの少なくとも1つで接続されている、実施形態10または11に記載の方法。
13.3Dカメラ(6115)が、かみそり内に提供されている、実施形態12に記載の方法。
14.制御ユニット(6004)が、フィードバック要素としての役割をもつベンダープラットフォームに通信可能に接続されており、3Dカメラによって記録された画像の画像データが、インターネットに接続されたインターネットゲートウェイを介して制御ユニット(6023)に伝送される、実施形態10~13のいずれか1つに記載の方法。
15.フィードバック情報が、ベンダープラットフォーム(6023)から、インターネットに接続されたインターネットゲートウェイを介して、3Dカメラ(6115)に伝送される、実施形態14に記載の方法。
15.フィードバック情報が、ベンダープラットフォーム(6023)から、インターネットに接続されたインターネットゲートウェイを介して、かみそり(1)に伝送される、実施形態10~14のいずれか1つと組み合わせて取られる、実施形態12および14に記載の方法。
16.3Dカメラ(6115)が、かみそり(1)に機械的に接続されており、出力ユニットが、3Dカメラのディスプレイ画面である、実施形態12に記載の方法。
17.3Dカメラ(6115)が、モバイルデバイスの一部として提供されており、出力ユニットが、モバイルデバイスのディスプレイ画面である、実施形態10~12または14~16のいずれか1つに記載の方法。
18.3Dカメラが、選択された身体領域の3Dスキャンを実行し、
3Dスキャンデータが、(i)選択された身体領域の皮膚表面が適切に剃られているかどうかを決定すること、および(ii)かみそりのユーザーのシェービングを案内することのうちの少なくとも1つに使用される、実施形態10~17のいずれか1つに記載の方法。

Claims (15)

  1. シェービング作業でユーザーを支援するように構成されているシステムであって、
    前記ユーザーの皮膚表面および前記ユーザーの身体輪郭のうちの少なくとも1つの画像を記録するように構成されている3Dカメラ(6115)と、
    前記3Dカメラに通信可能に接続されており、前記3Dカメラによって記録された前記画像の画像データを処理して、前記ユーザーの皮膚表面および前記ユーザーの身体輪郭のうちの前記少なくとも1つの身体的特性を決定するように構成されている制御ユニット(6004)と、
    前記少なくとも1つの身体的特性に基づいて、フィードバック情報を提供することを助けるように構成されているフィードバック要素であって、前記フィードバック情報が、前記3Dカメラによって記録された前記ユーザーの皮膚表面および前記ユーザーの身体輪郭のうちの前記少なくとも1つに残っている毛の量に関する、フィードバック要素(6023)と、
    前記フィードバック情報を出力するように構成されている出力ユニットと、を備える、システム。
  2. 前記フィードバック情報が、(i)前記少なくとも1つの身体的特性に適したシェービングカートリッジ(100)、および(ii)前記少なくとも1つの身体的特性に適したシェービングかみそりのうちの少なくとも1つに関する、請求項1に記載のシステム。
  3. 前記3Dカメラ(6115)は、インターネットプトロコル(IP)対応デバイスであり、前記3Dカメラによって記録された画像の画像データを伝送するために、インターネットに接続されたインターネットゲートウェイと直接インターフェースするように構成されている、請求項1または2に記載のシステム。
  4. かみそり(1)をさらに備え、
    前記3Dカメラ(6115)が、前記かみそりに通信可能におよび機械的にのうちの少なくとも1つで接続されている、請求項1から3のいずれか一項に記載のシステム。
  5. 前記制御ユニット(6004)が、前記フィードバック要素としての役割をもつベンダープラットフォーム(6023)に通信可能に接続されており、前記3Dカメラによって記録された前記画像の前記画像データが、インターネットに接続されたインターネットゲートウェイを介して前記制御ユニットに伝送される、請求項1から4のいずれか一項に記載のシステム。
  6. かみそりをさらに備え、
    前記3Dカメラが、前記かみそりに通信可能におよび機械的にのうちの少なくとも1つで接続され、
    前記フィードバック情報が、前記ベンダープラットフォーム(6023)から、インターネットに接続された前記インターネットゲートウェイを介して、前記かみそりおよび前記3Dカメラのうちの少なくとも1つに伝送される、請求項5に記載のシステム。
  7. 前記3Dカメラ(6115)が、前記かみそりに機械的に接続されており、前記出力ユニットが、前記3Dカメラのディスプレイ画面である、請求項に記載のシステム。
  8. 前記3Dカメラ(6115)が、モバイルデバイス(6040)の一部として提供されており、前記出力ユニットが、前記モバイルデバイスのディスプレイ画面である、請求項1から7のいずれか一項に記載のシステム。
  9. シェービング作業でユーザーを支援するための方法であって、
    3Dカメラ(6115)によって、前記ユーザーの皮膚表面および前記ユーザーの身体輪郭のうちの少なくとも1つの画像を記録することと、
    前記3Dカメラに通信可能に接続された制御ユニット(6004)によって、前記3Dカメラによって記録された前記画像の画像データを処理して、前記ユーザーの皮膚表面および前記ユーザーの身体輪郭のうちの前記少なくとも1つの身体的特性を決定することと、
    フィードバック要素(6023)の助けを借りて、前記少なくとも1つの身体的特性に基づくフィードバック情報を提供することであって、前記フィードバック情報が、前記3Dカメラによって記録された前記ユーザーの皮膚表面および前記ユーザーの身体輪郭のうちの前記少なくとも1つに残っている毛の量に関する、提供することと、
    出力ユニットによって、前記フィードバック情報を出力することと、を含む、方法。
  10. 前記フィードバック情報が、(i)前記少なくとも1つの身体的特性に適したシェービングカートリッジ(100)、および(ii)前記少なくとも1つの身体的特性に適したシェービングかみそりのうちの少なくとも1つに関する、請求項9に記載の方法。
  11. 前記3Dカメラ(6115)は、インターネットプトロコル(IP)対応デバイスであり、前記3Dカメラによって記録された画像の画像データを伝送するために、インターネットに接続されたインターネットゲートウェイと直接インターフェースする、請求項9または10に記載のシステム。
  12. 前記3Dカメラ(6115)が、かみそりに通信可能におよび機械的にのうちの少なくとも1つで接続されている、請求項9から11のいずれか一項に記載の方法。
  13. 前記制御ユニット(6004)が、前記フィードバック要素としての役割をもつベンダープラットフォーム(6023)に通信可能に接続されており、前記3Dカメラによって記録された前記画像の前記画像データが、インターネットに接続されたインターネットゲートウェイを介して前記制御ユニットに伝送される、請求項9から12のいずれか一項に記載の方法。
  14. 前記3Dカメラ(6115)が、モバイルデバイスの一部として提供されており、前記出力ユニットが、前記モバイルデバイスのディスプレイ画面である、請求項9から13のいずれか一項に記載の方法。
  15. 記3Dカメラが、選択された身体領域の3Dスキャンを実行し、
    前記3Dスキャンデータが、(i)前記選択された身体領域の皮膚表面が適切に剃られているかどうかを決定すること、および(ii)前記かみそりのユーザーのシェービングを案内することのうちの少なくとも1つに使用される、請求項12に記載の方法。
JP2020560311A 2018-05-21 2019-05-13 シェービング作業でユーザーを支援するように構成されているシステム、シェービング作業でユーザーを支援するための方法 Active JP7351852B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862674099P 2018-05-21 2018-05-21
US62/674,099 2018-05-21
PCT/EP2019/062225 WO2019224037A1 (en) 2018-05-21 2019-05-13 A smart shaving system with a 3d camera

Publications (2)

Publication Number Publication Date
JP2021523762A JP2021523762A (ja) 2021-09-09
JP7351852B2 true JP7351852B2 (ja) 2023-09-27

Family

ID=66597547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020560311A Active JP7351852B2 (ja) 2018-05-21 2019-05-13 シェービング作業でユーザーを支援するように構成されているシステム、シェービング作業でユーザーを支援するための方法

Country Status (6)

Country Link
US (1) US11685068B2 (ja)
EP (1) EP3797017A1 (ja)
JP (1) JP7351852B2 (ja)
KR (1) KR20210011364A (ja)
CN (1) CN112004648A (ja)
WO (1) WO2019224037A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11220015B2 (en) * 2017-06-29 2022-01-11 Bic Violex S.A. Methods and apparatus for detecting hair characteristics with a shaving device
US20230029669A1 (en) * 2020-02-12 2023-02-02 BIC Violex Single Member S.A. System for measuring pivot angle of shaver head and related methods
US11273562B2 (en) * 2020-07-13 2022-03-15 Wayne N. Le Hair cutting device
USD972776S1 (en) * 2020-12-25 2022-12-13 Foshan Yingjili Electrical Equipment Co., Ltd. Razor head
EP4094908A1 (en) * 2021-05-28 2022-11-30 BIC Violex Single Member S.A. Shavers and methods

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130021460A1 (en) 2011-07-20 2013-01-24 Burdoucci Romello J Interactive Hair Grooming Apparatus, System, and Method
US20140137883A1 (en) 2012-11-21 2014-05-22 Reagan Inventions, Llc Razor including an imaging device
US20150103158A1 (en) 2013-10-14 2015-04-16 Joshua Cornelius Burris Attachable wireless micro-camera and software
US20160167241A1 (en) 2014-12-10 2016-06-16 Haggai Goldfarb Intelligent shaving system having sensors
JP2016106806A (ja) 2014-12-05 2016-06-20 株式会社泉精器製作所 剃り残し判定方法、剃り残し判定プログラム、画像表示プログラム、電気かみそり、および髭剃りシステム
JP2016534805A (ja) 2013-11-06 2016-11-10 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 身体部位を処置するためのシステム及び方法
JP2016534806A (ja) 2013-11-06 2016-11-10 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. シェービング処理中に利用者をガイドするためのシステム及び方法
WO2018007547A1 (en) 2016-07-07 2018-01-11 Koninklijke Philips N.V. Generating a guidance indicator and indicator signal
JP2018525124A (ja) 2015-08-24 2018-09-06 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. シェービングデバイスの最適使用のための段階的アドバイス

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07204370A (ja) * 1994-01-14 1995-08-08 Matsushita Electric Works Ltd 電気かみそりの選択支援システム
JPH0952386A (ja) 1995-08-10 1997-02-25 Fujitsu Ltd 電子写真装置
US20100186234A1 (en) 2009-01-28 2010-07-29 Yehuda Binder Electric shaver with imaging capability
JP6563917B2 (ja) 2013-11-06 2019-08-21 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 身体部位を処置するためのシステム及び方法
WO2015140340A1 (en) 2014-03-21 2015-09-24 Koninklijke Philips N.V. A system and a method for treating a part of a body of a person
US11007659B2 (en) * 2014-12-10 2021-05-18 Haggai Goldfarb Intelligent shaving system having sensors
EP3326153A1 (en) 2015-07-17 2018-05-30 Koninklijke Philips N.V. Device and method for determining a position of a mobile device in relation to a subject
US20170232624A1 (en) 2016-02-12 2017-08-17 The King Of Shaves Company Limited Shaving System
CN109562525A (zh) 2016-08-18 2019-04-02 丽努·潘达卡索莱尔·库瑞克苏 智能面部毛发梳理装置
EP3366195A1 (en) * 2017-02-22 2018-08-29 Koninklijke Philips N.V. System and method for detecting skin conditions
CN107756459B (zh) * 2017-10-27 2020-06-02 北京小米移动软件有限公司 剃须刀控制方法及装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130021460A1 (en) 2011-07-20 2013-01-24 Burdoucci Romello J Interactive Hair Grooming Apparatus, System, and Method
US20140137883A1 (en) 2012-11-21 2014-05-22 Reagan Inventions, Llc Razor including an imaging device
US20150103158A1 (en) 2013-10-14 2015-04-16 Joshua Cornelius Burris Attachable wireless micro-camera and software
JP2016534805A (ja) 2013-11-06 2016-11-10 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 身体部位を処置するためのシステム及び方法
JP2016534806A (ja) 2013-11-06 2016-11-10 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. シェービング処理中に利用者をガイドするためのシステム及び方法
JP2016106806A (ja) 2014-12-05 2016-06-20 株式会社泉精器製作所 剃り残し判定方法、剃り残し判定プログラム、画像表示プログラム、電気かみそり、および髭剃りシステム
US20160167241A1 (en) 2014-12-10 2016-06-16 Haggai Goldfarb Intelligent shaving system having sensors
JP2018525124A (ja) 2015-08-24 2018-09-06 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. シェービングデバイスの最適使用のための段階的アドバイス
WO2018007547A1 (en) 2016-07-07 2018-01-11 Koninklijke Philips N.V. Generating a guidance indicator and indicator signal

Also Published As

Publication number Publication date
JP2021523762A (ja) 2021-09-09
WO2019224037A1 (en) 2019-11-28
CN112004648A (zh) 2020-11-27
KR20210011364A (ko) 2021-02-01
EP3797017A1 (en) 2021-03-31
US11685068B2 (en) 2023-06-27
US20210086379A1 (en) 2021-03-25

Similar Documents

Publication Publication Date Title
JP7351852B2 (ja) シェービング作業でユーザーを支援するように構成されているシステム、シェービング作業でユーザーを支援するための方法
CN112088076B (zh) 智能剃刮配件
EP3525621B1 (en) Connected hairbrush
EP3797018B1 (en) System and method for providing a voice-activated ordering of replacement shaving cartridge
CN104303528B (zh) 用于基于设备传感器测量来改进nfc rf发现循环调谐的方法和装置
US11919184B2 (en) Apparatus for assessing the condition of a shaving razor cartridge
US20210323179A1 (en) Shaver with sensors and methods for providing a shaving lubricant having a smart polymer
CN110140030A (zh) 用于提供传感器数据收集和传感器配置的方法、装置和计算机程序产品
CN107004055A (zh) 用于提供可穿戴设备之间的连接关系的系统和方法
Perumal et al. IoT based activity recognition among smart home residents
GB2549813A (en) Activity intensity level determination
CN110192398A (zh) 传感器数据的传输
CN110650827B (zh) 用于电感测剃须刀刀片磨损的系统和方法
US11052555B2 (en) System and method for sensing debris accumulation in shaving razor cartridge
CN115024690A (zh) 酒精代谢检测方法、计算机设备及存储介质
EP3379850A1 (en) Method and device for activity recognition
EP4108397A1 (en) Determining a beard growth distribution for a subject
JP2016110534A (ja) 生体センサを用いた情報入力装置、生体センサを用いた情報入力方法、生体センサを用いた情報入力プログラム
WO2018133270A1 (zh) Vr设备的配置方法及装置、vr设备
JP2015011672A (ja) 表示端末、表示制御方法、画像表示システム及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220506

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230914

R150 Certificate of patent or registration of utility model

Ref document number: 7351852

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150