JP6530568B2 - 身体の一部分を処理するシステム及び方法 - Google Patents

身体の一部分を処理するシステム及び方法 Download PDF

Info

Publication number
JP6530568B2
JP6530568B2 JP2018543251A JP2018543251A JP6530568B2 JP 6530568 B2 JP6530568 B2 JP 6530568B2 JP 2018543251 A JP2018543251 A JP 2018543251A JP 2018543251 A JP2018543251 A JP 2018543251A JP 6530568 B2 JP6530568 B2 JP 6530568B2
Authority
JP
Japan
Prior art keywords
processing
hair
controller
image data
cutting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018543251A
Other languages
English (en)
Other versions
JP2019508131A (ja
Inventor
ファット フーン,キン
ファット フーン,キン
ヘンドリク ボトマ,ヤコブ
ヘンドリク ボトマ,ヤコブ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2019508131A publication Critical patent/JP2019508131A/ja
Application granted granted Critical
Publication of JP6530568B2 publication Critical patent/JP6530568B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B26HAND CUTTING TOOLS; CUTTING; SEVERING
    • B26BHAND-HELD CUTTING TOOLS NOT OTHERWISE PROVIDED FOR
    • B26B19/00Clippers or shavers operating with a plurality of cutting edges, e.g. hair clippers, dry shavers
    • B26B19/38Details of, or accessories for, hair clippers, or dry shavers, e.g. housings, casings, grips, guards
    • B26B19/3873Electric features; Charging; Computing devices
    • B26B19/388Sensors; Control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B26HAND CUTTING TOOLS; CUTTING; SEVERING
    • B26BHAND-HELD CUTTING TOOLS NOT OTHERWISE PROVIDED FOR
    • B26B19/00Clippers or shavers operating with a plurality of cutting edges, e.g. hair clippers, dry shavers
    • B26B19/20Clippers or shavers operating with a plurality of cutting edges, e.g. hair clippers, dry shavers with provision for shearing hair of preselected or variable length
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B26HAND CUTTING TOOLS; CUTTING; SEVERING
    • B26BHAND-HELD CUTTING TOOLS NOT OTHERWISE PROVIDED FOR
    • B26B19/00Clippers or shavers operating with a plurality of cutting edges, e.g. hair clippers, dry shavers
    • B26B19/38Details of, or accessories for, hair clippers, or dry shavers, e.g. housings, casings, grips, guards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Forests & Forestry (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Radiation-Therapy Devices (AREA)
  • Image Processing (AREA)
  • Dry Shavers And Clippers (AREA)

Description

本発明は処理される身体の一部分を処理するシステムに関連する。例えば、本発明は処理される身体の一部分部分におけるヘアをカットするシステムに関連する。本発明は処理される身体の一部分を処理する方法にも関連する。
例えば(人間又は動物の身体のような)処理される身体部分のヘアをカットすることにより身体部分を処理するシステムは、例えばトリマー(trimmers)のような給電される携帯デバイスを含み、トリマーは、ユーザ又は客体の身体の一部分に当てられ、ヘアがカットされる領域にわたって動かされる。そのようなシステムは、機械的なヘア・カット・デバイスを含む。システムのユーザは、典型的には、切刃(a cutting blade)を越えて延びる櫛又はガードのようなガイドを調節又は選択することによりカットする長さを選択し、何れのヘア領域をカットして何れの領域がカットされるべきでないかを、適切にデバイスを配置及び動作させることにより選択する。
ユーザ自身のヘア又は他の誰かのヘアをカットする場合、特定のヘアスタイルを作る又は人前に出せる結果をもたらすには、かなりのスキルが要求される。従って、自動的にヘアをカットして特定のヘアスタイルを作ることが可能なシステムを提供するための努力がなされている。或る種のデバイスは、使用中に客体又はユーザにより保持され、身体部分上におけるデバイスの位置に応じて、ヘア・カット長が自動的に調節される。従って、これらの種類のデバイスは、デバイスが身体部分上の位置を決定できるようにする何らかの手段を必要とする。
WO2013/096572はそのような自動化されたヘア・カット・システムを説明しており、位置決め構造がユーザに配置され、ヘア・カット・デバイスは位置決め構造と相互作用し、基準点に対するヘア・カット・デバイスの位置を決定する。
WO2013/096572に示されるもののようなシステムはユーザにより装着される又はユーザの上に置かれる構造を必要とし、そのようなシステムは客体が使用するには特に便利でないこと、そして、上記の問題を実質的に軽減又は克服し且つ使用される携帯デバイスとは別個の位置決め構造を必要としない、処理される身体の一部分を処理するシステム及び/又は方法を提供することは望ましいものであることが、認められるであろう。
第1側面によれば、コントローラ及び処理デバイスを有する処理システムが提供され、処理デバイスは、客体の身体の一部分を処理する処理ユニット;及び画像データを取得するように構成される撮像系(an imaging arrangement)を有し、コントローラは、客体の身体の一部分と身体の一部分周辺の環境との間の境界を識別するために画像データを分析し;及び画像データにおける境界の位置に基づいて、客体の身体の一部分に対する処理デバイスの位置を決定するように構成される。
或る実施形態では、コントローラは処理デバイス内に含まれる。代替的な実施形態では、コントローラは処理デバイスのベース・ユニット内に含まれ、処理デバイスは、ベース・ユニット内のコントローラへ画像データを送信するように構成される。
或る実施形態では、撮像系は、温度、熱、又は赤外線(IR)のセンサ又はセンサ・アレイを有する。これらの実施形態では、コントローラは、客体により放出される熱と、周辺の環境により放出される熱との間の差分に基づいて、境界を識別するように構成されることが可能である。
代替的な実施形態では、撮像系は可視光センサ又はセンサ・アレイを有する。これらの実施形態では、コントローラは、身体の一部分の色及び/又は形状と、周辺の環境の色及び/又は形状との間の差分に基づいて、境界を識別するように構成される。
或る実施形態では、コントローラは、画像データから導出される画像の端から境界までの距離に基づいて、処理デバイスの位置を決定するように構成される。
或る実施形態では、客体の身体の一部分は客体の頭部であり、コントローラは、画像データから導出される画像の上端又は下端から境界までの距離に基づいて、頭部における処理デバイスの高さを決定するように構成される。
或る実施形態では、客体の身体の一部分は客体の頭部であり、コントローラは、画像データの中で客体の耳を識別し、(i)画像の上端又は下端から境界までの距離と画像における耳の位置とに基づいて、頭部における処理デバイスの高さを決定する;及び/又は(ii)画像データから導出される画像における耳の位置に基づいて、処理デバイスが頭部の側方にあるか後方にあるかを判断するように構成される。
代替的な実施形態では、撮像系は距離を測定するように構成される1つ以上のレンジ・センサを有し、その距離は、撮像系から、撮像系を起点とする1つ以上の所定の方向における最近接オブジェクトまでの距離である。これらの実施形態において、コントローラは、測定された距離のうち閾値を超えるものに基づいて境界を識別するように構成されることが可能である。
代替的な実施形態では、撮像系は、撮像系から1つ以上の所定の方向における撮像系に対して閾値距離の範囲内にオブジェクトが存在するか否かを検出するように構成される1つ以上の近接センサを有する。これらの実施形態において、コントローラは、所定の方向のうち閾値距離の範囲内でオブジェクトが検出されたものに基づいて、境界を識別するように構成されることが可能である。
或る実施形態では、コントローラは、処理デバイスの決定された位置における、客体の身体の一部分に対する処理アクションを決定し;及び決定された処理アクションを実行するように処理ユニットを設定するために、処理ユニットへ制御信号を出力するように更に構成される。
或る実施形態では、コントローラは、処理デバイスの決定された位置において、客体の身体の一部分に対して処理アクションが必要とされるか否かを判断し;及び処理アクションが必要とされるか否かに応じて、処理ユニットをアクティベート又はデアクティベートするために、処理ユニットへ制御信号を出力するように更に構成される。
好ましい実施形態では、処理システムがヘア・カット・システムであり、処理デバイスはカット・デバイスであり、処理ユニットは客体のヘアをカットするカット・ユニットである。
これらの実施形態において、カット・ユニットのヘア・カット長は、コントローラからの制御信号に基づいて設定可能であり、コントローラは、ヘア・カット・デバイスの決定された位置における客体のヘアについてヘアの長さを決定し;及び決定されたヘアの長さにヘアをカットするようにカット・ユニットを設定するために、カット・ユニットへ制御信号を出力するように更に構成されることが可能である。
これらの実施形態において、コントローラは所定のパターンに従って客体のヘアについてのヘアの長さを決定するように構成されることが可能であり、所定のパターンは、客体の身体の一部分でのヘア・カット・デバイスの複数の可能な位置におけるヘアの長さを指定する。
これらの実施形態において、客体の身体の一部分は客体の頭部であるとすることが可能であり、コントローラは、ヘア・カット・デバイスが頭部の側方にあると判断された場合の客体のヘアに関し、ヘア・カット・デバイスが頭部のトップにあると判断された場合のヘアの長さよりも短いヘアの長さを決定するように構成されることが可能である。
これらの実施形態において、客体の身体の一部分は客体の頭部であるとすることが可能であり、コントローラは、ヘア・カット・デバイスが客体の頭部の側方又は後方の生え際又はその付近にあると判断された場合、客体のヘアについて第1ヘア長を決定し、ヘア・カット・デバイスが頭部の側方又は後方の生え際から離れていると判断された場合、ヘアについて第2ヘア長を決定するように構成されることが可能であり、第1ヘア長は第2ヘア長より短い。
第2側面によれば、処理システムの処理デバイスの位置を決定する方法が提供され、処理デバイスは客体の身体の一部分を処理する処理ユニットを有し、本方法は:撮像系を利用して画像データを取得するステップ;客体の身体の一部分と身体の一部分周辺の環境との間の境界を識別するために画像データを分析するステップ;及び画像データにおける境界の位置に基づいて、客体の身体の一部分に対する処理デバイスの位置を決定するステップを有する。
或る実施形態では、撮像系は、温度、熱、又は赤外線(IR)のセンサ又はセンサ・アレイを有する。これらの実施形態では、分析するステップは、客体により放出される熱と、周辺の環境により放出される熱との間の差分に基づいて、境界を識別するステップを含むことが可能である。
代替的な実施形態では、撮像系は可視光センサ又はセンサ・アレイを有する。これらの実施形態では、分析するステップは、身体の一部分の色及び/又は形状と、周辺の環境の色及び/又は形状との間の差分に基づいて、境界を識別するステップを含むことが可能である。
或る実施形態では、決定するステップは、画像データから導出される画像の端から境界までの距離に基づいて、処理デバイスの位置を決定するステップを含むことが可能である。
或る実施形態では、客体の身体の一部分は客体の頭部であり、決定するステップは、画像データから導出される画像の上端又は下端から境界までの距離に基づいて、頭部における処理デバイスの高さを決定するステップを含むことが可能である。
或る実施形態では、客体の身体の一部分は客体の頭部であり、本方法は、画像データの中で客体の耳を識別するステップを更に有し、決定するステップは、画像の上端又は下端から境界までの距離と画像における耳の位置とに基づいて、頭部における処理デバイスの高さを決定するステップを含む。
或る実施形態では、客体の身体の一部分は客体の頭部であり、本方法は、画像データの中で客体の耳を識別するステップを更に有し、決定するステップは、画像データから導出される画像における耳の位置に基づいて、処理デバイスが頭部の側方にあるか後方にあるかを判断するステップを含む。
代替的な実施形態では、撮像系は距離を測定するように構成される1つ以上のレンジ・センサを有し、その距離は、撮像系から、撮像系を起点とする1つ以上の所定の方向における最近接オブジェクトまでの距離である。これらの実施形態において、分析するステップは、測定された距離のうち閾値を超えるものに基づいて境界を識別するように構成されることが可能である。
代替的な実施形態では、撮像系は、撮像系から1つ以上の所定の方向における撮像系に対して閾値距離の範囲内にオブジェクトが存在するか否かを検出するように構成される1つ以上の近接センサを有する。これらの実施形態において、分析するステップは、所定の方向のうち閾値距離の範囲内でオブジェクトが検出されたものに基づいて、境界を識別するように構成されることが可能である。
或る実施形態では、本方法は、処理デバイスの決定された位置における、客体の身体の一部分に対する処理アクションを決定するステップ;及び決定された処理アクションを実行するように処理ユニットを設定するために、処理ユニットへ制御信号を出力するステップを更に含む。
或る実施形態では、本方法はは、処理デバイスの決定された位置において、客体の身体の一部分に対して処理アクションが必要とされるか否かを判断するステップ;及び処理アクションが必要とされるか否かに応じて、処理ユニットをアクティベート又はデアクティベートするために、処理ユニットへ制御信号を出力するステップを更に含む。
好ましい実施形態では、処理システムがヘア・カット・システムであり、処理デバイスはカット・デバイスであり、処理ユニットは客体のヘアをカットするカット・ユニットである。
これらの実施形態において、カット・ユニットのヘア・カット長は、制御信号に基づいて設定されることが可能であり、本方法は、ヘア・カット・デバイスの決定された位置における客体のヘアについてヘアの長さを決定するステップ;及び決定されたヘアの長さにヘアをカットするようにカット・ユニットを設定するために、カット・ユニットへ制御信号を出力するステップを更に含むことが可能である。
これらの実施形態において、ヘアの長さを決定するステップは、所定のパターンに従って客体のヘアについてのヘアの長さを決定するステップを含むことが可能であり、所定のパターンは、客体の身体の一部分でのヘア・カット・デバイスの複数の可能な位置におけるヘアの長さを指定する。
これらの実施形態において、客体の身体の一部分は客体の頭部であるとすることが可能であり、ヘアの長さを決定するステップは、ヘア・カット・デバイスが頭部の側方にあると判断された場合の客体のヘアに関し、ヘア・カット・デバイスが頭部のトップにあると判断された場合のヘアの長さよりも短いヘアの長さを決定するステップを含むことが可能である。
これらの実施形態において、客体の身体の一部分は客体の頭部であるとすることが可能であり、ヘアの長さを決定するステップは、ヘア・カット・デバイスが客体の頭部の側方又は後方の生え際又はその付近にあると判断された場合、客体のヘアについて第1ヘア長を決定し、ヘア・カット・デバイスが頭部の側方又は後方の生え際から離れていると判断された場合、ヘアについて第2ヘア長を決定するステップを含むことが可能であり、第1ヘア長は第2ヘア長より短い。
第3側面によれば、コンピュータ読み取り可能なコードを組み込んだコンピュータ読み取り可能な媒体を含むコンピュータ・プログラム・プロダクトが提供され、コンピュータ読み取り可能なコードは、適切なコンピュータ又はプロセッサにより実行されると、コンピュータ又はプロセッサが上記の何れかの方法を実行させられるように構成されている。
以下、本発明の実施形態が単なる一例として添付図面を参照しながら説明される。
図1は実施形態によるシステムのブロック図である。 図2は一実施形態による携帯式カット・デバイスの概略図である。 図3は本発明の実施形態による方法を示すフローチャートである。 図4は、客体に関して使用するデバイスと、客体に関する第1及び第2位置で撮像配置により取得される対応する画像とを示す。 図5は別の実施形態による別の位置で撮像配置により取得される画像データを示す。 図6は実施形態による携帯式カット・デバイスの概略図である。 図7は客体の頭部に関する4つの異なる位置におけるカット・デバイスを示す。 図8は客体の頭部に関する4つの異なる位置における代替的な実施形態によるカット・デバイスを示す。
上述したように、ヘアをカットする又は身体に対して別の種類の処理を施す自動化されたシステムを提供することが望まれており、そのシステムは、位置決め構造を使用する必要無しに、又は、客体に装着される、持ち運ばれる若しくは配置される必要がある他の別個の装置部分を使用する必要無しに、処理される身体の部分に対する自身の位置を決定することが可能なものである。
従って、本発明は、処理される身体の部分に近接して又は接触して使用されるデバイスが、単にデバイスの撮像配置を利用するだけで、客体の身体の一部分に対する位置を決定することを可能にする技術を提供する。特に、画像データが撮像配置を利用して取得され、この画像データは、客体の身体の一部分と客体の一部分周辺の環境との間の境界を識別するために分析される。画像データの中での客体の位置は、身体の一部分に対するデバイスの位置に基づいて変動するであろうし、従ってその境界の位置は身体の一部分に対するデバイスの位置に関連付けられることが可能である。
例えば、画像データが、赤外線(IR)カメラを利用して取得されるIR画像、又は温度差を示す他の画像データである場合、画像データは、客体の身体の一部分に対応する、画像データのうちの「暖(warm)」部分と、客体周辺の環境に対応する、画像データのうちの「冷(cold)」部分とを判別するために分析されることが可能である。画像データにおけるこれらの暖部分及び冷部分の間の境界の位置は、客体の身体の一部分に対するデバイスの位置を決定するために使用されることが可能である。代替的な実施形態では、画像データは 1つ以上のレンジ・センサ又は近接センサを利用して取得されることが可能な非常に「粗いもの(coarse)」(即ち、非常に僅かな「ピクセル」しか含んでいないもの)であるとすることが可能であり、それらのセンサは、センサから複数の所定の方向において最も近いオブジェクトまでの距離を測定する。画像データは、客体の身体の一部分に対応する、画像データの近辺部分(the close parts)と、客体周辺の環境に対応する、画像データの遠方部分(the distant parts)とを判別するように分析されることが可能である。画像データにおける近辺部分と遠方部分との間の境界の位置は、客体の身体の一部分に対するデバイスの位置を決定するために使用されることが可能である。上記の実施形態は図4-8を参照しながら以下詳細に説明される。
図1は、処理される身体の一部分を処理するための本発明の一般的な実施形態によるシステム2を示す。システム2は、ユーザにより保持され且つ客体の身体の一部分において使用されることが可能な携帯式処理デバイス4を含む。客体はデバイス4を使用及び操作している人であるとすることが可能であり(即ち、ユーザは自らデバイス4を使用している)、或いは客体はデバイス4のユーザとは異なる人であるとすることが可能である。以下に説明される実施形態では、システム2/処理デバイス4のユーザは、処理される人であることが仮定されている(即ち、ユーザは自ら処理するためにシステム2を使用している)。
処理デバイス4は、処理される身体の一部分に関して処理アクションを実行する処理ユニット6を含む。好ましい実施形態において、処理アクションは身体の一部分におけるヘアをカットすることであり(例えば、ヘアはユーザの頭部、顔、胸、脚などにおける毛である)、その場合、処理ユニットはカット・ユニットである。最も好ましい実施形態では、身体の一部分は頭部であり、処理アクションは髪を切ることである。代替的な実施形態では、処理アクションは身体の一部分をマッサージすることであり、その場合、処理ユニット6は、身体の一部分に圧力をかける及び/又は揉みほぐす1つ以上のコンポーネントを有することが可能である。別の代替的な実施形態では、処理アクションは身体の一部分に入れ墨を入れることであり、その場合、処理ユニット6は身体の一部分の皮膚に又は皮膚の中にインクを付ける1つ以上のコンポーネント(例えば、針)を有することが可能である。当業者は、本発明によるシステム2で使用されることが可能な他の種類の処理アクション及び処理ユニットを承知しているであろう。
システム2は、本発明による方法を実行するように構成されるコントローラ8も含み、コントローラ8は一実施形態では本発明に従って処理デバイス4の動作を制御するように構成される。或る実施形態では、コントローラ8は処理デバイス4の一部分であるが、別の実施形態ではコントローラ8は、システム2のうちの、処理デバイス4とは別の部分である。例えば、システム2はベース・ユニット(例えば、処理デバイス4のためのドッキング及び/又は充電ステーション)を有することが可能であり、コントローラ8はそのベース・ユニットの一部分であるとすることが可能である。コントローラ8が、システム2のうちの、処理デバイス4とは別の部分にある実施形態において、制御信号及び/又はその他の情報又はデータ(例えば、画像データ)をコントローラ8とやり取りし、且つそれに応じて処理デバイス4の動作を制御するように構成される個々のコントローラ及び/又は他の回路(例えば、トランシーバ回路)を、処理デバイス4は有していてもよい。コントローラ8は、プロセッサ、コントロール・ユニット、プロセッシング・ユニット、マルチコア・プロセッサ等のような適切な任意のタイプの電子コンポーネントであるとすることが可能である。図1には示されていないが、コントローラ8は、プログラム・コードを保存するために使用されることが可能な付随するメモリ・ユニットを有していてもよく、そのプログラム・コードは、本願で説明される方法を実行するためにコントローラ8により実行されることが可能である。
処理デバイス4は撮像系10も有し、撮像系10は、処理デバイス4の中又は上に配置され、且つ画像データを取得するためのものである。撮像系10は処理デバイス4に配置され、それにより、処理ユニット6の周辺の領域に対応する画像データを取得できるようにし、画像データは、例えば、客体身体部分のうちの処理される部分に加えて、処理デバイス4が使用される場合における処理デバイス4周辺の環境を含む。
撮像系10は、処理される客体の身体の一部分と客体周辺の環境との間で、コントラストが識別されることを可能にする適切な何らかのタイプのデバイス又はコンポーネントであるとすることが可能である。上述したように、本発明によるポジション・センシング技術は、このコントラストを活用して、画像データの中で客体と環境との間の境界の位置を識別し、その客体の位置は処理デバイス4の位置を決定するために使用される。
或る実施形態において、撮像系10は、赤外線(IR)センサ(又はIRセンサ・アレイ)又はIRカメラ、熱センサ(又は熱センシング・アレイ)、可視光センサ(又はセンサ・アレイ)又はカメラ、処理デバイス4から1つ以上の方向における近接したオブジェクトを判別できるようにする1つ以上の近接センサ、或いは、処理デバイス4から1つ以上の方向における最近接オブジェクトまでの距離を測定又は決定できるようにする1つ以上の距離センサを含むことが可能である。近接センサ及び/又は距離センサは、例えば、光(例えば、レーザ光)又は音(例えば、超音波)を利用するタイム・オブ・フライト距離測定、或いは、超音波、赤外線、温度/熱、レーザ光などに基づく近接性のような適切な任意の技術に基づくことが可能である。当業者は、記述されたものとは別のタイプの撮像系10が本発明の代替的な実施形態で使用され得ることを認めるであろう。
この詳細な説明の以下においては、ヘアをカットする又は切るためのものであるカット・デバイス4を有するシステム2に関連して、本発明が説明される。しかしながら、以下の説明における実施形態の教示、特に客体の身体におけるカット・デバイス4の位置を判断する技術は、身体の一部分における他のタイプの処理を実行するためのシステム(例えば、皮膚に入れ墨を適用するシステム、肌をマッサージするシステム等)に容易に適用できることは、当業者に認められるであろう。
次に、図2は携帯式ヘア・カット・デバイス4を有するヘア・カット・デバイス2を示す。この図示の実施形態では、コントローラ8はカット・デバイス4の一部分である。上述したように、カット・デバイス4は、カット・ユニット6及び撮像系10も含む。使用の際、カット・デバイス4は、客体の身体の一部分の皮膚の上で、身体のその部分のヘアをカットする、整える又は刈るために動かされる。
コントローラ8は、カット・デバイス4の使用中に撮像系10から画像データを受信し、カット・ユニット6の動作を制御する(例えば、カットする動作を制御する、及び/又はカット・ユニット6のカットする長さ制御する)。本実施形態では、コントローラ8、撮像系10、及びカット・ユニット6は有線接続により通信するが、代替的な実施形態も想定されている。例えば、コントローラ8、撮像系10、及びカット・ユニット6はワイヤレス・コネクションにより接続されてもよい(また、コントローラ8がカット・デバイス4の一部分ではない実施形態において、ワイヤレス・コネクションが使用されてもよいことが、認められるであろう)。例えば、無線又は赤外線の送信機及び受信機のような(図2には示されていない)ワイヤレス・モジュールは、システム2の様々なコンポーネントを無線で接続するように動作する。適切なワイヤレス技術は、ブルートゥース(登録商標)、Zigbee、Wi-Fi等を含む。コントローラ8は、システム2に対して外部の他のデバイス又はコンポーネントに接続することも可能であってよい。
撮像系10は、カット・デバイス4の前方の少なくとも或る領域について、即ち撮像系10からカット・ユニット6の方の及びそれを越える方向の画像データを取得するために、カット・デバイス4内に構成され、それにより使用中に、撮像系10からの画像データが、処理される/されつつある身体の一部分及び/又は処理される/されつつある身体の一部分周辺の環境に関する画像データを含むようにする。
カット・デバイス4は本体12を有し、本体12の一方端にカット・ユニット6を有する。本体12はハンドル部分14を規定する。本体12及びカット・ユニット6は、ハンドル部分14がユーザにより保持されることが可能であるように構成される。
カット・ユニット6は、ヘアを整える又はカットするように構成され、ヘアをカットする適切な任意の仕組みを有し得る。例えば、カット・ユニット6は、不動の処理エレメント(例えば、不動の切刃)と、ドライバ又はアクチュエータ(例えば、電導モータ)により動かされる可動の処理エレメント(例えば、可動の切刃)とを有することが可能であり、ドライバ又はアクチュエータは、不動の処理エレメントに対して、可動な処理エレメントを動かす。ヘアは、不動の処理エレメントからはみ出し、可動の処理エレメントの動きに起因する刈り込み動作に起因してカットされる。別の例として、カット・ユニット6はフォイル(a foil)を有することが可能であり、そのフォイルを貫通してヘアが突出し、可動の刃が、突出しているヘアをカットするように、フォイル上で動く。
説明される本実施形態では、カット・デバイス4は、ガイド・フェース18(a guide face 18)を有するガイド16を有する。ガイド・フェース18は端部表面を形成する。使用中、ガイド・フェース18は、ヘアがカットされる身体部分に寄せて配置される。ガイド・フェース18は、カット・ユニット6から隔てられている。しかしながら、或る実施形態では、カット・ユニット6及び/又はガイド16は、ガイド・フェース16及びカット・ユニット6が互いに平坦に横たえられるように調節可能であってもよい。ガイド・フェース18は、カットの後に残されるヘアの長さを制御するために、ヘアがカットされる身体部分(例えば、客体の頭部の皮膚)からカット・ユニット6を隔てるように配置される。別の実施形態では、ガイド16は省略されてもよい。
或る実施形態では、ガイド16は櫛である。ガイド16は、複数の並行で離間された櫛歯(図2には示されていない)を有する。離間された櫛歯(The spaced comb teeth)は、それらの間をヘアが通ることを許容し、それにより、ヘアがカット・ユニット6に対して露わにされ、カット・ユニット6によりカットされるようにする。各々の歯の本体12から遠方の表面はガイド・フェース18を形成する。ガイド16は、本体12に又はカット・ユニット6に搭載されることが可能である。ガイド16は本体12に対して取り外し可能に搭載されることが可能である。ガイド16は、カットの後に残されるヘアの長さを調節するために、別のガイドと交換可能である及び/又は置換されることが可能である。
或る実施形態では、カット・ユニット6のカットする長さは、コントローラ8からの制御信号に従って自動的に調節されることが可能である。例えば、カット・ユニット6とガイド・フェース18との間の距離は、カットする長さに変化を及ぼすように調節されることが可能である。当業者は、カットする長さが自動的に制御され得る様々なタイプのカット・ユニット6/カット・デバイス4を承知しているであろう。
図1及び2に示されるシステム2のコンポーネント及び特徴は網羅的ではなく、システム2の実際の手段は図示及び上述したものとは別のコンポーネント及び特徴を含むであろうということが認められるであろう。例えば、カット・デバイス4は、バッテリのような電源、或いはカット・デバイス4を電源に接続する手段を含んでもよい。代替的又は追加的に、カット・デバイス4又はシステム2の他の部分は、システム2の動作の制御をユーザに許容する、1つ以上のボタン、制御部、又はその他のユーザ・インターフェース要素を有してもよい。
図3は、カット・デバイス4の位置を判断する本発明による方法のフロー・チャートを示す。上述したように、本方法はカット・デバイス4に関連して説明されるが、本方法は任意のタイプの処理デバイス4に適用可能であることが認められるであろう。また、上述したように、本方法を実行することをコントローラ8に可能にするプログラム・コードが、コントローラ8に関連するメモリ・ユニットに保存されてもよい。
図3の方法はまた図4に関連付けて説明され、図4は本発明により使用される一般的な概念を示す。図4は、カット・デバイス4が客体30の頭部に接触する場合に、客体30の頭部に対して2つの異なる位置にあるカット・デバイス4に関する撮像系10を示す。図4(a)は、撮像系10が客体30の耳の位置と近似的に同じ高さ(レベル)であるポジションAにおける撮像系10を示し、図4(b)は、撮像系10が客体30の耳より上のポジションBにおける撮像系10を示す。説明の簡明化のため、カット・デバイス4は図4に示されていない。
ステップ101において、画像データが撮像系10により取得される。上述したように、画像データは、カット・デバイス前方の(即ち、客体への方向の)エリア又は領域31に関連することになる。取得される画像データのタイプは、以下で更に詳細に説明されるように、カット・デバイス4の中又は上にある撮像系10のタイプに依存することになる。ステップ101は、画像データを取得するように撮像系10を動作させること、有線又は無線接続により撮像系10から画像データを受信すること、或いは以前に取得した画像データをメモリ・ユニットから取り出すことを含むことが可能である。
ポジションAで取得される画像データの図式表現32(例えば、画像データ32から導出される画像)は図4(c)に示されており、ポジションBで取得される画像データの図式表現32は図4(d)に示されている。
コントローラ8は画像データを受信し、ステップ103において、コントローラ8は、客体の身体の一部分と身体の一部分周辺の環境との間の境界を識別するために、画像データを分析する。特に、処理される客体の身体の一部分と客体周辺の環境との間の画像データにおけるコントラストに基づいて、コントローラ8は境界を識別する。
そして、ステップ103において、コントローラ8は画像データのうち対照をなす部分34,36を識別し、特に、客体30の身体の一部分周辺の環境として部分34と、客体30の身体の一部分として部分36とを識別する。コントローラ8は、これらの部分34,36の間を走るライン38として境界を識別する。一般に、ライン38は画像データ32内の客体30の頭部の輪郭に対応することが、理解できる。
次に、ステップ105において、コントローラ8は、画像データにおける境界の位置に基づいて、処理される/されつつある身体の部分に対するヘア・カット・デバイス4の位置を判断する。特に、画像データ中の境界の位置は、身体の一部分に対するカット・デバイス4の位置に基づいて変化することになり、従って、境界の位置は、身体の一部分に対するカット・デバイス4の位置に関連付けられることが可能である。
即ち、ポジションAでは、客体30の頭部は、撮像系10の視野をほぼ完全に満たし、境界38は、客体30の頭部が撮像系10の視野をそれほど満たしていない場合である図4(d)の境界38よりも、画像データの図式表現32の上端にかなり近いことが、図4(c)から理解できる。この相違は、客体30の頭部に対する撮像系10の高さの相違に起因する。境界38の画像32の上端からの距離(或いは、画像32の下端からの距離(何れか好ましい方が使用されてよい))が、客体30の頭部に対するカット・デバイス4の高さを決定するために使用されることが可能である。客体30の頭部に対するカット・デバイス4の高さは、頭の先からカット・デバイス4の垂直距離の観点から与えられることが可能であることが、認められるであろう。
或る実施形態において、ステップ105は、境界38から画像32の上端又は下端までの距離を、頭部に関するカット・デバイス4の位置(例えば、垂直高さ)に関連付けるルックアップ・テーブルを利用することを包含してもよい。ルックアップ・テーブルにおけるデータは、予め決定されていてもよいし、或いは、キャリブレーション・プロシジャで決定されることも可能であり、キャリブレーション・プロシジャでは、カット・デバイス4は、客体30の頭部上の様々な位置の間で動かされ、境界38がその位置に位置付けられることを確認するために各々の位置で画像データ32が取得及び分析される。
上述したように、或る実施形態では、撮像系10は、温度、熱又は赤外線(IR)センサ又はセンサ・アレイ(例えば、IRカメラ)を含むことが可能であり、客体及び環境の間のコントラストは、周辺環境から放出される熱に対する、客体から放出される熱に基づいて識別されることが可能である。図4に示される例では、客体部分36は、画像データ32のうち、より暖かい又は最も暖かい部分として識別されることが可能であり、環境部分34は画像データ32のうち、涼しい又はより冷たい部分として識別されることが可能である。画像データ32の内のより暖かい部分及びより冷たい部分の間の境界を識別するためにIRデータを分析する技術は、当業者にとって既知であろう。
代替的な実施形態において、撮像系10は、可視光センサ(又はセンサ・アレイ)、又は可視光に基づいて画像を取得するカメラを有することが可能であり、周辺環境に対する客体の色及び/又は形状に基づいて、コントラストが識別されることが可能である。図4に示される例では、客体部分36は、環境部分34として識別される画像データ32のうちの残りの部分の色と対比して、同一又は類似する色(即ち、ヘアの色)の領域に基づいて、識別されることが可能である。代替的(又は追加的に)、画像データにおける形状が識別されることが可能であり、その形状に基づいて境界38が識別される。
以下で説明されるように、客体30の頭部に対するカット・デバイス4の垂直位置又は高さを決定することに加えて、客体の頭部上のカット・デバイス4の水平又は横方向の位置を決定するために、境界38の位置及び/又は画像データ32の他の特徴を利用することが可能である。例えば、カット・デバイス4が客体の頭部の側方(即ち、左又は右)又は後方にあるか否かを判断することが可能である。特に、カット・デバイス4で使用される撮像系10のタイプに依存して、(例えば、温度、外観、光強度、形状などにおける、髪及び耳の間のコントラストにより)画像データの中で客体の耳を識別することが可能であるかもしれないし、画像データ32における耳の位置は、カット・デバイス4の水平又は横方向の位置を識別するために使用されることが可能である。同様に、画像データにおける他の顔の特徴(例えば、目、鼻、口、額など)、又は身体の他の特徴を識別し、それらの特徴の位置を利用して、カット・デバイス4の水平又は横方向の位置を識別することが、可能であるかもしれない。画像又は画像データ32における耳(又は他の特徴)の位置が、客体30の頭部に対するカット・デバイス4の垂直位置又は高さを決定するために、境界38の位置と組み合わせて使用され得ることも、認められるであろう。
図5は、実施形態に従ってカット・デバイス4の垂直及び水平位置を識別するために、可視光センサ・アレイがどのように使用され得るかを示す。図5(a)は、近似的に客体の耳39の高さにある、客体30の頭部側方に配置される1x128アレイを形成するラインに配置される128個の光センサを有するカメラ・センサ形式の撮像系10を示す。光センサ各々は入射光の強度又は輝度を測定する。図5(a)のグラフは、アレイ中の128個のセンサ各々に対する光強度値のプロットである。小さな番号のセンサはアレイの上方におけるもの(従って、頭部の上方の画像)に対応し、大きな番号のセンサはアレイの下方におけるもの(従って、頭部の下方及び耳の画像)に対応する。境界38は、入射光の輝度又は強度が、画像データの隣接する部分よりも極めて高くなっている場所(即ち、画像データ32の中でコントラストが存在する場所)であるとして識別されることが可能であり、耳39は、髪からの光と比較して、耳39からの光強度の相違(及び耳の構造による光強度の相違)に起因して識別されることが可能であることが、図5(a)から理解できる。距離Hheadは頭部上のヘアの高さ又は距離である(即ち、耳のトップから頭のトップまでの距離である)。かくて、光強度データから、耳が画像データ32の中で検出可能であるので、カット・デバイス4は客体の頭部の側方にあることを判断することが可能である。或る実施形態では、耳の垂直位置は、客体30の頭部上のカット・デバイス4の垂直位置を決定するために、客体38の位置と一緒に考察されることが可能である。
図5(b)は、客体30の生え際における頭部後方に位置する同じ撮像系10を示す。図5(b)のグラフは、アレイの128個のセンサ各々に対する光強度値のプロットである(ここでも、小さな番号のセンサは頭部の上方部分を撮像し、大きな番号のセンサは頭部の下方部分を撮像している)。境界38は、入射光の輝度又は強度が、(例えば、頭部の髪に対応する画像データである)画像データの隣接する部分よりも極めて高くなっている場所であるとして識別されることが可能であり、首は、首の皮膚からの光強度の増加に起因して識別され得ることが、図5(b)から理解できる。この場合の距離Hheadは、頭部のヘアの高さ又は距離である(即ち、生え際から頭部のトップまでの距離である)。光強度プロファイルの分析は、画像データ32の中で耳は見えていないことを示す(図5(a)では見えている)。従って、この光強度プロファイルから、耳は検出可能ではないので、カット・デバイス4は客体30の頭部後方にあることが判断されることが可能である。
図5に示されるものに類似するプロファイルが、赤外線センサ・アレイを利用して達成され得ることが、認められるであろう。
別の実施形態において、コントラスト、即ち境界38は、1つ以上の既知の方向における最近接オブジェクト(又はオブジェクト近傍)までの距離の測定に基づいて識別されることが可能である。(1つ以上の)近接センサ及び(1つ以上の)距離センサは、光(例えば、レーザ光)又は音(例えば、超音波)を利用するタイム・オブ・フライト距離測定、又は超音波、赤外線、温度/熱、レーザ光などに基づく近接性のような適切な任意の技術に基づくことが可能である。距離/近接性の実施形態は、図6、7及び8を参照しながら更に詳細に説明される。
特に、図6は携帯式カット・デバイス4の側面図を示し、携帯式カット・デバイス4は、複数の方向における距離又は近接性を測定する撮像系10を有する。4つの測定「方向」が互いに異なる角度で図6に示されており、各方向は40a、40b、40c及び40dのようにラベルが付されている。撮像系10は、従って、各方向40a-40dで最近接オブジェクトまでの距離を測定する。以下の議論では、方向40a-40dは水平面に対する角度のみ相違するように仮定されており、その仮定はカット・デバイス4の垂直位置又は高さをコントローラ8が決定できるようにするが、或る実施形態では、距離又は近接性に基づく撮像系10は、客体30の頭部に対するカット・デバイス4の水平又は横方向の位置をコントローラ8が決定できるように、垂直面からずれた方向における距離を測定することも可能である。
図7は、客体30の頭部に対する4つの異なる位置におけるカット・デバイスを示す。特に、図7(a)ないし7(d)から、カット・デバイス4は経路42に沿って頭部の側方を上昇し且つトップを越えて動かされる。カット・デバイス4が頭部上を動く場合に、全部又は一部の測定方向で測定される距離は変化することになり、特に、頭部の曲率に従って変化し、デバイス4が頭部の側方を上方に動かされる場合、いくつかの方向における測定される距離はかなり相違し得る。
例えば、図7(a)では、方向40a、40b及び40cにおいて測定される距離は非常に短く(例えば、数センチメートル)、なぜならその距離は撮像系10から(カット・デバイス4が接触している)客体30の頭部までの距離だからであり、これに対して、方向40dで測定される距離は非常に長く、なぜならその距離は撮像系10から客体30周辺の環境の部分までの距離を表すことになるからである。これに対して、図7(b)では、カット・デバイス4は頭部側方において図7(a)の場合より高くなっており、従って、その高さにおける頭部の曲率に起因して、方向40a及び40bで測定される距離のみが非常に短くなり、方向40c及び40dで測定される距離は非常に長くなる。図7(c)及び(d)に示される位置では、方向40aで測定される距離のみが、頭部の曲率に起因して相対的に短くなる。
各方向で測定される距離は画像データを形成し(例えば、それぞれ測定される距離は、画像の「ピクセル」と考えられる)、コントローラ8は、画像データを分析して、何れの1つ以上の方向が近接オブジェクト(即ち、客体の頭部)を示し、何れの1つ以上の方向が遠方オブジェクト(即ち、環境)を示しているかを識別し、境界38は、測定された方向の中で大きな変化が存在する隣接する方向の間であると判断される(例えば、「大きな変化」は、距離測定値の差分が例えば10センチメートルより大きい場合である)。
従って、図7(a)に示される位置では、境界38は方向40c及び40dの間であると判断され、これに対して図7(b)に示される位置では、境界38は方向40b及び40cの間であるように識別され、図7(c)の位置では境界38は方向40a及び40bの間であるように識別されることになる。境界38の位置に基づいて、コントローラ8は、客体30の頭部におけるカット・デバイス4の位置を決定することが可能である。
上記のIR及び可視光の実施形態と同様に、ステップ105は、境界38が発見された方向と、頭部に対するカット・デバイス4の位置(例えば、垂直高さ)と、を関連付けるルックアップ・テーブルを利用することを包含してもよい。上記と同様に、ルックアップ・テーブルにおけるデータは、予め決定されていてもよいし、或いは、キャリブレーション・プロシジャで決定されることも可能であり、キャリブレーション・プロシジャでは、カット・デバイス4は、客体30の頭部上の様々な位置の間で動かされ、境界38がその位置に位置付けられることを確認するために各々の位置で画像データ32が取得及び分析される。
図7に示されるような4つの測定方向の利用は単なる例示に過ぎず、より多い又はより少ない方向が使用され得ることが、認められるであろう。より多くの測定方向を利用することは、境界の識別の分解能を向上させる点で有利なこととなり、位置決定の精度を改善することが可能である。
図8は、撮像系10が単独の方向44で距離を測定する簡易な実施形態を示す。図8では、カット・デバイス4は、客体の頭部側方から経路42に沿って頭部のトップへ動く場合における4つの異なる位置に示されている。図8(a)及び(b)に示される位置では、方向44で測定される距離は短いが(なぜなら、その距離は撮像系10から頭部までの距離だからである)、図8(c)及び(d)に示される位置では、方向44で測定される距離は非常に大きく、なぜならそれは(カット・デバイス4のこれらの位置における頭部の曲率に起因する)環境までの距離の測定値だからであることが、理解できる。従って、この実施形態はカット・デバイス4の位置を必ずしも正確に決定できるようにはしないが、それでも、カット・デバイス4が頭部の側方にあるか(図8(a)及び(b))、或いはそうでないか(図8(c)及び(d))を判断することは可能である。
撮像系10が、オブジェクトは1つ以上の測定方向でセンサに近接しているか否かを測定する近接センサである実施形態では、画像データの分析は距離又はレンジセンサに関して上述したものと同様であるが、境界38は、近接オブジェクトの検出から非検出への変化が存在する隣接する測定方向の間であるように決定される点が異なる。例えば、図7(a)では、近接センサは、測定方向40a、40b及び40cにおいて近接オブジェクトを検出するが、40dでは検出しないであろう。従って、境界38は、測定方向40c及び40dの間であるように決定されるであろう。
撮像系10は、位置決定の精度を向上させるために、複数のタイプのセンサを組み合わせてよいことが、認められるであろう。例えば、撮像系10は、IRセンサ、可視光センサ、距離センサ、及び近接センサのうちの2つ以上を含むことが可能である。
本発明の特定の実施形態では、ヘア・カット・システム2は、所望のスタイルに応じてヘアを自動的にカットするためのものであり、コントローラ8は、上記の位置センシング技術を利用して決定される位置を活用して、客体の頭部におけるその位置でカット・ユニット6のカットする長さを決定し、及び/又はカット・ユニット6のカットするアクションがアクティベート又はデアクティベートされるか否かを決定する。
例えば、所望のヘア・スタイル(又は消耗のヘア・スタイルの一部分)は、耳の周辺及び首のエリアで「フェード・アウト(fade out)」を含んでもよく、フェード・アウトの場合、ヘアの長さは徐々にゼロに減らされる。同時に、ヘア・カット・デバイスのユーザは、カットする長さを変更するために、ヘア・カット・デバイスにおける櫛のサイズを手作業で変更するように要求され、或いはそうでない場合は、カット・ユニット6がヘアを通り越した後に残るヘアの長さを変更するために、カット・ユニットのカットする長さを手作業で変更するように要求される。カット・ユニット6のカットする長さが自動的に制御されるカット・デバイス4で使用される場合、本発明は、客体の頭部上の位置を決定し、例えば自動的に「フェード・アウト」することを含むように長さを変えることにより、ヘア・スタイルを作ることを、カット・デバイス4が実行できるようにする。
かくて、再び図3の方法に関し、カット・デバイス4の位置が決定されるステップ105の後に、コントローラは、ヘア・カット・デバイスの決定された位置で客体のヘアについてのヘアの長さを決定する(ステップ107)。
そして、コントローラ8は、決定されたヘアの長さにヘアをカットするようにカット・ユニットを設定するために、カット・ユニット6へ制御信号を出力する(ステップ109)。
代替的又は追加的に、ステップ107において、コントローラは、ヘア・カット・デバイスの決定された位置において、ヘアの何らかのカットが実行されるべきか否かを判断し、必要に応じてカット・アクションをイネーブル又はディセーブルするように出力ユニット6へ制御信号を出力することが可能である。
或る実施形態では、システム2のユーザは、使用前に所定のヘア・スタイルを選択することが可能である。所定のヘア・スタイルは所定のパターンを含むことが可能であり、所定のパターンは、所望のヘア・スタイルを作るために必要な、客体の頭部の様々な位置におけるヘアの長さ(及び/又は客体の頭部の様々な位置で何らかのカット・アクションが必要とされるか否か)を指定する。従って、ステップ105において、コントローラ8は、所望のヘア・スタイルに対する所定のパターンから、現在の位置に対するヘアの長さ/ヘア・カット・アクションを決定することが可能である。
カット・デバイス4が客体の生え際周辺で「フェード・アウト」を形成する実施形態では、ヘア・カット・デバイス4が頭部の側方及び/又は後方又はその近辺(即ち、閾値距離の範囲内)(或いは特に、頭部の側方及び/又は後方の下方部分)にあることが見出されると、コントローラ8は、ヘア・カット・デバイス4が頭部のトップにあると判断された場合よりも短い(第1)長さにヘアをカットするように、カット・ユニット6を制御し、ヘア・カット・デバイス4がトップにある場合、例えば、ヘアは第2の(より長い)長さにカットされる又はカットするアクションをデアクティベートさせることが可能である。
これらの実施形態は単に2つのヘアの長さに限定されず、カット・デバイス4が頭部の側方及び/又は後方で生え際から遠ざかって動かされる場合に、徐々により長い長さにヘアをカットするようにカット・ユニット6を設定することにより、徐々に「フェード・アウト」を作ることが可能であることが、認められるであろう。
判断された位置に基づくカット・ユニット6のアクティベーション及びデアクティベーションは、ヘア・カット・システム2に限定されず、処理デバイス4の判断された位置に基づいて処理ユニットのアクティベーション及びデアクティベーションを制御すること(従って、処理アクションのアクティベーション及びデアクティベーションを制御すること)が、処理システムのコントローラ8にとって可能であることが、認められるであろう。
かくて、使用される処理デバイスに別個の位置決め構造を必要とすることなく、処理デバイスの位置を決定できるようにする処理システム及び方法が提供される。
開示される実施形態に対する変形は、図面、本開示及び添付の特許請求の範囲を学ぶことにより、請求項に係る発明を実施する当業者にとって理解及び把握されることが可能である。特許請求の範囲において、「有する(comprising)」という言葉は他の要素又はステップを排除しておらず、「或る(“a” or “an”)」という不定冠詞的な語は複数個を排除していない。単独のプロセッサ又は他のユニットが特許請求の範囲に記載される複数の事項の機能を充足してもよい。或る複数の事項が相互に異なる従属請求項で引用されているという事実それ自体は、これらの事項の組み合わせが有用に利用できないことを示してはいない。コンピュータ・プログラムは、他のハードウェアとともに又はその一部として提供されるソリッド・ステート媒体又は光ストレージ媒体のような適切な媒体に保存/分散されてもよいが、インターネット又はその他の有線若しくは無線の通信システム等による他の形態で分散されてもよい。
特許請求の範囲における如何なる参照符号もその範囲を限定するように解釈されるべきでない。
国際公開第2013/096572号

Claims (15)

  1. コントローラ;及び
    処理デバイス;
    を有する処理システムであって、前記処理デバイスは:
    客体の身体の一部分を処理する処理ユニット;及び
    画像データを取得するように構成される撮像系;
    を有し、前記コントローラは:
    客体の身体の一部分と前記身体の一部分周辺の環境との間の境界を識別するために前記画像データを分析し;及び
    前記画像データにおける前記境界の位置に基づいて、前記客体の身体の一部分に対する前記処理デバイスの位置を決定する;
    ように構成される、処理システム。
  2. 前記撮像系は、温度、熱、又は赤外線(IR)のセンサ又はセンサ・アレイを有し、前記コントローラは、前記客体により放出される熱と、前記周辺の環境により放出される熱との間の差分に基づいて、前記境界を識別するように構成される、請求項1に記載の処理システム。
  3. 前記撮像系は可視光センサ又はセンサ・アレイを有し、前記コントローラは、前記身体の一部分の色及び/又は形状と、前記周辺の環境の色及び/又は形状との間の差分に基づいて、前記境界を識別するように構成される、請求項1に記載の処理システム。
  4. 前記コントローラは、前記画像データから導出される画像の端から前記境界までの距離に基づいて、前記処理デバイスの位置を決定するように構成される、請求項1、2又は3に記載の処理システム。
  5. 前記客体の身体の一部分は前記客体の頭部であり、前記コントローラは、前記画像データから導出される画像の上端又は下端から前記境界までの距離に基づいて、前記頭部における前記処理デバイスの高さを決定するように構成される、請求項4に記載の処理システム。
  6. 前記客体の身体の一部分は前記客体の頭部であり、前記コントローラは、前記画像データの中で前記客体の耳を識別し、(i)前記画像の上端又は下端から前記境界までの距離と前記画像における耳の位置とに基づいて、前記頭部における前記処理デバイスの高さを決定する;及び/又は(ii)前記画像における耳の位置に基づいて、前記処理デバイスが前記頭部の側方にあるか後方にあるかを判断するように構成される、請求項4又は5に記載の処理システム。
  7. 前記撮像系は、距離を測定するように構成される1つ以上のレンジ・センサを有し、前記距離は、前記撮像系から、前記撮像系から1つ以上の所定の方向における最近接オブジェクトまでの距離である、請求項1に記載の処理システム。
  8. 前記コントローラは、測定された距離のうち閾値を超えるものに基づいて前記境界を識別するように構成される、請求項7に記載の処理システム。
  9. 前記撮像系は、前記撮像系から1つ以上の所定の方向において前記撮像系に対して閾値距離の範囲内にオブジェクトが存在するか否かを検出するように構成される1つ以上の近接センサを有する、請求項1に記載の処理システム。
  10. 前記コントローラは、所定の方向のうち前記閾値距離の範囲内でオブジェクトが検出されたものに基づいて、前記境界を識別するように構成される、請求項9に記載の処理システム。
  11. 前記コントローラは:
    前記処理デバイスの決定された位置における、前記客体の身体の一部分に対する処理アクションを決定し;及び
    決定された処理アクションを実行するように前記処理ユニットを設定するために、前記処理ユニットへ制御信号を出力する;
    ように更に構成される、請求項1ないし10のうち何れか一項に記載の処理システム。
  12. 前記コントローラは:
    前記処理デバイスの決定された位置において、前記客体の身体の一部分に対して処理アクションが必要か否かを判断し;及び
    処理アクションが必要か否かに応じて、前記処理ユニットをアクティベート又はデアクティベートするように、前記処理ユニットへ制御信号を出力する;
    ように更に構成される、請求項1ないし11のうち何れか一項に記載の処理システム。
  13. 前記処理システムがヘア・カット・システムであり、前記処理デバイスはカット・デバイスであり、前記処理ユニットはヘアをカットするカット・ユニットであり、前記カット・ユニットのヘア・カット長は、前記コントローラからの制御信号に基づいて設定することが可能であり、前記コントローラは:
    前記カット・デバイスの決定された位置における前記客体のヘアについてヘアの長さを決定し;
    決定されたヘアの長さにヘアをカットするように前記カット・ユニットを設定するために、前記カット・ユニットへ制御信号を出力する;
    ように更に構成される、請求項1ないし10のうち何れか一項に記載の処理システム。
  14. 処理システムの処理デバイスの位置を決定する方法であって、前記処理デバイスは客体の身体の一部分を処理する処理ユニットを有し、前記処理ユニットはヘアをカットするカット・ユニットであり、前記方法は:
    前記処理デバイスに備わる撮像系を利用して画像データを取得するステップ;
    客体の身体の一部分と前記身体の一部分周辺の環境との間の境界を識別するために前記画像データを分析するステップ;及び
    前記画像データにおける前記境界の位置に基づいて、前記客体の身体の一部分に対する前記処理デバイスの位置を決定するステップ;
    を有する方法。
  15. コンピュータ読み取り可能なコードを組み込んだコンピュータ読み取り可能な媒体に保存されるコンピュータ・プログラムであって、前記コンピュータ読み取り可能なコードは、適切なコンピュータ又はプロセッサにより実行されると、前記コンピュータ又はプロセッサに請求項14に記載の方法を実行させるように構成されている、コンピュータ・プログラム。
JP2018543251A 2016-02-19 2017-02-09 身体の一部分を処理するシステム及び方法 Active JP6530568B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP16156496.8 2016-02-19
EP16156496 2016-02-19
PCT/EP2017/052798 WO2017140564A1 (en) 2016-02-19 2017-02-09 A system and method for treating a part of a body

Publications (2)

Publication Number Publication Date
JP2019508131A JP2019508131A (ja) 2019-03-28
JP6530568B2 true JP6530568B2 (ja) 2019-06-12

Family

ID=55521427

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018543251A Active JP6530568B2 (ja) 2016-02-19 2017-02-09 身体の一部分を処理するシステム及び方法

Country Status (7)

Country Link
US (1) US10766154B2 (ja)
EP (1) EP3416788B1 (ja)
JP (1) JP6530568B2 (ja)
CN (1) CN108698241B (ja)
BR (1) BR112018016910A2 (ja)
RU (1) RU2739921C2 (ja)
WO (1) WO2017140564A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108247692A (zh) * 2018-01-16 2018-07-06 淄博南庚商贸有限公司 一种电动剃须刀
CN108247691A (zh) * 2018-01-16 2018-07-06 淄博南庚商贸有限公司 一种电动剃须刀
CN108247687A (zh) * 2018-01-16 2018-07-06 淄博南庚商贸有限公司 一种电动剃须刀
JPWO2020054468A1 (ja) * 2018-09-12 2021-09-24 有限会社ヴィンセンス 理美容レザー
CN109591058A (zh) * 2018-12-06 2019-04-09 宁波宝尼尔厨具电器有限公司 胡须浓度测量平台
EP3708312A1 (en) * 2019-03-14 2020-09-16 Koninklijke Philips N.V. Determining a device location a body part
USD979596S1 (en) * 2021-04-15 2023-02-28 Koninklijke Philips N.V. Display screen or portion thereof with animated graphical user interface
ES1291625Y (es) * 2022-05-13 2022-08-31 Rola Diana Santos Maquina cortapelos de corte automatizado

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6681151B1 (en) * 2000-12-15 2004-01-20 Cognex Technology And Investment Corporation System and method for servoing robots based upon workpieces with fiducial marks using machine vision
US8560047B2 (en) * 2006-06-16 2013-10-15 Board Of Regents Of The University Of Nebraska Method and apparatus for computer aided surgery
US7344498B1 (en) * 2007-01-23 2008-03-18 The Gillette Company Optical measurement method of skin strain during shaving
US8061041B2 (en) * 2007-02-14 2011-11-22 The Gillette Company Safety razor
US8082064B2 (en) * 2007-08-24 2011-12-20 Elite Engineering Corporation Robotic arm and control system
EP2189198B1 (de) * 2008-11-20 2017-06-21 Braun GmbH Körperpflegegerät des persönlichen Bedarfs
US20100186234A1 (en) * 2009-01-28 2010-07-29 Yehuda Binder Electric shaver with imaging capability
JP5981143B2 (ja) * 2009-02-03 2016-08-31 ファナック アメリカ コーポレイション ロボットツールの制御方法
US8652148B2 (en) * 2010-02-25 2014-02-18 Zimmer, Inc. Tracked cartilage repair system
JP2011205206A (ja) * 2010-03-24 2011-10-13 Nec Corp 電子機器、電子機器の方向提示方法、プログラムおよび電子機器の方向提示システム
DE202011110755U1 (de) * 2010-10-28 2016-02-22 Fiagon Gmbh Navigationsaufsatz für optische Geräte in der Medizin und Vorrichtung zum Darstellen von Bilddaten
JP5743499B2 (ja) * 2010-11-10 2015-07-01 キヤノン株式会社 画像生成装置、画像生成方法、およびプログラム
WO2014113728A1 (en) * 2013-01-17 2014-07-24 Sionyx, Inc. Biometric imaging devices and associated methods
US8928747B2 (en) * 2011-07-20 2015-01-06 Romello J. Burdoucci Interactive hair grooming apparatus, system, and method
CN104010778B (zh) 2011-12-21 2017-05-17 马修·W·克雷尼科 自动理发系统及其操作方法
GB201209382D0 (en) 2012-05-25 2012-07-11 Poikos Ltd Body measurement
DK177610B1 (en) * 2012-05-01 2013-12-02 Klaus Lauritsen Holding Aps Programmable hair trimming system
US8917934B2 (en) * 2012-06-14 2014-12-23 International Business Machines Corporation Multi-cue object detection and analysis
US20140137883A1 (en) * 2012-11-21 2014-05-22 Reagan Inventions, Llc Razor including an imaging device
US9656400B2 (en) * 2012-11-21 2017-05-23 Matthew W. Krenik Hair cutting techniques for automated hair cutting system
US11040458B2 (en) 2012-12-31 2021-06-22 Matthew W. Krenik Hair cutting device for automated hair cutting system
US9778631B2 (en) * 2013-01-16 2017-10-03 Matthew W. Krenik Positioning device for automated hair cutting system
BR112016009924B1 (pt) * 2013-11-06 2021-04-13 Koninklijke Philips N.V. Sistema para tratamento da cabeça de um usuário, e, método de tratamento da cabeça de um usuário mediante o uso de um dispositivo de tratamento
KR20150128049A (ko) * 2014-05-08 2015-11-18 삼성전자주식회사 수술 로봇 및 그 제어방법

Also Published As

Publication number Publication date
RU2018133025A (ru) 2020-03-19
BR112018016910A2 (pt) 2018-12-26
JP2019508131A (ja) 2019-03-28
CN108698241A (zh) 2018-10-23
WO2017140564A1 (en) 2017-08-24
US20190337172A1 (en) 2019-11-07
US10766154B2 (en) 2020-09-08
EP3416788B1 (en) 2019-09-04
RU2018133025A3 (ja) 2020-07-10
EP3416788A1 (en) 2018-12-26
RU2739921C2 (ru) 2020-12-29
CN108698241B (zh) 2021-07-30

Similar Documents

Publication Publication Date Title
JP6530568B2 (ja) 身体の一部分を処理するシステム及び方法
JP6568064B2 (ja) 身体部位を処置するためのシステム及び方法
EP3065920B1 (en) A system for treating a part of a body
JP6563917B2 (ja) 身体部位を処置するためのシステム及び方法
JP6297687B2 (ja) シェービング処理中に利用者をガイドするためのシステム及び方法
EP3752896B1 (en) Personal care device localization
EP3582936B1 (en) Operating a personal care device

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190516

R150 Certificate of patent or registration of utility model

Ref document number: 6530568

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250