JP2010075571A - 体部位自動判別システム - Google Patents

体部位自動判別システム Download PDF

Info

Publication number
JP2010075571A
JP2010075571A JP2008249374A JP2008249374A JP2010075571A JP 2010075571 A JP2010075571 A JP 2010075571A JP 2008249374 A JP2008249374 A JP 2008249374A JP 2008249374 A JP2008249374 A JP 2008249374A JP 2010075571 A JP2010075571 A JP 2010075571A
Authority
JP
Japan
Prior art keywords
user
measurement point
target range
discrimination system
contact
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008249374A
Other languages
English (en)
Other versions
JP5234458B2 (ja
Inventor
Atsuo Takanishi
淳夫 高西
Akitoshi Katsumata
明敏 勝又
Hiroki Koga
裕樹 古賀
Hiroyuki Ishii
裕之 石井
Jorge Solis
ホルヘ ソリス
Yuichi Ohogawa
祐一 小保川
Koichi Eguchi
晃一 江口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Waseda University
Original Assignee
Waseda University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Waseda University filed Critical Waseda University
Priority to JP2008249374A priority Critical patent/JP5234458B2/ja
Publication of JP2010075571A publication Critical patent/JP2010075571A/ja
Application granted granted Critical
Publication of JP5234458B2 publication Critical patent/JP5234458B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Massaging Devices (AREA)

Abstract

【課題】 高性能のセンサを用いることなく、体外側から簡単に見つけ出すことができない組織や器官等の位置を自動的に特定すること。
【解決手段】 顔面Fの硬さを検出するロボット11と、使用者Hが知覚可能となる信号を当該使用者Hに呈示する信号呈示装置12と、ロボット11によって検出された顔面Fの硬さに基づいて咬筋の存在範囲を特定する特定装置14とを備えて体部位自動判別システム10が構成されている。ロボット11では、顔面Fの頬領域Aに設定された測定点Pについて、使用者Hが頬領域Aに力を入れた場合とそうでない場合との顔面Fの硬さを検出する。特定装置14では、ロボット11での検出に基づき、頬領域Aに力を入れた場合とそうでない場合との顔面Fの硬さ若しくは位置の変化量から、頬領域Aの咬筋領域Mの位置を特定する。
【選択図】 図1

Description

本発明は体部位自動判別システムに係り、更に詳しくは、マッサージ等の施術部位や病状の判別等を特定する目的の触診を自動的に行うことのできる体部位自動判別システムに関する。
開口時に痛み等を伴う顎関節症の原因の一つとして、顔面の表皮(皮膚)内方に存在する咀嚼筋の機能低下があるが、この場合には、当該咀嚼筋のマッサージを行うことにより、症状の改善若しくは緩和がなされる。ここで、咀嚼筋と呼ばれる筋組織は、耳下に存在する咬筋や、側頭部に存在する側頭筋等から構成される。従って、医師等の施術者が咀嚼筋のマッサージを行う際には、施術者の手指による患者への触診により、咬筋や側頭筋の位置や大きさを確認することが必要になる。このような顔面マッサージは、顔面内の全領域に患者自身の手指が届くことから、患者自らにより行うことも可能である。しかしながら、顔面の内部構造は複雑で個人差が大きく、しかも、咬筋や側頭筋等の咀嚼筋は、薄くて小さく、医師等の専門家でないと体外側から見つけ出すことが困難であるため、患者自らが咀嚼筋のマッサージを正確に行うことは難しい。
ところで、特許文献1には、筋肉や骨等、硬さの異なる体表部分を検出し、当該硬さに応じてマッサージの動作速度を変化させるマッサージ機が開示されている。このマッサージ機は、マッサージの対象となる背中部分のうち骨部分とそうでない部分を自動的に判別する機能を備えている。この判別機能は、マッサージ動作の前に、感圧センサを備えた施療子を背中に沿って1往復させ、感圧センサで検出された圧力検出信号の波形により、施療子の接触する各部位について、骨等の硬い部分か筋肉等の柔らかい部分かを判別するようになっている。
特開2001−269380号公報
しかしながら、前記特許文献1に開示されている判別機能は、背骨や肩甲骨等とその周囲の筋肉部分との判別等、誰でも手指で簡単に判別できる部位の自動判別を可能にしていおり、従来、専門家の手指でしか判別できなかった組織や器官等、体外側から簡単に見つけ出せない組織や器官の判別を前記判別機能で行おうとしても、正確な判別結果が得られないという問題がある。例えば、顔面内の筋組織や器官は、顔面から突出しておらず、また、全て頭蓋骨の表面に存在するため、特許文献1の判別機構では、仮に、施療子を顔面に接触させたときに、顔面のほぼ全領域で頭蓋骨からの反力が感圧センサの検出値を支配してしまい、全て骨等の硬い部分として認識されてしまう。換言すれば、咀嚼筋等の筋組織や耳下腺等の器官の存否に基づく感圧センサの検出値の差は、高性能の感圧センサを用いない限り、測定誤差程度の差に過ぎなくなってしまい、顔面内の各組織や器官を正確に判別するのが困難となる。
本発明は、このような不都合に着目して案出されたものであり、その目的は、高性能のセンサを用いることなく、体外側から簡単に見つけ出すことができない組織や器官を自動的に判別することができる体部位自動判別システムを提供することにある。
(1)前記目的を達成するため、本発明は、使用者の体表下の所望部位を判別する体部位自動判別システムにおいて、
前記体表の対象範囲内に設定された測定点について、前記使用者が前記対象範囲を動作させた場合とそうでない場合との前記体表の硬さ若しくは位置を検出するセンシング装置と、当該センシング装置での検出に基づき、前記対象範囲を動作させた場合とそうでない場合との前記体表の硬さ若しくは位置の変化量から、前記対象範囲内の所望部位の位置若しくは状態を特定する特定装置とを備える、という構成を採っている。
(2)また、前記使用者が知覚可能な信号を当該使用者に呈示する信号呈示装置を更に備え、この信号呈示装置は、前記使用者が前記対象範囲を動作させた場合とそうでない場合との切り換えのタイミングで前記信号を前記使用者に呈示する、という構成を採ることが好ましい。
(3)更に、前記センシング装置は、前記体表に接触する接触子と、当該接触子を移動させる移動手段と、当該移動手段の動作を制御する制御手段と、前記接触子の接触による前記体表からの反力を測定可能なセンサとを備え、
前記制御手段は、前記接触子を所定の押圧力で前記測定点に一定時間接触させるように前記移動手段の動作を制御し、
前記特定装置は、前記対象範囲を動作させた場合とそうでない場合との前記反力の変化量に基づき、前記測定点下での前記所望部位の存否を判定する、という構成を採用することができる。
(4)また、前記測定点は、前記対象範囲内に複数設定され、
前記特定装置では、前記各測定点の前記変化量の最大値を抽出した後で、当該最大値から0までの範囲を複数の数値範囲に区分し、前記各測定点の前記変化量がどの数値範囲に属するかによって、各測定点下での前記所望部位の存否を判定する、という構成を採るとよい。
(5)ここで、前記特定装置は、各測定点下での前記所望部位の存否から当該所望部位の存在範囲を特定する、という構成を採ることもできる。
本発明によれば、体外側から簡単に見つけ出すことができない組織、器官、腫瘍等の所望部位を判別する際に、使用者が対象範囲を動作させた場合とそうでない場合とで、体表の硬さ若しくは位置がセンシング装置で検出され、これら各場合間での前記硬さ若しくは位置の変化量が考慮されるため、対象範囲の動作による所望部位の移動という新たな観点を利用して、所望部位の位置、存在範囲或いは状態を特定することができる。つまり、体表が静止している状態では、高性能のセンサを用いなければ判別が困難であった各種の組織、器官、腫瘍等の部位のうち、使用者が対象領域を動作させることによって状態変化に差が生じるものについての自動判別化が可能になる。
特に、前記(2)のように構成することで、センシング装置による検出に際し、対象範囲を動作させる場合とそうでない場合との切り換えタイミングをセンシング装置に連動して使用者に呈示することができ、体表の硬さ若しくは位置の変化量を正確に検出することが可能になる。
また、前記(4)の構成によれば、判別対象の使用者から得られた変化量の最大値を基準として、各測定点下での所望部位の存否が判定されるため、予め設定された一定の閾値で各測定点での変化量を判定する場合と異なり、前記変化量に個人差があっても、対象となる所望部位の位置判定をより正確に行うことができる。
以下、本発明の実施形態について図面を参照しながら説明する。
図1には、本実施形態に係る体部位自動判別システムの概略構成図が示されている。この図において、体部位自動判別システム10は、使用者Hの体表の一部である顔面Fの下に存在する咬筋(所望部位)の存在範囲を顔面F上で判別するシステムである。この体部位自動判別システム10は、顔面Fの硬さを検出するセンシング装置として機能するロボット11と、使用者Hが知覚可能となる信号を当該使用者Hに呈示する信号呈示装置12と、ロボット11によって検出された顔面Fの硬さに基づいて咬筋の存在範囲を特定する特定装置14とを備えて構成されている。
前記ロボット11は、使用者Hの顔面Fに接触する接触子16と、接触子16を移動させる移動手段17と、当該移動手段17の動作を制御する制御手段としての制御装置18と、接触子16の近傍に設けられ、当該接触子16の顔面Fへの押圧に対する反力を測定可能なセンサ20とを備えている。
前記移動手段17は、接触子16を先端側で保持しながら所定空間内を移動可能なアーム22と、このアーム22を動作させるモータからなる駆動装置23とにより構成されている。
前記アーム22は、駆動装置23の駆動によって6自由度の動作が可能となる構造体であり、所定位置を基準点(原点)とした座標系(以下、「ロボット座標系」と称する。)に基づき、接触子16を任意の位置姿勢に移動可能にする公知の機構が採用されている。当該機構については、本発明の本質ではないため、ここでは詳細な説明を省略する。なお、アーム22としては、後述する動作が可能な構造であれば何でも良い。
前記制御装置18は、顔面Fの対象範囲となる頬領域A(図2参照)内に複数設定された測定点Pそれぞれに対し、接触子16が所定の押圧力で一定時間接触するように駆動装置23を制御し、アーム22を動作させるようになっている。ここでの頬領域Aは、図2に示されるように、耳孔を基準点(原点)Bとした顔面F上の座標系(同図中X−Z座標系、以下、「顔面座標系」と称する)で予め指定された一定範囲となっている。また、測定点Pは、頬領域Aを構成する座標範囲内に複数設定されており、隣り合う測定点Pに接触子16が同時に接触しないように、接触子16の先端幅よりも広いピッチに設定されている。ここで、各測定点Pの顔面座標系における座標は、制御装置18に予め記憶されている。なお、測定点Pの数は、判定する所望部位(組織、器官、腫瘍等)の大きさや形状等に応じて存否を判別できる程度に設定され、少なくとも一つ以上あれば良い。
前記センサ20は、接触子16が顔面Fに押し込む方向(図2中Y軸方向)における接触子16への反力を測定可能なものであれば何でも良く、本実施形態では、直交3軸の並進方向及び当該各軸回りの回転方向である6軸方向の反力を測定可能な6軸力センサが採用されている。このセンサ20は、各測定点Pそれぞれにおいて、次のように反力の測定が行われるようになっている。すなわち、各測定点Pに接触子16が接触して一旦停止した状態で、使用者Hが頬領域Aに力を入れることにより、当該力を入れる前の第1の反力と力を入れた後の第2の反力とがセンサ20で測定される。
前記信号呈示装置12は、図示しないスピーカから出力される音声、発光体による発光、及び/又は、モニター上に表示される文字情報等、使用者Hが知覚可能な信号を発生させることができる限りにおいて、種々の装置を採用することができる。この信号呈示装置12は、各測定点Pそれぞれについて、接触子16が接触して一旦停止した状態で、前記第1の反力を取得すると、前記信号を発生させるようになっており、この信号を使用者Hが知覚することで、当該使用者Hは、第2の反力の測定のために頬領域Aに力を入れるタイミングを把握することができる。
前記特定装置14は、プロセッサ、メモリ、ハードディスク等からなるコンピュータにより構成されており、当該コンピュータを以下の各手段として機能させるプログラムがインストールされている。この特定装置14は、センサ20により各測定点Pそれぞれで測定された前記第1及び第2の反力の値、その他情報が記憶される記憶手段25と、第1及び第2の反力の差となる変化量を求め、当該変化量に基づいて各測定点Pそれぞれについて当該測定点P下の咬筋の存否を判定し、頬領域A内での咬筋の存在範囲(咬筋領域M)を特定する判定手段26とを備えている。
前記判定手段26では、次の処理が行われる。先ず、各測定点Pにおける第1及び第2の反力の差となる変化量をそれぞれ求め、これら変化量の最大値を抽出し、当該最大値から0までの範囲を複数の数値範囲に区分する。その後で、各測定点Pの変化量がどの数値範囲に属するかをそれぞれ決定し、記憶手段25に記憶された閾値以上の数値範囲内に変化量が属する測定点Pはその下に咬筋が存在すると判定し、そうでない測定点Pはその下に咬筋が存在しないと判定する。そして、咬筋が存在すると判定された各測定点Pを含み、咬筋が存在しないと判定された各測定点Pを含まない最小の領域を最小二乗法による楕円近似によって形成し、当該領域を咬筋領域Mとして決定する。このように決定された咬筋領域Mは、その領域を構成する座標情報が記憶手段25に記憶される。この座標情報は、例えば、咬筋の自動マッサージ機能を有するロボットやマッサージ機器が行うマッサージ軌跡を決定する際に用いられる。また、咬筋領域Mを構成する座標情報を使用者Hに呈示することで、咬筋が下方に存在する顔面Fの位置を使用者H自身により把握することができる。
次に、前記体部位自動判別システム10による咬筋領域Mの特定手順について図3のフローチャートを用いながら説明する。
先ず、使用者H又は当該システムの操作者等により、手動でアーム22を動作させ、顔面座標系の基準点となる使用者Hの耳孔の位置に接触子16の先端を当ててアーム22を一旦停止させる。ここで、制御装置18では、ロボット座標系におけるこのときの接触子16の座標を顔面座標系の基準点Bに対応させる初期化が行われる(ステップS101)。なお、ここでの初期化作業は、例えば、使用者Hが、発光素子を有する耳栓を耳孔に装着し、接触子16を複数地点で静止させ、それぞれの位置で、前記発光素子によるロボット10の受光量から接触子16と耳孔との距離を求めることで行っても良い。
前記初期化後に、使用者H等により図示しないスイッチ投入等を行うと、制御装置18により、予め記憶された各測定点Pの位置に接触子16の先端が順に接触するようにアーム22の動作が制御される。そして、接触子16が接触している測定点Pを当該接触子16で押圧し、このときの接触子16への反力がセンサ20によって測定される。具体的には、アーム22の動作により、先ず、予め設定された最初の目標である最初の測定点Pの上方に接触子16が移動し(ステップS102)、そこから、当該接触子16が、顔面Fに向かって前記Y軸方向に降下して最初の測定点Pを押圧する(ステップS103)。このとき、センサ20によって第1の反力が測定され(ステップS104)、当該反力の大きさが所定値(例えば、5N)以上か否かが制御装置18で判定され(ステップS105)、当該所定値未満であれば、接触子16による押圧動作を継続する一方、前記所定値以上であれば、接触子16による押圧動作を停止し、接触子16が一旦停止する(ステップS106)。このように、最初の測定点Pで接触子16が押圧したまま停止すると、このときにセンサ20で測定された第1の反力が特定装置14の記憶手段25に記憶される(ステップS107)。そして、当該記憶手段25に第1の反力が記憶されると、特定装置14からの指令によって信号呈示装置12が作動し、使用者Hに音声信号等が呈示される(ステップS108)。当該信号が呈示されてから一定時間、使用者Hに頬領域Aに力を入れてもらい、このときの第2の反力がセンサ20で測定されて記憶手段25に記憶される(ステップS109)。当該記憶が終了すると、制御装置18によるアーム22の制御により、予め設定された順番で次の目標となる測定点Pの上方に接触子16が移動し、前述と同様の手順により、第1及び第2の反力が、各測定点Pに対応して記憶手段25に記憶される。
そして、最後の測定点Pで第1及び第2の反力が測定及び記憶されたと記憶手段25で判断されると(ステップS110)、特定装置14の判定手段26により、測定点P毎に、所望部位すなわち咬筋が存在する部位か否かが判定される(ステップS111)。ここでは、先ず、第1及び第2の反力の差である反力の変化量が、各測定点Pそれぞれについて求められる。そして、各変化量の最大値が抽出され、当該最大値の大きさを0からn等分(nは予め記憶された整数)した範囲に区分され、当該区分された変化量の範囲を小さい順に下から、区分1〜区分nとする。そして、残りの測定点Pにおける変化量が、区分1〜区分nのどこに属するか分類される。そして、予め設定、記憶された区分の閾値を境界として、各測定点Pにつき、咬筋の位置判定がなされる。例えば、閾値を上から2区分とすると、区分n及び区分n−1に変化量が属する測定点Pは、その表皮下に咬筋が存在すると判定され、そうでない残りの測定点Pは、その表皮下に咬筋が存在しないと判定される。そして、咬筋が存在すると判定された測定点Pのみが含まれる領域が咬筋の存在する咬筋領域Mとして特定される(ステップS112)。
従って、このような実施形態によれば、外から見つけにくい咬筋の存在範囲を自動で特定できるという効果を得る。
なお、前記実施形態では、判定手段26で、各測定点Pの中で最大の変化量から0までの範囲を複数の数値範囲に区分した後で、各測定点Pの変化量がどの数値範囲に属するかをそれぞれ分類しているが、当該分類を行わずに、各測定点Pの変化量それぞれについて、予め記憶された変化量の閾値以上か否かによって、咬筋の存否を判定することも可能である。但し、前記実施形態の態様によれば、各使用者Hで一旦測定された反力の変化量の最大値を基準にして、咬筋の存否を判定することから、各使用者Hで前記変化量に個人差があっても、より正確に咬筋の存在範囲を特定することができる。
また、前記センシング装置としては、顔面の反力を測定可能にする前述のロボット11に限らず、当該反力が測定できる限り、種々の装置を採用することができる。また、センシング装置として、顔面の膨らみ方向(前記Y軸方向)の位置を検出可能な構造の装置を採用することもできる。例えば、各測定点Pにレーザ光を照射し、当該照射光の受光量から測定点Pの膨らみ方向の位置を測定可能な装置構成のものを採用し、特定装置14で咬筋の存在を特定することも可能である。この場合は、信号呈示装置12からの信号によって使用者Hが頬領域Aに力を入れる前後それぞれの時点で、顔面の膨らみ方向の位置がセンシング装置で測定され、当該位置の差となる頬領域Aの膨らみ量を前記変化量として、特定装置14により、前述と同様に測定点P毎に咬筋の存否が判定され、咬筋領域Mが特定されることになる。
更に、本発明は、前述した咬筋の範囲を特定するシステムに限らず、その他の顔部若しくは胴部又は脚部等の体部位における体表下の位置や状態を自動判別するシステムとして適用可能である。例えば、使用者Hが力を入れることで変位する筋組織、器官、腫瘍等の部位の存否や大きさを体表上で特定するシステムとして本発明を適用することができる。
また、前記特定装置14に自動触診機能を付加させることもできる。例えば、対象範囲内で位置が特定された筋肉について、前記硬さや位置に基づき筋肉の硬直度合いや左右の筋肉の偏り等の筋肉機能診断を行える診断手段を特定装置14に更に設けてもよい。ここで、当該診断手段では、筋肉の他に骨格の状態についての推定も可能である。例えば、本システム10を顎関節症の診断用として適用する場合、信号呈示装置12から呈示される信号に同期して、使用者H(患者)に開閉口動作を繰り返してもらい、前記診断手段により、その際の顎関節(所望部位)の位置の変化を求め、当該変化に基づき所定の閾値を使って関節の癒着状況を自動的に診断することも可能である。
更に、前述とは逆に、使用者Hが対象範囲を動作させた状態で体表の硬さや位置を先ず測定し、信号呈示装置12による信号の呈示後に、使用者Hが対象範囲を動作させない状態で体表の硬さや位置を測定するようにしても良い。
更に、信号呈示装置12を設けずに、使用者Hが対象範囲を動作させる場合とそうでない場合との間に、使用者H等がスイッチ操作等によりセンシング装置に信号を送ることで、第1及び第2の反力等の2種類の検出値を区別できるようにしても良い。
その他、本発明における装置各部の構成は図示構成例に限定されるものではなく、実質的に同様の作用を奏する限りにおいて、種々の変更が可能である。
本実施形態に係る体部位自動判別システムの概略構成図。 測定点を説明するための使用者の頭部の概略側面図。 接触子の動作から咬筋の特定までのシステム上での手順を説明するためのフローチャート。
符号の説明
10 体部位自動判別システム
11 ロボット(センシング装置)
12 信号呈示装置
14 特定装置
16 接触子
17 移動手段
18 制御装置(制御手段)
20 センサ
A 頬領域(対象範囲)
F 顔面(体表)
H 使用者
M 咬筋領域(存在範囲)
P 測定点

Claims (5)

  1. 使用者の体表下の所望部位を判別する体部位自動判別システムにおいて、
    前記体表の対象範囲内に設定された測定点について、前記使用者が前記対象範囲を動作させた場合とそうでない場合との前記体表の硬さ若しくは位置を検出するセンシング装置と、当該センシング装置での検出に基づき、前記対象範囲を動作させた場合とそうでない場合との前記体表の硬さ若しくは位置の変化量から、前記対象範囲内の所望部位の位置若しくは状態を特定する特定装置とを備えたことを特徴とする体部位自動判別システム。
  2. 前記使用者が知覚可能な信号を当該使用者に呈示する信号呈示装置を更に備え、この信号呈示装置は、前記使用者が前記対象範囲を動作させた場合とそうでない場合との切り換えのタイミングで前記信号を前記使用者に呈示することを特徴とする請求項1記載の体部位自動判別システム。
  3. 前記センシング装置は、前記体表に接触する接触子と、当該接触子を移動させる移動手段と、当該移動手段の動作を制御する制御手段と、前記接触子の接触による前記体表からの反力を測定可能なセンサとを備え、
    前記制御手段は、前記接触子を所定の押圧力で前記測定点に一定時間接触させるように前記移動手段の動作を制御し、
    前記特定装置は、前記対象範囲を動作させた場合とそうでない場合との前記反力の変化量に基づき、前記測定点下での前記所望部位の存否を判定することを特徴とする請求項1又は2記載の体部位自動判別システム。
  4. 前記測定点は、前記対象範囲内に複数設定され、
    前記特定装置では、前記各測定点の前記変化量の最大値を抽出した後で、当該最大値から0までの範囲を複数の数値範囲に区分し、前記各測定点の前記変化量がどの数値範囲に属するかによって、各測定点下での前記所望部位の存否を判定することを特徴とする請求項1、2又は3記載の体部位自動判別システム。
  5. 前記特定装置は、各測定点下での前記所望部位の存否から当該所望部位の存在範囲を特定することを特徴とする請求項4記載の体部位自動判別システム。
JP2008249374A 2008-09-28 2008-09-28 体部位自動判別システム Expired - Fee Related JP5234458B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008249374A JP5234458B2 (ja) 2008-09-28 2008-09-28 体部位自動判別システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008249374A JP5234458B2 (ja) 2008-09-28 2008-09-28 体部位自動判別システム

Publications (2)

Publication Number Publication Date
JP2010075571A true JP2010075571A (ja) 2010-04-08
JP5234458B2 JP5234458B2 (ja) 2013-07-10

Family

ID=42206725

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008249374A Expired - Fee Related JP5234458B2 (ja) 2008-09-28 2008-09-28 体部位自動判別システム

Country Status (1)

Country Link
JP (1) JP5234458B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015229039A (ja) * 2014-06-06 2015-12-21 パナソニックIpマネジメント株式会社 マッサージ機

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04342078A (ja) * 1991-05-20 1992-11-27 Nippon Telegr & Teleph Corp <Ntt> 表情認識装置
JP2001212203A (ja) * 2000-02-02 2001-08-07 Akimasa Iguchi つぼ検出装置
JP2001269380A (ja) * 2000-03-27 2001-10-02 Sanyo Electric Co Ltd マッサージ機
JP2004081522A (ja) * 2002-08-27 2004-03-18 Matsushita Electric Works Ltd マッサージ機
JP2005205147A (ja) * 2004-01-26 2005-08-04 Shiyoufuu:Kk 顎骨筋伸縮長さ測定装置
JP2008029573A (ja) * 2006-07-28 2008-02-14 Kao Corp 美容方法
WO2008041457A1 (fr) * 2006-09-29 2008-04-10 Waseda University Robot de massage, programme de commande associé et robot permettant de spécifier une partie du corps humain

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04342078A (ja) * 1991-05-20 1992-11-27 Nippon Telegr & Teleph Corp <Ntt> 表情認識装置
JP2001212203A (ja) * 2000-02-02 2001-08-07 Akimasa Iguchi つぼ検出装置
JP2001269380A (ja) * 2000-03-27 2001-10-02 Sanyo Electric Co Ltd マッサージ機
JP2004081522A (ja) * 2002-08-27 2004-03-18 Matsushita Electric Works Ltd マッサージ機
JP2005205147A (ja) * 2004-01-26 2005-08-04 Shiyoufuu:Kk 顎骨筋伸縮長さ測定装置
JP2008029573A (ja) * 2006-07-28 2008-02-14 Kao Corp 美容方法
WO2008041457A1 (fr) * 2006-09-29 2008-04-10 Waseda University Robot de massage, programme de commande associé et robot permettant de spécifier une partie du corps humain

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015229039A (ja) * 2014-06-06 2015-12-21 パナソニックIpマネジメント株式会社 マッサージ機

Also Published As

Publication number Publication date
JP5234458B2 (ja) 2013-07-10

Similar Documents

Publication Publication Date Title
Pöhlmann et al. Evaluation of Kinect 3D sensor for healthcare imaging
Lederman et al. Sensing and displaying spatially distributed fingertip forces in haptic interfaces for teleoperator and virtual environment systems
Gwilliam et al. Human vs. robotic tactile sensing: Detecting lumps in soft tissue
Schostek et al. Review on aspects of artificial tactile feedback in laparoscopic surgery
US10398517B2 (en) Surgical tool positioning based on sensed parameters
US9622684B2 (en) Neural locating system
Dai et al. Milling state identification based on vibration sense of a robotic surgical system
JP5288447B2 (ja) 手術支援システム、接近状態検出装置及びそのプログラム
JP5722794B2 (ja) コンピュータ補助式ハンドツールの触診アルゴリズム
US10537399B2 (en) Surgical tool positioning based on sensed parameters
JP2013052046A (ja) 触力覚的情報提示装置
US20210307861A1 (en) Communication of detected tissue characterization in a surgical robotic platform
CN217310576U (zh) 用于辅助医疗部件在患者体内推进的引导系统
US20180366035A1 (en) System and method for image-guided procedure analysis and training
CN109589091A (zh) 选定ecg信道的交互式显示器
Cabibihan et al. Influence of visual and haptic feedback on the detection of threshold forces in a surgical grasping task
Ly et al. Tumor depth and size perception using a pneumatic tactile display in laparoscopic surgery
KR20130059307A (ko) 의료 영상 데이터에 대한 물리적 검사의 향상을 위한 방법 및 장치
Talasaz et al. Telerobotic palpation for tumor localization with depth estimation
US10602985B2 (en) Contact detection instrument
JP5234458B2 (ja) 体部位自動判別システム
Tanaka et al. Tactile sensing system including bidirectionality and enhancement of haptic perception by tactile feedback to distant part
Wagner et al. Force feedback in a three-dimensional ultrasound-guided surgical task
Doria et al. Enhancing the localization of uterine leiomyomas through cutaneous softness rendering for robot-assisted surgical palpation applications
JP7536766B2 (ja) 患者のストレスを視覚化するためのシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121225

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130315

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160405

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees