JP7450183B2 - Phantom limb pain care system, patient device, and program - Google Patents
Phantom limb pain care system, patient device, and program Download PDFInfo
- Publication number
- JP7450183B2 JP7450183B2 JP2020037989A JP2020037989A JP7450183B2 JP 7450183 B2 JP7450183 B2 JP 7450183B2 JP 2020037989 A JP2020037989 A JP 2020037989A JP 2020037989 A JP2020037989 A JP 2020037989A JP 7450183 B2 JP7450183 B2 JP 7450183B2
- Authority
- JP
- Japan
- Prior art keywords
- patient
- practitioner
- dimensional model
- limb
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 208000004983 Phantom Limb Diseases 0.000 title claims description 71
- 206010056238 Phantom pain Diseases 0.000 title claims description 42
- 238000001514 detection method Methods 0.000 claims description 49
- 210000003414 extremity Anatomy 0.000 description 79
- 238000010586 diagram Methods 0.000 description 20
- 238000000034 method Methods 0.000 description 18
- 238000004891 communication Methods 0.000 description 14
- 210000003128 head Anatomy 0.000 description 7
- 210000001364 upper extremity Anatomy 0.000 description 5
- 208000002193 Pain Diseases 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000011542 limb amputation Methods 0.000 description 2
- 206010006074 Brachial plexus injury Diseases 0.000 description 1
- 206010064012 Central pain syndrome Diseases 0.000 description 1
- 230000006931 brain damage Effects 0.000 description 1
- 231100000874 brain damage Toxicity 0.000 description 1
- 208000029028 brain injury Diseases 0.000 description 1
- 238000009207 exercise therapy Methods 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 210000003141 lower extremity Anatomy 0.000 description 1
- 238000002638 palliative care Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001225 therapeutic effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Description
本発明は、幻肢痛ケアシステムに関する。 The present invention relates to a phantom limb pain care system.
幻肢痛は、手腕や足の切断後に、失ったはずの四肢が存在するように感じられ、四肢が存在していた空間に痛みを知覚する現象である。幻肢痛は、四肢切断患者の80%以上に現れるとされている。 Phantom limb pain is a phenomenon in which, after an arm or leg is amputated, the limb that was supposed to be lost is felt to exist, and pain is perceived in the space where the limb used to exist. Phantom limb pain is said to occur in more than 80% of patients with limb amputation.
幻肢痛の治療方法としては、欠損した四肢と対になる現存四肢を鏡に写し、現存四肢を動かすことで欠損した四肢が正常に動いているように視覚的にフィードバックすることで、痛みを緩和させるものが知られている。 A method of treating phantom limb pain is to show the existing limb that is paired with the missing limb in a mirror and move the existing limb to provide visual feedback so that the missing limb is moving normally, thereby relieving the pain. There are known things that can relieve it.
また、特許文献1では、位置センサによって患者の姿勢等を検出し、これに基づいて所定作業を実行する当該患者の動きに対応する幻視画像を、仮想空間において提示することによって疼痛を軽減させる疼痛治療支援装置が開示されている。
Furthermore, in
上肢切断、腕神経叢損傷患者は、推定4,5千人いるとされ、脳卒中、視床痛など脳に障害が起きて手足が痛むという患者で、運動療法で緩和ケアが必要な患者数は500万人いるとされる。幻肢の痛み方は人によって異なり、また日によって異なることがある。このため、治療には相応の知識と経験が必要であり、適切に治療できる人は少ない。経験豊富な医師等は、比較的都市部に集中しているが、幻肢痛の患者は、都市部だけではない。このため、治療に通えない患者も存在するという問題があった。 It is estimated that there are 4.5,000 patients with upper limb amputations and brachial plexus injuries, and the number of patients who suffer from brain damage such as stroke or thalamic pain resulting in pain in their limbs is 500 who require palliative care through exercise therapy. It is said that there are 10,000 people. Phantom limb pain varies from person to person and can vary from day to day. For this reason, treatment requires appropriate knowledge and experience, and there are few people who can properly treat it. Although experienced doctors are relatively concentrated in urban areas, patients with phantom limb pain are not only found in urban areas. For this reason, there was a problem in that some patients were unable to attend treatment.
そこで、本発明は、施術者から離れた位置に存在する幻肢痛患者に対するケアを可能にする技術の提供を目的とする。 Therefore, an object of the present invention is to provide a technique that makes it possible to care for a patient with phantom limb pain who is located away from the practitioner.
上記課題を解決するため、本発明の幻肢痛ケアシステムは、
被術者が存在する第一の地点において仮想空間の映像を前記被術者に提供する被術者装置と、前記第一の地点から離れた第二の地点に存在する施術者によって操作される施術者装置とを備え、
前記被術者装置が、
前記被術者の四肢のうち予め定めた一つを健肢とし、当該健肢の位置を検出する位置検出部と、
前記位置検出部で検出した前記健肢の位置に基づいて前記健肢の三次元モデルを生成すると共に、前記健肢の位置に基づいて前記健肢と対になる幻肢の三次元モデルを生成する三次元モデル生成部と、
前記健肢及び前記幻肢の三次元モデルを含む前記仮想空間の映像を生成する映像生成部と、
前記被術者の頭部に装着され、前記仮想空間の映像をディスプレイ画面上に表示させるヘッドマウントディスプレイと、
少なくとも前記健肢の位置を含む前記被術者の状態を示す被術者状況情報を前記施術者装置へ送信する状況情報送信部と、
前記施術者装置から前記施術者の指示を示す指示情報を受信する指示受信部と、
前記指示情報を前記仮想空間の映像の一部と音声とのうち少なくとも一方として前記被術者に対して出力させる指示出力部と、を備え、
前記施術者装置が、
前記被術者装置から前記被術者状況情報を受信する状況情報受信部と、
前記被術者状況情報に基づいて前記被術者の状況をディスプレイに表示させる表示制御部と、
前記指示情報を前記被術者装置へ送信する指示情報送信部と、を備える。
In order to solve the above problems, the phantom limb pain care system of the present invention,
A patient device that provides an image of a virtual space to the patient at a first point where the patient is present, and is operated by a practitioner located at a second point away from the first point. Equipped with a practitioner device,
The subject device is
a position detection unit that detects a position of a predetermined limb of the patient as a healthy limb;
Generating a three-dimensional model of the healthy limb based on the position of the healthy limb detected by the position detection unit, and generating a three-dimensional model of a phantom limb to be paired with the healthy limb based on the position of the healthy limb. a three-dimensional model generation unit,
an image generation unit that generates an image of the virtual space including a three-dimensional model of the healthy limb and the phantom limb;
a head-mounted display that is attached to the subject's head and displays an image of the virtual space on a display screen;
a situation information transmitting unit that transmits patient situation information indicating the condition of the patient including at least the position of the healthy limb to the practitioner device;
an instruction receiving unit that receives instruction information indicating instructions from the practitioner from the practitioner device;
an instruction output unit that outputs the instruction information to the patient as at least one of a part of the video and audio of the virtual space;
The practitioner device includes:
a situation information receiving unit that receives the patient situation information from the patient device;
a display control unit that displays the condition of the patient on a display based on the patient situation information;
and an instruction information transmitting section that transmits the instruction information to the patient's device.
前記幻肢痛ケアシステムは、
前記施術者装置が、
前記被術者の四肢のうち予め定めた一つを健肢とし、当該健肢の位置を検出する位置検出部と、
前記位置検出部で検出した前記健肢の位置に基づいて前記健肢の三次元モデルを生成すると共に、前記健肢の位置に基づいて前記健肢と対になる幻肢の三次元モデルを生成する三次元モデル生成部と、を備え、
前記指示情報送信部が、前記施術者の健肢に基づく三次元モデル及び幻肢の三次元モデルを指示情報に含めて前記被術者装置へ送信し、
前記被術者装置の映像生成部が、前記三次元モデルを含む前記指示情報に基づいて、前記施術者の健肢及び幻肢の三次元モデルを前記仮想空間の映像に合成して表示させてもよい。
The phantom limb pain care system includes:
The practitioner device includes:
a position detection unit that detects the position of a predetermined one of the subject's limbs as a healthy limb;
Generating a three-dimensional model of the healthy limb based on the position of the healthy limb detected by the position detection unit, and generating a three-dimensional model of a phantom limb to be paired with the healthy limb based on the position of the healthy limb. a three-dimensional model generation unit,
The instruction information transmitting unit includes a three-dimensional model based on the healthy limb of the practitioner and a three-dimensional model of the phantom limb in instruction information and transmits the instruction information to the patient device,
The image generation unit of the patient device synthesizes and displays the three-dimensional model of the healthy limb and phantom limb of the practitioner with the image of the virtual space based on the instruction information including the three-dimensional model. Good too.
前記幻肢痛ケアシステムは、前記映像生成部が、前記被術者の三次元モデルと前記施術者の三次元モデルとを向かい合わせた映像を生成する、又は前記被術者の三次元モデルと前記施術者の三次元モデルとを同じ方向に向けて、前記被術者の三次元モデルの背面側に前記施術者の三次元モデルを位置させた映像を生成してもよい。 In the phantom limb pain care system, the image generation unit generates an image in which a three-dimensional model of the patient and a three-dimensional model of the practitioner face each other, or a three-dimensional model of the patient and a three-dimensional model of the practitioner. An image may be generated in which the three-dimensional model of the practitioner is positioned on the back side of the three-dimensional model of the subject, with the three-dimensional model of the practitioner facing the same direction.
幻肢痛ケアシステムは、前記映像生成部が、前記被術者の三次元モデルと前記施術者の三次元モデルとを向かい合わせた映像と、同じ方向を向けた映像とを前記施術者装置からの前記指示情報に基づいて切り替えてもよい。 In the phantom limb pain care system, the image generation unit generates an image in which the three-dimensional model of the patient and the three-dimensional model of the practitioner face each other and an image in which they face the same direction from the practitioner's device. The switching may be based on the instruction information.
前記幻肢痛ケアシステムは、一つの前記施術者装置が、複数の前記被術者装置と接続し、前記指示情報を複数の前記被術者装置へ送信してもよい。 In the phantom limb pain care system, one of the practitioner's devices may connect to a plurality of the patient's devices and transmit the instruction information to the plurality of patient's devices.
上記課題を解決するため、本発明の被術者装置は、
被術者が存在する第一の地点において仮想空間の映像を前記被術者に提供し、前記第一の地点から離れた第二の地点に存在する施術者によって操作される施術者装置と通信するする被術者装置であって、
前記被術者の四肢のうち予め定めた一つを健肢とし、当該健肢の位置を検出する位置検出部と、
前記位置検出部で検出した前記健肢の位置に基づいて前記健肢の三次元モデルを生成すると共に、前記健肢の位置に基づいて前記健肢と対になる幻肢の三次元モデルを生成する三次元モデル生成部と、
前記健肢及び前記幻肢の三次元モデルを含む前記仮想空間の映像を生成する映像生成部と、
前記被術者の頭部に装着され、前記仮想空間の映像をディスプレイ画面上に表示させるヘッドマウントディスプレイと、
少なくとも前記健肢の位置を含む前記被術者の状態を示す被術者状況情報を前記施術者
装置へ送信する状況情報送信部と、
前記施術者装置から前記施術者の指示を示す指示情報を受信する指示受信部と、
前記指示情報を前記仮想空間の映像の一部と音声とのうち少なくとも一方として前記被術者に対して出力させる指示出力部と、
を備える。
In order to solve the above problems, the patient device of the present invention includes:
Providing an image of a virtual space to the patient at a first point where the patient is present, and communicating with a practitioner device operated by a practitioner located at a second point away from the first point. A patient device that performs
a position detection unit that detects the position of a predetermined one of the subject's limbs as a healthy limb;
Generating a three-dimensional model of the healthy limb based on the position of the healthy limb detected by the position detection unit, and generating a three-dimensional model of a phantom limb to be paired with the healthy limb based on the position of the healthy limb. a three-dimensional model generation unit,
an image generation unit that generates an image of the virtual space including a three-dimensional model of the healthy limb and the phantom limb;
a head-mounted display that is attached to the subject's head and displays an image of the virtual space on a display screen;
a situation information transmitting unit that transmits patient situation information indicating the condition of the patient including at least the position of the healthy limb to the practitioner device;
an instruction receiving unit that receives instruction information indicating instructions from the practitioner from the practitioner device;
an instruction output unit that outputs the instruction information to the subject as at least one of a portion of the video of the virtual space and audio;
Equipped with.
上記課題を解決するため、本発明の幻肢痛ケアプログラムは、
被術者が存在する第一の地点において仮想空間の映像を前記被術者に提供し、前記第一の地点から離れた第二の地点に存在する施術者によって操作される施術者装置と通信するする被術者装置に実行させるプログラムであって、
前記被術者の四肢のうち予め定めた一つを健肢とし、当該健肢の位置を検出するステップと、
検出した前記健肢の位置に基づいて前記健肢の三次元モデルを生成すると共に、前記健肢の位置に基づいて前記健肢と対になる幻肢の三次元モデルを生成するステップと、
前記健肢及び前記幻肢の三次元モデルを含む前記仮想空間の映像を生成するステップと、
前記被術者の頭部に装着されたヘッドマウントディスプレイのディスプレイ画面上に前記仮想空間の映像を表示させるステップと、
少なくとも前記健肢の位置を含む前記被術者の状態を示す被術者状況情報を前記施術者装置へ送信するステップと、
前記施術者装置から前記施術者の指示を示す指示情報を受信するステップと、
前記指示情報を前記仮想空間の映像の一部と音声とのうち少なくとも一方として前記被術者に対して出力させるステップと、
を前記被術者装置に実行させる。
In order to solve the above problems, the phantom limb pain care program of the present invention includes:
Providing an image of a virtual space to the patient at a first point where the patient is present, and communicating with a practitioner device operated by a practitioner located at a second point away from the first point. A program to be executed by a patient's device to perform the operation,
A step of determining a predetermined one of the subject's limbs as a healthy limb, and detecting the position of the healthy limb;
generating a three-dimensional model of the healthy limb based on the detected position of the healthy limb, and generating a three-dimensional model of a phantom limb paired with the healthy limb based on the position of the healthy limb;
generating an image of the virtual space including a three-dimensional model of the healthy limb and the phantom limb;
Displaying an image of the virtual space on a display screen of a head-mounted display attached to the subject's head;
transmitting patient status information indicating the condition of the patient including at least the position of the healthy limb to the practitioner device;
receiving instruction information indicating the practitioner's instructions from the practitioner device;
outputting the instruction information to the patient as at least one of a portion of the video of the virtual space and audio;
the patient's device executes.
本発明は、施術者から離れた位置に存在する幻肢痛患者に対するケアを可能にする技術を提供することができる。 The present invention can provide a technique that enables care for a patient with phantom limb pain who is located away from the practitioner.
〈第一実施形態〉
《システム構成》
以下本発明の一実施形態について図面を用いて説明する。本実施形態では、幻肢痛の治療を支援するシステムについて説明する。本実施形態の幻肢痛ケアシステム1は、幻肢痛に対するケアを支援するシステムである。幻肢痛のケアとは、幻肢痛を無くす又は緩和する行為であり、治療やリハビリテーション等である。本実施形態において、幻肢痛のケアは、医師法によって認められている治療行為に限定されるものではなく、トレーニングや、リラクゼーションといった行為であってもよい。
<First embodiment>
"System configuration"
An embodiment of the present invention will be described below with reference to the drawings. In this embodiment, a system for supporting treatment of phantom limb pain will be described. The phantom limb
図1は、幻肢痛ケアシステム1の構成を示す図である。幻肢痛ケアシステム1は、被術者(患者)が存在する第一の地点において仮想空間の映像を被術者に提供する被術者装置10と、第一の地点から離れた第二の地点に存在する施術者によって操作される施術者装置20とを備えている。
FIG. 1 is a diagram showing the configuration of a phantom limb
《被術者装置》
図1に示すように、被術者装置10は、位置検出部11,12、制御部13、ヘッドマウントディスプレイ(HMD)14を備えている。
《Subject device》
As shown in FIG. 1, the
位置検出部11,12は、被術者の四肢のうち予め定められた一つを健肢とし、少なくとも当該健肢の位置を検出する。位置検出部11,12は、例えば、四肢の位置を周期的に求め、その位置の経時変化を動作として検出する。本実施形態では、手指の動きを検出する位置検出部11と、健肢を含む身体の動きを検出する位置検出部12の2つを備えている。
The
位置検出部11,12は、例えば、二つのカメラと赤外線照射部とを備え、赤外線照射部が赤外線パターンを検出対象者(被術者)の身体に照射し、所定の間隔(基線長)を隔てて配置した二つのカメラで身体を撮影する。位置検出部11,12は、撮影画像から身体が写っている領域を特定し、画像処理によって、検出対象者の手、手首、前腕、肘、上腕などのように、関節とそれに連なる部位(対象部位)を認識する。そして、位置検出部11,12は、各対象部位について、それらが写っている撮影画像中の位置と、各対象部位に照射されている赤外線パターンの大きさ及び傾き、これらのカメラ間の差異に基づいて、各対象部位の三次元座標上の位置及び向きを求める。
The
位置検出部11,12は、上記のように二つのカメラで撮影した画像の差異に基づいて三次元座標上の位置を検出する構成に限定されるものではない。例えば、位置検出部11,12は、カメラと、ToFセンサとを備え、カメラで検出対象者の身体を撮影すると共に、ToFセンサによって撮影画像中の物体までの距離を求める。位置検出部11,12は、前述と同様に撮影画像から身体が写っている領域を特定し、画像処理によって、検出対象者の対象部位を認識する。そして、位置検出部11,12は、各対象部位について、それらが写っている撮影画像中の位置と、各対象部位との距離に基づいて、各対象部位の
三次元座標上の位置を求める。また、ToFセンサは、各対象部位との距離を画素毎に検出できるので、位置検出部11,12は、各対象部位を点群として認識し、この点群が成す形状から、各部位の向き等を検出する。
The
本実施形態では、位置検出部11が、健肢の位置を詳細に検出し、位置検出部12が健肢と健肢周囲の身体の位置を検出する。例えば、健肢として上肢を設定した場合、位置検出部11は、手、手首、前腕、そして手の各指、各指の第一~第三関節等を各対象部位とし、それらの位置を検出する。なお、健肢として下肢を設定した場合、手のような細かい動きを検出する必要がなければ、位置検出部12のみを用いてもよい。
In this embodiment, the
HMD14は、前記被術者の頭部に装着され、前記仮想空間の映像をディスプレイ画面上に表示させる。図2は、HMD14の構成を示す図である。
The
HMD14は、表示部141や、イヤフォン142、マイク143、検出部144、レンズ145、制御部146を備えている。レンズ145は、表示部141の表示面から射出する光束を装着者の眼149へ導光し、網膜上に結像させる接眼レンズ系である。これにより装着者が、当該映像を拡大された虚像として観察できるようにしている。
The
検出部144は、例えば角速度センサや地磁気センサであり、HMD14の向き、即ちHMD14を装着した装着者の頭部の向き、即ち、視線の向きを検出する。制御部146は、映像生成部313で生成した映像を表示部141に表示させる。
The
図3は、制御部13の構成を示す図である。制御部13は、例えば、接続バス131によって相互に接続されたプロセッサ132、メモリ133、入出力IF(インターフェース)134、通信IF135を有する。プロセッサ132は、入力された情報を処理し、処理結果を出力することにより、装置全体の制御等を行う。プロセッサ132は、CPU(Central Processing Unit)や、MPU(Micro-processing unit)、コントローラとも呼ばれる。プロセッサ132は、単一のプロセッサに限られず、マルチプロセッサ構成であってもよい。また、単一のソケットで接続される単一のチップ内に複数のコアを有したマルチコア構成であってもよい。
FIG. 3 is a diagram showing the configuration of the
メモリ133は、主記憶装置と補助記憶装置とを含む。主記憶装置は、プロセッサ132の作業領域、プロセッサ132で処理される情報を一時的に記憶する記憶領域、通信データのバッファ領域として使用される。主記憶装置は、プロセッサ132がプログラムやデータをキャッシュしたり、作業領域を展開したりするための記憶媒体である。主記憶装置は、例えば、RAM(Random Access Memory)やROM(Read Only Memory)、フラッシュメモリを含む。補助記憶装置は、プロセッサ132により実行されるプログラムや、情報処理に用いられるデータ、動作の設定情報などを記憶する記憶媒体である。補助記憶装置は、例えば、HDD(Hard-disk Drive)やSSD(Solid State Drive)、EPROM(Erasable Programmable ROM)、フラッシュメモリ、USBメモリ、メモリカード等
である。
入出力IF134は、制御部13に接続する機器との間でデータの入出力を行うインターフェースである。入出力IF134は、例えば、マウスやキーボード等の操作部、カメラ、スキャナ、スピーカ、表示装置等の機器との間でデータの入出力を行う。また、入出力IF134は、CDやDVD等の記憶媒体からデータを読み取るディスクドライブ、カードリーダライタ、アンプ、ディスプレイ、スピーカ等の機器との間でデータの入出力を行う。操作部は、入力ボタンやダイヤル、タッチパネル等、ユーザの操作によって制御部13に対する情報が入力される入力部である。スピーカや表示部は、ユーザに対して情報を出力する出力部である。
The input/output IF 134 is an interface that inputs and outputs data with a device connected to the
通信IF135は、通信回線を介して他の装置との通信を行うインターフェース(通信モジュール)であり、CCU(Communication Control Unit)とも称す。通信IF135は、例えば、WiMAX(Worldwide Interoperability for Microwave Access)やLT
E(Long Term Evolution)、WiFi、ブルートゥース(登録商標)等の無線通信方式
で通信を行う。なお、図3に示した制御部13の構成要素はそれぞれ複数設けられてもよいし、一部の構成要素を設けないようにしてもよい。
The communication IF 135 is an interface (communication module) that communicates with other devices via a communication line, and is also referred to as a CCU (Communication Control Unit). The communication IF 135 is, for example, WiMAX (Worldwide Interoperability for Microwave Access) or LT.
Communication is performed using wireless communication methods such as E (Long Term Evolution), WiFi, and Bluetooth (registered trademark). Note that a plurality of the components of the
制御部13では、プロセッサ132が、アプリケーションプログラムを実行することにより、三次元モデル生成部312、映像生成部313、状況情報送信部331、指示受信部332、指示出力部333といった各処理部として機能する。プロセッサ132は、一つのプロセッサ132又は一つのコアが、複数の処理部として兼用され得る。例えば、プロセッサ132は、マルチスレッド或いはマルチタスクといった技術で複数の処理部として機能する。また、上記複数の処理部の一部又は全部が、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)等の専用LSI(large scale integration)、論理回路、その
他のデジタル回路といったハードウェアで形成されたものであってもよい。また、上記各処理部の少なくとも一部にアナログ回路を含む構成としてもよい。
In the
三次元モデル生成部312は、前記位置検出部で検出した身体の位置に基づいて健肢を含む身体の三次元モデルを生成する。検出対象者が存在する現実の空間と対応する仮想空間を設定し、三次元モデル生成部312は、現実の空間において検出対象者が存在する位置と対応する仮想空間上の位置に作成した三次元モデルを配置するように、三次元モデルの位置を設定する。また、三次元モデル生成部312は、前記健肢と対になる幻肢の三次元モデルを生成する。本実施形態では、健肢の三次元モデルに対して左右対称のモデルを生成し、幻肢が有るべき位置に配置する。 The three-dimensional model generating section 312 generates a three-dimensional model of the body including healthy limbs based on the position of the body detected by the position detecting section. A virtual space corresponding to the real space where the detection target person exists is set, and the three-dimensional model generation unit 312 generates a three-dimensional model created at a position in the virtual space that corresponds to the position where the detection target person exists in the real space. Set the position of the 3D model to place the model. Furthermore, the three-dimensional model generation unit 312 generates a three-dimensional model of a phantom limb that is paired with the healthy limb. In this embodiment, a symmetrical model is generated with respect to the three-dimensional model of a healthy limb, and the phantom limb is placed in the desired position.
映像生成部313は、前記健肢及び前記幻肢の三次元モデルを含む前記仮想空間の映像を生成する。ここで、検出対象者が健肢を動かした場合、三次元モデル生成部が作成する三次元モデルも仮想空間内で同じように動くため、映像生成部313は、この仮想空間内で動く三次元モデルの映像を生成する。また、本実施形態の映像生成部313は、検出対象者の左目の位置から仮想空間内を見た場合の映像(左目用映像)と、検出対象者の右目の位置から仮想空間内を見た場合の映像(右目用映像)とを生成する。即ち、左目用映像と右目用映像とは、同じ空間を見た場合の映像であって、左右の目の間隔(目幅)だけ見る位置に差(視差)を有した映像である。また、映像生成部313は、HMD14を装着している検出対象者の頭部の向きに応じて、仮想空間内を見る方向を定めて映像を生成しても良い。
The image generation unit 313 generates an image of the virtual space including three-dimensional models of the healthy limb and the phantom limb. Here, when the detection target moves a healthy limb, the 3D model created by the 3D model generation unit also moves in the same way in the virtual space. Generate a video of the model. In addition, the video generation unit 313 of this embodiment generates an image (left-eye video) when looking into the virtual space from the position of the left eye of the detection target, and an image when looking inside the virtual space from the position of the right eye of the detection target. The image for the right eye (image for the right eye) is generated. That is, the left-eye image and the right-eye image are images when viewing the same space, but have a difference (parallax) in viewing position by the distance between the left and right eyes (eye width). Further, the video generation unit 313 may generate the video by determining the direction in which the virtual space is viewed, depending on the orientation of the head of the detection target wearing the
状況情報送信部331は、少なくとも前記健肢の位置を含む前記被術者の状態を示す被術者状況情報を前記施術者装置へ送信する。被術者状況情報は、例えば、三次元モデル生成部312が生成した三次元モデルを示す情報、又は映像生成部313が生成した映像情報である。また、状況情報送信部331は、マイク143で取得した被術者の音声情報を状況情報に含めて送信してもよい。
The situation information transmitting unit 331 transmits patient situation information indicating the condition of the patient including at least the position of the healthy limb to the practitioner device. The subject situation information is, for example, information indicating a three-dimensional model generated by the three-dimensional model generation section 312 or video information generated by the image generation section 313. Further, the situation information transmitting unit 331 may include the patient's voice information acquired by the
指示受信部332は、施術者装置20から施術者の指示を示す指示情報を受信する。指示情報は、例えば、施術者装置20が生成した施術者の三次元モデルを示す情報、映像情報、及び音声情報の少なくとも1つである。
The instruction receiving unit 332 receives instruction information indicating instructions from the practitioner from the practitioner's
指示出力部は、指示情報に基づいて仮想空間の映像及び音声のうち少なくとも一方として被術者に対して出力させる。例えば、指示情報が、施術者の三次元モデルを示す情報で
あった場合、この情報を映像生成部313へ送り、仮想空間内に被術者の三次元モデルと施術者の三次元モデルとを配置した状態で映像情報と生成させる。また、指示情報が、施術者の映像情報であった場合、この情報を映像生成部313へ送り、被術者の映像情報に施術者の映像情報を合成させる。指示情報が、施術者の音声情報であった場合、この情報をイヤフォン142から音声として出力させる。
The instruction output unit outputs at least one of video and audio in the virtual space to the patient based on the instruction information. For example, if the instruction information is information indicating a three-dimensional model of the practitioner, this information is sent to the image generation unit 313, and the three-dimensional model of the patient and the three-dimensional model of the practitioner are created in the virtual space. Generate video information in the arranged state. Further, when the instruction information is video information of the practitioner, this information is sent to the video generation unit 313, and the video information of the practitioner is combined with the video information of the patient. If the instruction information is the practitioner's voice information, this information is output as voice from the
《施術者装置》
図1に示すように、施術者装置20は、位置検出部21,22、制御部23、HMD24を備えている。施術者装置20において、位置検出部21,22、HMD24は、前述の被術者装置10における位置検出部21,22、HMD14と同じ構成のため、再度の説明を省略する。
《Practitioner device》
As shown in FIG. 1, the
図4は、制御部23の構成を示す図である。制御部23は、例えば、接続バス231によって相互に接続されたプロセッサ232、メモリ233、入出力IF(インターフェース)234、通信IF235を有する。施術者装置20における制御部23は、前述の被術者装置10の制御部13と比べて、プロセッサ232が実現する機能が異なっている。この他、制御部23における接続バス231、プロセッサ232、メモリ233、入出力IF234、通信IF235のハードウェア構成は、被術者装置10における制御部13の接続バス131、プロセッサ132、メモリ133、入出力IF134、通信IF135と同じ構成のため、再度の説明を省略する。
FIG. 4 is a diagram showing the configuration of the
制御部23では、プロセッサ232が、アプリケーションプログラムを実行することにより、三次元モデル生成部412、状況情報受信部431、状況情報出力部432、指示情報送信部433といった各処理部として機能する。
In the
三次元モデル生成部412は、位置検出部21,22で検出した身体の位置に基づいて健肢を含む身体の三次元モデルを生成する。検出対象者が存在する現実の空間と対応する仮想空間を設定し、三次元モデル生成部412は、現実の空間において検出対象者が存在する位置と対応する仮想空間上の位置に作成した三次元モデルを配置するように、三次元モデルの位置を設定する。また、三次元モデル生成部412は、前記健肢と対になる幻肢の三次元モデルを生成する。本実施形態では、健肢の三次元モデルに対して左右対称のモデルを生成し、幻肢が有るべき位置に配置する。
The three-dimensional model generation unit 412 generates a three-dimensional model of the body including healthy limbs based on the body positions detected by the
映像生成部413は、前記健肢及び前記幻肢の三次元モデルを含む前記仮想空間の映像を生成する。ここで、検出対象者が健肢を動かした場合、三次元モデル生成部が作成する三次元モデルも仮想空間内で同じように動くため、映像生成部413は、この仮想空間内で動く三次元モデルの映像を生成する。また、本実施形態の映像生成部413は、検出対象者の左目の位置から仮想空間内を見た場合の映像(左目用映像)と、検出対象者の右目の位置から仮想空間内を見た場合の映像(右目用映像)とを生成する。即ち、左目用映像と右目用映像とは、同じ空間を見た場合の映像であって、左右の目の間隔(目幅)だけ見る位置に差(視差)を有した映像である。また、映像生成部413は、HMD24を装着している検出対象者の頭部の向きに応じて、仮想空間内を見る方向を定めて映像を生成しても良い。
The image generation unit 413 generates an image of the virtual space including three-dimensional models of the healthy limb and the phantom limb. Here, when the detection target moves a healthy limb, the 3D model created by the 3D model generation unit also moves in the same way in the virtual space. Generate a video of the model. In addition, the video generation unit 413 of this embodiment generates an image (left-eye video) when looking into the virtual space from the position of the left eye of the detection target, and an image when looking inside the virtual space from the position of the right eye of the detection target. The image for the right eye (image for the right eye) is generated. That is, the left-eye image and the right-eye image are images when viewing the same space, but have a difference (parallax) in viewing position by the distance between the left and right eyes (eye width). Further, the video generation unit 413 may generate the video by determining the direction in which the virtual space is viewed, depending on the direction of the head of the detection target wearing the
状況情報受信部431は、被術者装置10から被術者状況情報を受信する。状況情報出力部432は、被術者状況情報に基づいて被術者の状況をディスプレイに表示出力させる。本実施形態において、状況情報出力部432は表示制御部の一形態である。また、状況情報出力部432は、被術者装置10から受信した音声情報をHMD24のイヤフォンから音声として出力させる。
The situation information receiving unit 431 receives patient situation information from the
指示情報送信部433は、例えば、三次元モデル生成部412で生成した施術者の三次元モデルや映像生成部413で生成した映像情報を指示情報として被術者装置10へ送信する。また、指示情報送信部433は、HMD24のマイクで取得した施術者の音声情報を指示情報として被術者装置10へ送信する。また、指示情報送信部433は、施術者の三次元モデルを配置させる仮想空間内の位置を指定する位置指定情報を含んでもよい。
The instruction information transmission section 433 transmits, for example, the three-dimensional model of the practitioner generated by the three-dimensional model generation section 412 and the video information generated by the video generation section 413 to the patient's
《幻肢痛ケア方法》
図5は、被術者装置10が、プログラムに基づいて実行する幻肢痛ケアの処理手順を示す図である。被術者装置10は、起動時や処理開始の指示を受けた時に図5の処理を開始し、処理の停止が指示されるまで、繰り返し実行する。
《Phantom limb pain care method》
FIG. 5 is a diagram showing a processing procedure for phantom limb pain care that is executed by the patient's
ステップS10にて、被術者装置10は、被術者の健肢を含む身体の位置を検出する。
In step S10, the patient's
ステップS20にて、被術者装置10は、施術者装置20から、指示情報を受信する。
In step S20, the patient's
ステップS30にて、被術者装置10は、ステップS10で検出した位置に基づいて、被術者の三次元モデルを生成する。
In step S30, the
ステップS40にて、被術者装置10は、ステップS20で指示情報として受信した施術者の三次元モデルと、ステップS30で生成した被術者の三次元モデルとを仮想空間内に配置し、この仮想空間において被術者の左目及び右目の位置から当該仮想空間内を見た場合の映像情報を生成する。なお、ステップS20で指示情報として音声情報を受信している場合には、この音声情報を映像情報に付加する。
In step S40, the
ステップS50にて、被術者装置10は、映像情報に基づいてHMD14の表示部に仮想空間の映像を表示させると共に、イヤフォン142から施術者による指示の音声を出力させる。
In step S50, the patient's
図6は、施術者装置20が、プログラムに基づいて実行する幻肢痛ケアの処理手順を示す図である。施術者装置20は、起動時や処理開始の指示を受けた時に図6の処理を開始し、処理の停止が指示されるまで、繰り返し実行する。
FIG. 6 is a diagram showing the processing procedure of phantom limb pain care that the
ステップS110にて、施術者装置20は、施術者の健肢を含む身体の位置を検出する。
In step S110, the practitioner's
ステップS120にて、施術者装置20は、被術者装置10から、被術者状況情報を受信する。
In step S120, the
ステップS130にて、施術者装置20は、ステップS110で検出した位置に基づいて、施術者の三次元モデルを生成する。
In step S130, the
ステップS140にて、施術者装置20は、ステップS120で被術者状況情報として受信した被術者の三次元モデルと、ステップS130で生成した施術者の三次元モデルとを仮想空間内に配置し、この仮想空間において施術者の左目及び右目の位置から当該仮想空間内を見た場合の左目用映像情報及び右目用映像情報を生成する。なお、ステップS120で被術者状況情報として音声情報を受信している場合には、この音声情報を映像情報に付加する。
In step S140, the
ステップS150にて、施術者装置20は、映像情報に基づいてHMD24の表示部141に仮想空間の映像を表示させると共に、HMD24のイヤフォンから被術者の音声を
出力させる。
In step S150, the
《具体例》
図7は、被術者の健肢として左側の上肢を指定した場合に、現実空間において被術者から見える健肢5の例を示している。
"Concrete example"
FIG. 7 shows an example of the
図8は、健肢5の三次元モデル5Mを生成し、仮想空間内に配置した場合の映像情報の例を示す図である。なお、図8では、説明のため健肢5の三次元モデル5M以外の要素を省略して示している。図8に示すように、HMD14に表示される三次元モデル5Mは、現実の健肢5(図7)と重なる位置に表示される。
FIG. 8 is a diagram showing an example of video information when a three-
また、被術者装置10は、健肢5の三次元モデル5Mと左右対称に幻肢の三次元モデル5Lを生成し、図9に示すように三次元モデル5Mと左右対称の位置に三次元モデル5Lを配置して表示させる。これらモデル5M,5Lの映像は、例えば30フレーム/秒など、所定の周期でリアルタイムに生成されるので、被術者は動かした健肢5と一致してモデル5M,5Lが動くので、自身の上肢のように視認できる。この場合、視界内に幻肢の三次元モデル5Lが表示されるので、被術者は、あたかも幻肢が存在するように感じることができる。
The
また、被術者装置10は、図10に示すように、被術者の三次元モデル5M,5Lと同じ仮想空間内に施術者の三次元モデル50を表示させる。これにより施術者が操作の見本を映像で示すことができ、「このように腕をひねってください」「手をこっちに向けて下さい」などのように、簡潔に指示を伝えることができる。なお、本実施形態では、図10に示すように被術者の視界に施術者の三次元モデルも表示させる構成としたが、必ずしもこの構成に限定されるものではなく、施術者の三次元モデルを表示せずに音声のみで指示をする構成としてもよい。この場合、施術者装置20の位置検出部21,22や三次元モデル生成部412、映像生成部413は省略してもよい。
Furthermore, as shown in FIG. 10, the
なお、仮想空間において、施術者の三次元モデル50を配置する位置と、被術者の位置との位置関係は、施術者が任意に選択してもよい。例えば、施術者が施術者装置20に、この位置関係を指定する情報(配置情報)を入力すると、施術者装置20は、この配置情報を指示情報に付加して被術者装置10へ送信する。被術者装置10は、受信した配置情報に基づいて三次元モデル50を配置する。
In addition, in the virtual space, the positional relationship between the position where the three-
図11は、図10における被術者の三次元モデル51と施術者の三次元モデル50との位置関係を示す平面図である。図11に示すように、図10は、被術者の三次元モデル51と施術者の三次元モデル50との距離LAを比較的大きくとる配置(遠位モード)としている。図12では、図13に示すように被術者の三次元モデル51と施術者の三次元モデル50との距離LBを図10と比べて小さくした配置(近位モード)としている。更に、図13では、図14に示すように被術者の三次元モデル51と施術者の三次元モデル50とが略重なる位置に配置され、被術者及び施術者の三次元モデル50,51を同じ方向に向けた配置(重畳モード)としている。このように遠位モードでは施術者の全体を見ることができ、近位モードでは施術者の四肢を近くで詳細に見ることができ、重畳モードでは施術者の四肢と被術者の四肢を並べて見ることができるようにしている。なお、図10、図12では、被術者から見た映像の例を示したが、このとき施術者装置20は、図10、図12とは逆に、被術者の三次元モデルが対向する位置に表示される。
FIG. 11 is a plan view showing the positional relationship between the three-
また、一つの施術者装置20が、複数の被術者装置10と接続し、この複数の被術者装置10へ指示情報を同時に送信する構成としてもよい。この場合、一つの施術者装置20が、複数の被術者装置10から被術者状況情報を受信し、複数の被術者の状況を表示させ
る。図15は、一つの仮想空間に複数の被術者の三次元モデル51を表示させた例を示している。
Alternatively, one
このように本実施形態の幻肢痛ケアシステムによれば、施術者が通信回線Nを介して被術者装置10へ指示をすることができるので、遠隔地にいる人(患者)に対して施術することができる。即ち、遠隔地にいる人(患者)であっても幻肢痛のケアを受けることができる。
In this way, according to the phantom limb pain care system of the present embodiment, the practitioner can give instructions to the patient's
また、本実施形態の幻肢痛ケアシステムでは、同じ仮想空間内に被術者と施術者の三次元モデルを表示させることにより、施術者が動作で手本を示すことができ、分かりやすく指示を行うことができる。 In addition, in the phantom limb pain care system of this embodiment, by displaying three-dimensional models of the patient and the practitioner in the same virtual space, the practitioner can demonstrate the movement and provide easy-to-understand instructions. It can be performed.
本実施形態の幻肢痛ケアシステムでは、被術者と施術者の三次元モデルの位置関係を変えて表示させることにより、被術者から見やすい位置で動作を示すことができ、分かりやすく指示を行うことができる。 In the phantom limb pain care system of this embodiment, by changing the positional relationship of the three-dimensional models of the patient and practitioner and displaying them, movements can be shown in a position that is easy for the patient to see, and instructions can be given in an easy-to-understand manner. It can be carried out.
本実施形態の幻肢痛ケアシステムでは、一つの施術者装置20から、複数の被術者装置10へ指示情報を同時に送信することにより、一人の施術者が複数の被術者に対して同時に施術することができる。
In the phantom limb pain care system of this embodiment, by simultaneously transmitting instruction information from one
1 :幻肢痛ケアシステム
5 :健肢
5M :健肢の三次元モデル
5L :幻肢の三次元モデル
10 :被術者装置
11,12 :位置検出部
13 :制御部
14 :ヘッドマウントディスプレイ(HMD)
20 :施術者装置
21 :位置検出部
22 :位置検出部
23 :制御部
24 :HMD
N :通信回線
1: Phantom limb pain care system 5:
20: Practitioner device 21: Position detection unit 22: Position detection unit 23: Control unit 24: HMD
N: Communication line
Claims (7)
前記被術者装置が、
前記被術者の四肢のうち予め定めた一つを健肢とし、当該健肢の位置を検出する位置検出部と、
前記位置検出部で検出した前記健肢の位置に基づいて前記健肢の三次元モデルを生成すると共に、前記健肢の位置に基づいて前記健肢と対になる幻肢の三次元モデルを生成する三次元モデル生成部と、
前記健肢及び前記幻肢の三次元モデルを含む前記仮想空間の映像を生成する映像生成部と、
前記被術者の頭部に装着され、前記仮想空間の映像をディスプレイ画面上に表示させるヘッドマウントディスプレイと、
前記三次元モデルを示す被術者状況情報を前記施術者装置へ送信する状況情報送信部と、
前記施術者装置から前記施術者の指示を示す指示情報を受信する指示受信部と、
前記指示情報を前記仮想空間の映像の一部と音声とのうち少なくとも一方として前記被術者に対して出力させる指示出力部と、を備え、
前記施術者装置が、
前記被術者装置から前記被術者状況情報を受信する状況情報受信部と、
前記被術者状況情報に基づいて前記被術者の状況をディスプレイに表示させる表示制御部と、
前記指示情報を前記被術者装置へ送信する指示情報送信部と、を備える幻肢痛ケアシステム。 A patient device that provides an image of a virtual space to the patient at a first point where the patient is present, and is operated by a practitioner located at a second point away from the first point. Equipped with a practitioner device,
The subject device is
a position detection unit that detects the position of a predetermined one of the subject's limbs as a healthy limb;
Generating a three-dimensional model of the healthy limb based on the position of the healthy limb detected by the position detection unit, and generating a three-dimensional model of a phantom limb to be paired with the healthy limb based on the position of the healthy limb. a three-dimensional model generation unit,
an image generation unit that generates an image of the virtual space including a three-dimensional model of the healthy limb and the phantom limb;
a head-mounted display that is attached to the subject's head and displays an image of the virtual space on a display screen;
a situation information transmitting unit that transmits patient situation information indicating the three-dimensional model to the practitioner device;
an instruction receiving unit that receives instruction information indicating instructions of the practitioner from the practitioner device;
an instruction output unit that outputs the instruction information to the patient as at least one of a part of the video and audio of the virtual space;
The practitioner device includes:
a situation information receiving unit that receives the patient situation information from the patient device;
a display control unit that displays the condition of the patient on a display based on the patient situation information;
A phantom limb pain care system, comprising: an instruction information transmitter that transmits the instruction information to the patient's device.
前記施術者の四肢のうち予め定めた一つを健肢とし、当該健肢の位置を検出する位置検出部と、
前記位置検出部で検出した前記健肢の位置に基づいて前記健肢の三次元モデルを生成すると共に、前記健肢の位置に基づいて前記健肢と対になる幻肢の三次元モデルを生成する三次元モデル生成部と、を備え、
前記指示情報送信部が、前記施術者の健肢に基づく三次元モデル及び幻肢の三次元モデルを指示情報に含めて前記被術者装置へ送信し、
前記被術者装置の映像生成部が、前記三次元モデルを含む前記指示情報に基づいて、前記施術者の健肢及び幻肢の三次元モデルを前記仮想空間の映像に合成して表示させる
請求項1に記載の幻肢痛ケアシステム。 The practitioner device includes:
a position detection unit that detects the position of a predetermined one of the limbs of the practitioner as a healthy limb, and the position of the healthy limb;
Generating a three-dimensional model of the healthy limb based on the position of the healthy limb detected by the position detection unit, and generating a three-dimensional model of a phantom limb to be paired with the healthy limb based on the position of the healthy limb. a three-dimensional model generation unit,
The instruction information transmitting unit includes a three-dimensional model based on the healthy limb of the practitioner and a three-dimensional model of the phantom limb in instruction information and transmits the instruction information to the patient device,
The image generation unit of the patient device synthesizes and displays the three-dimensional models of the healthy limb and phantom limb of the practitioner with the image of the virtual space based on the instruction information including the three-dimensional model. The phantom limb pain care system according to item 1.
前記被術者の四肢のうち予め定めた一つを健肢とし、当該健肢の位置を検出する位置検出部と、
前記位置検出部で検出した前記健肢の位置に基づいて前記健肢の三次元モデルを生成すると共に、前記健肢の位置に基づいて前記健肢と対になる幻肢の三次元モデルを生成する三次元モデル生成部と、
前記健肢及び前記幻肢の三次元モデルを含む前記仮想空間の映像を生成する映像生成部と、
前記被術者の頭部に装着され、前記仮想空間の映像をディスプレイ画面上に表示させるヘッドマウントディスプレイと、
前記三次元モデルを示す被術者状況情報を前記施術者装置へ送信する状況情報送信部と、
前記施術者装置から前記施術者の指示を示す指示情報を受信する指示受信部と、
前記指示情報を前記仮想空間の映像の一部と音声とのうち少なくとも一方として前記被術者に対して出力させる指示出力部と、
を備える被術者装置。 Providing an image of a virtual space to the patient at a first point where the patient is present, and communicating with a practitioner device operated by a practitioner located at a second point away from the first point. A patient device that performs
a position detection unit that detects the position of a predetermined one of the subject's limbs as a healthy limb;
Generating a three-dimensional model of the healthy limb based on the position of the healthy limb detected by the position detection unit, and generating a three-dimensional model of a phantom limb to be paired with the healthy limb based on the position of the healthy limb. a three-dimensional model generation unit,
an image generation unit that generates an image of the virtual space including a three-dimensional model of the healthy limb and the phantom limb;
a head-mounted display that is attached to the subject's head and displays an image of the virtual space on a display screen;
a situation information transmitting unit that transmits patient situation information indicating the three-dimensional model to the practitioner device;
an instruction receiving unit that receives instruction information indicating instructions of the practitioner from the practitioner device;
an instruction output unit that outputs the instruction information to the subject as at least one of a portion of the video of the virtual space and audio;
A patient device comprising:
前記被術者の四肢のうち予め定めた一つを健肢とし、当該健肢の位置を検出するステップと、
検出した前記健肢の位置に基づいて前記健肢の三次元モデルを生成すると共に、前記健
肢の位置に基づいて前記健肢と対になる幻肢の三次元モデルを生成するステップと、
前記健肢及び前記幻肢の三次元モデルを含む前記仮想空間の映像を生成するステップと、
前記被術者の頭部に装着されたヘッドマウントディスプレイのディスプレイ画面上に前記仮想空間の映像を表示させるステップと、
前記三次元モデルを示す被術者状況情報を前記施術者装置へ送信するステップと、
前記施術者装置から前記施術者の指示を示す指示情報を受信するステップと、
前記指示情報を前記仮想空間の映像の一部と音声とのうち少なくとも一方として前記被術者に対して出力させるステップと、
を前記被術者装置に実行させるためのプログラム。 Providing an image of a virtual space to the patient at a first point where the patient is present, and communicating with a practitioner device operated by a practitioner located at a second point away from the first point. A program to be executed by a patient's device to perform the operation,
A step of determining a predetermined one of the subject's limbs as a healthy limb, and detecting the position of the healthy limb;
generating a three-dimensional model of the healthy limb based on the detected position of the healthy limb, and generating a three-dimensional model of a phantom limb paired with the healthy limb based on the position of the healthy limb;
generating an image of the virtual space including a three-dimensional model of the healthy limb and the phantom limb;
Displaying an image of the virtual space on a display screen of a head-mounted display attached to the subject's head;
transmitting patient situation information indicating the three-dimensional model to the practitioner device;
receiving instruction information indicating the practitioner's instructions from the practitioner's device;
outputting the instruction information to the patient as at least one of a portion of the video of the virtual space and audio;
A program for causing the patient's device to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020037989A JP7450183B2 (en) | 2020-03-05 | 2020-03-05 | Phantom limb pain care system, patient device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020037989A JP7450183B2 (en) | 2020-03-05 | 2020-03-05 | Phantom limb pain care system, patient device, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021137348A JP2021137348A (en) | 2021-09-16 |
JP7450183B2 true JP7450183B2 (en) | 2024-03-15 |
Family
ID=77667006
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020037989A Active JP7450183B2 (en) | 2020-03-05 | 2020-03-05 | Phantom limb pain care system, patient device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7450183B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007185325A (en) | 2006-01-13 | 2007-07-26 | Nagoya Institute Of Technology | Upper limb rehabilitation exercise system |
JP2011019627A (en) | 2009-07-14 | 2011-02-03 | Yasuhiro Shitan | Fitness machine, method and program |
JP2015161699A (en) | 2014-02-26 | 2015-09-07 | セイコーエプソン株式会社 | Display system, health apparatus, and display control method |
JP2018051100A (en) | 2016-09-30 | 2018-04-05 | セイコーエプソン株式会社 | Exercise training device, program and display method |
JP2018110672A (en) | 2017-01-11 | 2018-07-19 | 国立大学法人東京農工大学 | Display control device and display control program |
-
2020
- 2020-03-05 JP JP2020037989A patent/JP7450183B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007185325A (en) | 2006-01-13 | 2007-07-26 | Nagoya Institute Of Technology | Upper limb rehabilitation exercise system |
JP2011019627A (en) | 2009-07-14 | 2011-02-03 | Yasuhiro Shitan | Fitness machine, method and program |
JP2015161699A (en) | 2014-02-26 | 2015-09-07 | セイコーエプソン株式会社 | Display system, health apparatus, and display control method |
JP2018051100A (en) | 2016-09-30 | 2018-04-05 | セイコーエプソン株式会社 | Exercise training device, program and display method |
JP2018110672A (en) | 2017-01-11 | 2018-07-19 | 国立大学法人東京農工大学 | Display control device and display control program |
Also Published As
Publication number | Publication date |
---|---|
JP2021137348A (en) | 2021-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11195340B2 (en) | Systems and methods for rendering immersive environments | |
US20230029639A1 (en) | Medical device system for remote monitoring and inspection | |
JP6381918B2 (en) | Motion information processing device | |
US20140172166A1 (en) | Treatment device for hemiplegia | |
US11273344B2 (en) | Multimodal sensory feedback system and method for treatment and assessment of disequilibrium, balance and motion disorders | |
JP6181373B2 (en) | Medical information processing apparatus and program | |
WO2014112635A1 (en) | Movement-information processing device | |
JP4025230B2 (en) | Pain treatment support device and method for displaying phantom limb images in a virtual space | |
KR102582154B1 (en) | User terminal for providing augmented reality medical image using depth camera and method for providing augmented reality medical image | |
US20220071484A1 (en) | Virtual reality-based portable nystagmography device and diagnostic test method using same | |
TWI636768B (en) | Surgical assist system | |
JP2022529730A (en) | MRI scanner compatible virtual reality system | |
JP2017191546A (en) | Medical use head-mounted display, program of medical use head-mounted display, and control method of medical use head-mounted display | |
JP7450183B2 (en) | Phantom limb pain care system, patient device, and program | |
US11081015B2 (en) | Training device, training method, and program | |
WO2016190285A1 (en) | Rehabilitation system, program for rehabilitation, and rehabilitation method | |
KR101730699B1 (en) | Using virtual reality therapy apparatus for pain treatment of physical asymmetry | |
KR101917781B1 (en) | Method for curing BPPV using HMD | |
US20160030764A1 (en) | Non-tactile sensory substitution device | |
KR102446922B1 (en) | Apparatus for rehabilitation treatment using virtual transplant based on vr/ar for overcoming phantom pain | |
JP2018191964A (en) | Neuropathy-related pain treatment support system and pain treatment support method | |
JP7262763B2 (en) | Rehabilitation support device and program | |
JP2017189591A (en) | Medical VR preparation tool | |
KR101813474B1 (en) | Psychotherapy method using virtual reality and apparatus performing the same | |
KR20170024994A (en) | Dental x-ray imaging apparatus and system having wearable devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20211224 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20211227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20211224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20211227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20220127 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230926 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230929 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240222 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7450183 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |