JP7450183B2 - Phantom limb pain care system, patient device, and program - Google Patents

Phantom limb pain care system, patient device, and program Download PDF

Info

Publication number
JP7450183B2
JP7450183B2 JP2020037989A JP2020037989A JP7450183B2 JP 7450183 B2 JP7450183 B2 JP 7450183B2 JP 2020037989 A JP2020037989 A JP 2020037989A JP 2020037989 A JP2020037989 A JP 2020037989A JP 7450183 B2 JP7450183 B2 JP 7450183B2
Authority
JP
Japan
Prior art keywords
patient
practitioner
dimensional model
limb
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020037989A
Other languages
Japanese (ja)
Other versions
JP2021137348A (en
Inventor
敦 岡田
裕 松村
純一 暦本
健太 齋藤
一則 猪俣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Information Services International Dentsu Ltd
Original Assignee
University of Tokyo NUC
Information Services International Dentsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC, Information Services International Dentsu Ltd filed Critical University of Tokyo NUC
Priority to JP2020037989A priority Critical patent/JP7450183B2/en
Publication of JP2021137348A publication Critical patent/JP2021137348A/en
Application granted granted Critical
Publication of JP7450183B2 publication Critical patent/JP7450183B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、幻肢痛ケアシステムに関する。 The present invention relates to a phantom limb pain care system.

幻肢痛は、手腕や足の切断後に、失ったはずの四肢が存在するように感じられ、四肢が存在していた空間に痛みを知覚する現象である。幻肢痛は、四肢切断患者の80%以上に現れるとされている。 Phantom limb pain is a phenomenon in which, after an arm or leg is amputated, the limb that was supposed to be lost is felt to exist, and pain is perceived in the space where the limb used to exist. Phantom limb pain is said to occur in more than 80% of patients with limb amputation.

幻肢痛の治療方法としては、欠損した四肢と対になる現存四肢を鏡に写し、現存四肢を動かすことで欠損した四肢が正常に動いているように視覚的にフィードバックすることで、痛みを緩和させるものが知られている。 A method of treating phantom limb pain is to show the existing limb that is paired with the missing limb in a mirror and move the existing limb to provide visual feedback so that the missing limb is moving normally, thereby relieving the pain. There are known things that can relieve it.

また、特許文献1では、位置センサによって患者の姿勢等を検出し、これに基づいて所定作業を実行する当該患者の動きに対応する幻視画像を、仮想空間において提示することによって疼痛を軽減させる疼痛治療支援装置が開示されている。 Furthermore, in Patent Document 1, a position sensor detects the posture of a patient, and based on this, a phantom image corresponding to the movement of the patient performing a predetermined task is presented in a virtual space to reduce pain. A treatment support device is disclosed.

特開2004-298430号公報Japanese Patent Application Publication No. 2004-298430

上肢切断、腕神経叢損傷患者は、推定4,5千人いるとされ、脳卒中、視床痛など脳に障害が起きて手足が痛むという患者で、運動療法で緩和ケアが必要な患者数は500万人いるとされる。幻肢の痛み方は人によって異なり、また日によって異なることがある。このため、治療には相応の知識と経験が必要であり、適切に治療できる人は少ない。経験豊富な医師等は、比較的都市部に集中しているが、幻肢痛の患者は、都市部だけではない。このため、治療に通えない患者も存在するという問題があった。 It is estimated that there are 4.5,000 patients with upper limb amputations and brachial plexus injuries, and the number of patients who suffer from brain damage such as stroke or thalamic pain resulting in pain in their limbs is 500 who require palliative care through exercise therapy. It is said that there are 10,000 people. Phantom limb pain varies from person to person and can vary from day to day. For this reason, treatment requires appropriate knowledge and experience, and there are few people who can properly treat it. Although experienced doctors are relatively concentrated in urban areas, patients with phantom limb pain are not only found in urban areas. For this reason, there was a problem in that some patients were unable to attend treatment.

そこで、本発明は、施術者から離れた位置に存在する幻肢痛患者に対するケアを可能にする技術の提供を目的とする。 Therefore, an object of the present invention is to provide a technique that makes it possible to care for a patient with phantom limb pain who is located away from the practitioner.

上記課題を解決するため、本発明の幻肢痛ケアシステムは、
被術者が存在する第一の地点において仮想空間の映像を前記被術者に提供する被術者装置と、前記第一の地点から離れた第二の地点に存在する施術者によって操作される施術者装置とを備え、
前記被術者装置が、
前記被術者の四肢のうち予め定めた一つを健肢とし、当該健肢の位置を検出する位置検出部と、
前記位置検出部で検出した前記健肢の位置に基づいて前記健肢の三次元モデルを生成すると共に、前記健肢の位置に基づいて前記健肢と対になる幻肢の三次元モデルを生成する三次元モデル生成部と、
前記健肢及び前記幻肢の三次元モデルを含む前記仮想空間の映像を生成する映像生成部と、
前記被術者の頭部に装着され、前記仮想空間の映像をディスプレイ画面上に表示させるヘッドマウントディスプレイと、
少なくとも前記健肢の位置を含む前記被術者の状態を示す被術者状況情報を前記施術者装置へ送信する状況情報送信部と、
前記施術者装置から前記施術者の指示を示す指示情報を受信する指示受信部と、
前記指示情報を前記仮想空間の映像の一部と音声とのうち少なくとも一方として前記被術者に対して出力させる指示出力部と、を備え、
前記施術者装置が、
前記被術者装置から前記被術者状況情報を受信する状況情報受信部と、
前記被術者状況情報に基づいて前記被術者の状況をディスプレイに表示させる表示制御部と、
前記指示情報を前記被術者装置へ送信する指示情報送信部と、を備える。
In order to solve the above problems, the phantom limb pain care system of the present invention,
A patient device that provides an image of a virtual space to the patient at a first point where the patient is present, and is operated by a practitioner located at a second point away from the first point. Equipped with a practitioner device,
The subject device is
a position detection unit that detects a position of a predetermined limb of the patient as a healthy limb;
Generating a three-dimensional model of the healthy limb based on the position of the healthy limb detected by the position detection unit, and generating a three-dimensional model of a phantom limb to be paired with the healthy limb based on the position of the healthy limb. a three-dimensional model generation unit,
an image generation unit that generates an image of the virtual space including a three-dimensional model of the healthy limb and the phantom limb;
a head-mounted display that is attached to the subject's head and displays an image of the virtual space on a display screen;
a situation information transmitting unit that transmits patient situation information indicating the condition of the patient including at least the position of the healthy limb to the practitioner device;
an instruction receiving unit that receives instruction information indicating instructions from the practitioner from the practitioner device;
an instruction output unit that outputs the instruction information to the patient as at least one of a part of the video and audio of the virtual space;
The practitioner device includes:
a situation information receiving unit that receives the patient situation information from the patient device;
a display control unit that displays the condition of the patient on a display based on the patient situation information;
and an instruction information transmitting section that transmits the instruction information to the patient's device.

前記幻肢痛ケアシステムは、
前記施術者装置が、
前記被術者の四肢のうち予め定めた一つを健肢とし、当該健肢の位置を検出する位置検出部と、
前記位置検出部で検出した前記健肢の位置に基づいて前記健肢の三次元モデルを生成すると共に、前記健肢の位置に基づいて前記健肢と対になる幻肢の三次元モデルを生成する三次元モデル生成部と、を備え、
前記指示情報送信部が、前記施術者の健肢に基づく三次元モデル及び幻肢の三次元モデルを指示情報に含めて前記被術者装置へ送信し、
前記被術者装置の映像生成部が、前記三次元モデルを含む前記指示情報に基づいて、前記施術者の健肢及び幻肢の三次元モデルを前記仮想空間の映像に合成して表示させてもよい。
The phantom limb pain care system includes:
The practitioner device includes:
a position detection unit that detects the position of a predetermined one of the subject's limbs as a healthy limb;
Generating a three-dimensional model of the healthy limb based on the position of the healthy limb detected by the position detection unit, and generating a three-dimensional model of a phantom limb to be paired with the healthy limb based on the position of the healthy limb. a three-dimensional model generation unit,
The instruction information transmitting unit includes a three-dimensional model based on the healthy limb of the practitioner and a three-dimensional model of the phantom limb in instruction information and transmits the instruction information to the patient device,
The image generation unit of the patient device synthesizes and displays the three-dimensional model of the healthy limb and phantom limb of the practitioner with the image of the virtual space based on the instruction information including the three-dimensional model. Good too.

前記幻肢痛ケアシステムは、前記映像生成部が、前記被術者の三次元モデルと前記施術者の三次元モデルとを向かい合わせた映像を生成する、又は前記被術者の三次元モデルと前記施術者の三次元モデルとを同じ方向に向けて、前記被術者の三次元モデルの背面側に前記施術者の三次元モデルを位置させた映像を生成してもよい。 In the phantom limb pain care system, the image generation unit generates an image in which a three-dimensional model of the patient and a three-dimensional model of the practitioner face each other, or a three-dimensional model of the patient and a three-dimensional model of the practitioner. An image may be generated in which the three-dimensional model of the practitioner is positioned on the back side of the three-dimensional model of the subject, with the three-dimensional model of the practitioner facing the same direction.

幻肢痛ケアシステムは、前記映像生成部が、前記被術者の三次元モデルと前記施術者の三次元モデルとを向かい合わせた映像と、同じ方向を向けた映像とを前記施術者装置からの前記指示情報に基づいて切り替えてもよい。 In the phantom limb pain care system, the image generation unit generates an image in which the three-dimensional model of the patient and the three-dimensional model of the practitioner face each other and an image in which they face the same direction from the practitioner's device. The switching may be based on the instruction information.

前記幻肢痛ケアシステムは、一つの前記施術者装置が、複数の前記被術者装置と接続し、前記指示情報を複数の前記被術者装置へ送信してもよい。 In the phantom limb pain care system, one of the practitioner's devices may connect to a plurality of the patient's devices and transmit the instruction information to the plurality of patient's devices.

上記課題を解決するため、本発明の被術者装置は、
被術者が存在する第一の地点において仮想空間の映像を前記被術者に提供し、前記第一の地点から離れた第二の地点に存在する施術者によって操作される施術者装置と通信するする被術者装置であって、
前記被術者の四肢のうち予め定めた一つを健肢とし、当該健肢の位置を検出する位置検出部と、
前記位置検出部で検出した前記健肢の位置に基づいて前記健肢の三次元モデルを生成すると共に、前記健肢の位置に基づいて前記健肢と対になる幻肢の三次元モデルを生成する三次元モデル生成部と、
前記健肢及び前記幻肢の三次元モデルを含む前記仮想空間の映像を生成する映像生成部と、
前記被術者の頭部に装着され、前記仮想空間の映像をディスプレイ画面上に表示させるヘッドマウントディスプレイと、
少なくとも前記健肢の位置を含む前記被術者の状態を示す被術者状況情報を前記施術者
装置へ送信する状況情報送信部と、
前記施術者装置から前記施術者の指示を示す指示情報を受信する指示受信部と、
前記指示情報を前記仮想空間の映像の一部と音声とのうち少なくとも一方として前記被術者に対して出力させる指示出力部と、
を備える。
In order to solve the above problems, the patient device of the present invention includes:
Providing an image of a virtual space to the patient at a first point where the patient is present, and communicating with a practitioner device operated by a practitioner located at a second point away from the first point. A patient device that performs
a position detection unit that detects the position of a predetermined one of the subject's limbs as a healthy limb;
Generating a three-dimensional model of the healthy limb based on the position of the healthy limb detected by the position detection unit, and generating a three-dimensional model of a phantom limb to be paired with the healthy limb based on the position of the healthy limb. a three-dimensional model generation unit,
an image generation unit that generates an image of the virtual space including a three-dimensional model of the healthy limb and the phantom limb;
a head-mounted display that is attached to the subject's head and displays an image of the virtual space on a display screen;
a situation information transmitting unit that transmits patient situation information indicating the condition of the patient including at least the position of the healthy limb to the practitioner device;
an instruction receiving unit that receives instruction information indicating instructions from the practitioner from the practitioner device;
an instruction output unit that outputs the instruction information to the subject as at least one of a portion of the video of the virtual space and audio;
Equipped with.

上記課題を解決するため、本発明の幻肢痛ケアプログラムは、
被術者が存在する第一の地点において仮想空間の映像を前記被術者に提供し、前記第一の地点から離れた第二の地点に存在する施術者によって操作される施術者装置と通信するする被術者装置に実行させるプログラムであって、
前記被術者の四肢のうち予め定めた一つを健肢とし、当該健肢の位置を検出するステップと、
検出した前記健肢の位置に基づいて前記健肢の三次元モデルを生成すると共に、前記健肢の位置に基づいて前記健肢と対になる幻肢の三次元モデルを生成するステップと、
前記健肢及び前記幻肢の三次元モデルを含む前記仮想空間の映像を生成するステップと、
前記被術者の頭部に装着されたヘッドマウントディスプレイのディスプレイ画面上に前記仮想空間の映像を表示させるステップと、
少なくとも前記健肢の位置を含む前記被術者の状態を示す被術者状況情報を前記施術者装置へ送信するステップと、
前記施術者装置から前記施術者の指示を示す指示情報を受信するステップと、
前記指示情報を前記仮想空間の映像の一部と音声とのうち少なくとも一方として前記被術者に対して出力させるステップと、
を前記被術者装置に実行させる。
In order to solve the above problems, the phantom limb pain care program of the present invention includes:
Providing an image of a virtual space to the patient at a first point where the patient is present, and communicating with a practitioner device operated by a practitioner located at a second point away from the first point. A program to be executed by a patient's device to perform the operation,
A step of determining a predetermined one of the subject's limbs as a healthy limb, and detecting the position of the healthy limb;
generating a three-dimensional model of the healthy limb based on the detected position of the healthy limb, and generating a three-dimensional model of a phantom limb paired with the healthy limb based on the position of the healthy limb;
generating an image of the virtual space including a three-dimensional model of the healthy limb and the phantom limb;
Displaying an image of the virtual space on a display screen of a head-mounted display attached to the subject's head;
transmitting patient status information indicating the condition of the patient including at least the position of the healthy limb to the practitioner device;
receiving instruction information indicating the practitioner's instructions from the practitioner device;
outputting the instruction information to the patient as at least one of a portion of the video of the virtual space and audio;
the patient's device executes.

本発明は、施術者から離れた位置に存在する幻肢痛患者に対するケアを可能にする技術を提供することができる。 The present invention can provide a technique that enables care for a patient with phantom limb pain who is located away from the practitioner.

幻肢痛ケアシステムの構成を示す図である。1 is a diagram showing the configuration of a phantom limb pain care system. ヘッドマウントディスプレイの構成を示す図である。FIG. 2 is a diagram showing the configuration of a head-mounted display. 被術者装置における制御部の構成を示す図である。It is a figure showing the composition of the control part in a patient's device. 施術者装置における制御部の構成を示す図である。It is a figure showing the composition of the control part in a practitioner's device. 被術者装置が、プログラムに基づいて実行する幻肢痛ケアの処理手順を示す図である。FIG. 3 is a diagram illustrating a procedure for phantom limb pain care that is executed by the patient's device based on a program. 施術者装置が、プログラムに基づいて実行する幻肢痛ケアの処理手順を示す図である。FIG. 3 is a diagram illustrating a procedure for phantom limb pain care that is executed by the practitioner's device based on a program. 被術者の健肢として左側の上肢を指定した場合に、現実空間において被術者から見える健肢の例を示している。An example of a healthy limb visible to the patient in real space is shown when the left upper limb is designated as the patient's healthy limb. 健肢の三次元モデルを生成し、仮想空間内に配置した場合の映像情報の例を示す図である。FIG. 6 is a diagram showing an example of video information when a three-dimensional model of a healthy limb is generated and placed in a virtual space. 健肢及幻肢の三次元モデルを生成し、仮想空間内に配置した場合の映像情報の例を示す図である。FIG. 6 is a diagram showing an example of video information when a three-dimensional model of a healthy limb and a phantom limb is generated and placed in a virtual space. 被術者の三次元モデルと施術者の三次元モデルとを同一の仮想空間内に配置した場合の映像情報の例を示す図である。FIG. 6 is a diagram showing an example of video information when a three-dimensional model of the patient and a three-dimensional model of the practitioner are placed in the same virtual space. 図10における被術者の三次元モデルと施術者の三次元モデルとの位置関係を示す図である。11 is a diagram showing the positional relationship between the three-dimensional model of the patient and the three-dimensional model of the practitioner in FIG. 10. FIG. 被術者の三次元モデルと施術者の三次元モデルとを同一の仮想空間内に近接配置した場合の映像情報の例を示す図である。FIG. 6 is a diagram showing an example of video information when a three-dimensional model of a patient and a three-dimensional model of a practitioner are placed close to each other in the same virtual space. 図12における被術者の三次元モデルと施術者の三次元モデルとの位置関係を示す図である。13 is a diagram showing the positional relationship between the three-dimensional model of the patient and the three-dimensional model of the practitioner in FIG. 12. FIG. 被術者の三次元モデルと施術者の三次元モデルとを仮想空間内の略同じ位置に、同じ方向を向けて配置した場合の映像情報の例を示す図である。FIG. 6 is a diagram illustrating an example of video information when a three-dimensional model of a patient and a three-dimensional model of a practitioner are placed at substantially the same position in virtual space and facing the same direction. 図14における被術者の三次元モデルと施術者の三次元モデルとの位置関係を示す図である。15 is a diagram showing the positional relationship between the three-dimensional model of the patient and the three-dimensional model of the practitioner in FIG. 14. FIG. 一つの仮想空間に複数の被術者の三次元モデルを表示させた例を示す図である。FIG. 3 is a diagram showing an example in which three-dimensional models of a plurality of subjects are displayed in one virtual space.

〈第一実施形態〉
《システム構成》
以下本発明の一実施形態について図面を用いて説明する。本実施形態では、幻肢痛の治療を支援するシステムについて説明する。本実施形態の幻肢痛ケアシステム1は、幻肢痛に対するケアを支援するシステムである。幻肢痛のケアとは、幻肢痛を無くす又は緩和する行為であり、治療やリハビリテーション等である。本実施形態において、幻肢痛のケアは、医師法によって認められている治療行為に限定されるものではなく、トレーニングや、リラクゼーションといった行為であってもよい。
<First embodiment>
"System configuration"
An embodiment of the present invention will be described below with reference to the drawings. In this embodiment, a system for supporting treatment of phantom limb pain will be described. The phantom limb pain care system 1 of this embodiment is a system that supports care for phantom limb pain. Phantom limb pain care refers to actions to eliminate or alleviate phantom limb pain, such as treatment and rehabilitation. In this embodiment, care for phantom limb pain is not limited to therapeutic actions permitted by the Medical Practitioners Act, but may include actions such as training and relaxation.

図1は、幻肢痛ケアシステム1の構成を示す図である。幻肢痛ケアシステム1は、被術者(患者)が存在する第一の地点において仮想空間の映像を被術者に提供する被術者装置10と、第一の地点から離れた第二の地点に存在する施術者によって操作される施術者装置20とを備えている。 FIG. 1 is a diagram showing the configuration of a phantom limb pain care system 1. The phantom limb pain care system 1 includes a patient device 10 that provides an image of a virtual space to a patient at a first location where the patient is present, and a second patient device located away from the first location. The apparatus includes a practitioner device 20 operated by a practitioner present at the location.

《被術者装置》
図1に示すように、被術者装置10は、位置検出部11,12、制御部13、ヘッドマウントディスプレイ(HMD)14を備えている。
《Subject device》
As shown in FIG. 1, the patient apparatus 10 includes position detection sections 11 and 12, a control section 13, and a head mounted display (HMD) 14.

位置検出部11,12は、被術者の四肢のうち予め定められた一つを健肢とし、少なくとも当該健肢の位置を検出する。位置検出部11,12は、例えば、四肢の位置を周期的に求め、その位置の経時変化を動作として検出する。本実施形態では、手指の動きを検出する位置検出部11と、健肢を含む身体の動きを検出する位置検出部12の2つを備えている。 The position detection units 11 and 12 define one predetermined limb of the subject as a healthy limb, and detect at least the position of the healthy limb. The position detection units 11 and 12, for example, periodically determine the positions of the limbs and detect changes in the positions over time as movements. This embodiment includes two position detectors: a position detector 11 that detects movements of fingers, and a position detector 12 that detects movements of the body including healthy limbs.

位置検出部11,12は、例えば、二つのカメラと赤外線照射部とを備え、赤外線照射部が赤外線パターンを検出対象者(被術者)の身体に照射し、所定の間隔(基線長)を隔てて配置した二つのカメラで身体を撮影する。位置検出部11,12は、撮影画像から身体が写っている領域を特定し、画像処理によって、検出対象者の手、手首、前腕、肘、上腕などのように、関節とそれに連なる部位(対象部位)を認識する。そして、位置検出部11,12は、各対象部位について、それらが写っている撮影画像中の位置と、各対象部位に照射されている赤外線パターンの大きさ及び傾き、これらのカメラ間の差異に基づいて、各対象部位の三次元座標上の位置及び向きを求める。 The position detection units 11 and 12 include, for example, two cameras and an infrared ray irradiation unit, and the infrared ray irradiation unit irradiates the body of the detection target (subject) with an infrared pattern, and the position detection units 11 and 12 are arranged at a predetermined interval (baseline length). The body is photographed using two cameras placed apart. The position detection units 11 and 12 identify the area in which the body is captured from the photographed image, and perform image processing to identify joints and parts connected to them (target body parts). Then, the position detection units 11 and 12 determine the position of each target part in the photographed image, the size and inclination of the infrared pattern irradiated to each target part, and the difference between these cameras. Based on this, the position and orientation of each target region on the three-dimensional coordinates are determined.

位置検出部11,12は、上記のように二つのカメラで撮影した画像の差異に基づいて三次元座標上の位置を検出する構成に限定されるものではない。例えば、位置検出部11,12は、カメラと、ToFセンサとを備え、カメラで検出対象者の身体を撮影すると共に、ToFセンサによって撮影画像中の物体までの距離を求める。位置検出部11,12は、前述と同様に撮影画像から身体が写っている領域を特定し、画像処理によって、検出対象者の対象部位を認識する。そして、位置検出部11,12は、各対象部位について、それらが写っている撮影画像中の位置と、各対象部位との距離に基づいて、各対象部位の
三次元座標上の位置を求める。また、ToFセンサは、各対象部位との距離を画素毎に検出できるので、位置検出部11,12は、各対象部位を点群として認識し、この点群が成す形状から、各部位の向き等を検出する。
The position detecting units 11 and 12 are not limited to the configuration in which the position on three-dimensional coordinates is detected based on the difference between images taken by two cameras as described above. For example, the position detection units 11 and 12 include a camera and a ToF sensor, and use the camera to photograph the body of the detection target, and use the ToF sensor to determine the distance to the object in the photographed image. The position detection units 11 and 12 identify the area where the body is shown from the photographed image in the same manner as described above, and recognize the target body part of the person to be detected through image processing. Then, the position detection units 11 and 12 determine the three-dimensional coordinate position of each target part based on the position in the photographed image where the target part appears and the distance to each target part. Furthermore, since the ToF sensor can detect the distance to each target part pixel by pixel, the position detection units 11 and 12 recognize each target part as a point group, and from the shape formed by this point group, the orientation of each part is determined. Detect etc.

本実施形態では、位置検出部11が、健肢の位置を詳細に検出し、位置検出部12が健肢と健肢周囲の身体の位置を検出する。例えば、健肢として上肢を設定した場合、位置検出部11は、手、手首、前腕、そして手の各指、各指の第一~第三関節等を各対象部位とし、それらの位置を検出する。なお、健肢として下肢を設定した場合、手のような細かい動きを検出する必要がなければ、位置検出部12のみを用いてもよい。 In this embodiment, the position detection unit 11 detects the position of the healthy limb in detail, and the position detection unit 12 detects the position of the healthy limb and the body around the healthy limb. For example, when the upper limb is set as a healthy limb, the position detection unit 11 detects the positions of the hand, wrist, forearm, each finger of the hand, and the first to third joints of each finger as target parts. do. Note that when a lower limb is set as a healthy limb, only the position detection unit 12 may be used if there is no need to detect fine movements such as a hand.

HMD14は、前記被術者の頭部に装着され、前記仮想空間の映像をディスプレイ画面上に表示させる。図2は、HMD14の構成を示す図である。 The HMD 14 is attached to the patient's head and displays an image of the virtual space on a display screen. FIG. 2 is a diagram showing the configuration of the HMD 14.

HMD14は、表示部141や、イヤフォン142、マイク143、検出部144、レンズ145、制御部146を備えている。レンズ145は、表示部141の表示面から射出する光束を装着者の眼149へ導光し、網膜上に結像させる接眼レンズ系である。これにより装着者が、当該映像を拡大された虚像として観察できるようにしている。 The HMD 14 includes a display section 141, earphones 142, a microphone 143, a detection section 144, a lens 145, and a control section 146. The lens 145 is an eyepiece system that guides the light flux emitted from the display surface of the display unit 141 to the wearer's eye 149 and forms an image on the retina. This allows the wearer to observe the image as an enlarged virtual image.

検出部144は、例えば角速度センサや地磁気センサであり、HMD14の向き、即ちHMD14を装着した装着者の頭部の向き、即ち、視線の向きを検出する。制御部146は、映像生成部313で生成した映像を表示部141に表示させる。 The detection unit 144 is, for example, an angular velocity sensor or a geomagnetic sensor, and detects the direction of the HMD 14, that is, the direction of the head of the wearer wearing the HMD 14, that is, the direction of the line of sight. The control unit 146 causes the display unit 141 to display the video generated by the video generation unit 313.

図3は、制御部13の構成を示す図である。制御部13は、例えば、接続バス131によって相互に接続されたプロセッサ132、メモリ133、入出力IF(インターフェース)134、通信IF135を有する。プロセッサ132は、入力された情報を処理し、処理結果を出力することにより、装置全体の制御等を行う。プロセッサ132は、CPU(Central Processing Unit)や、MPU(Micro-processing unit)、コントローラとも呼ばれる。プロセッサ132は、単一のプロセッサに限られず、マルチプロセッサ構成であってもよい。また、単一のソケットで接続される単一のチップ内に複数のコアを有したマルチコア構成であってもよい。 FIG. 3 is a diagram showing the configuration of the control section 13. The control unit 13 includes, for example, a processor 132, a memory 133, an input/output IF (interface) 134, and a communication IF 135, which are interconnected by a connection bus 131. The processor 132 controls the entire device by processing input information and outputting processing results. The processor 132 is also called a CPU (Central Processing Unit), an MPU (Micro-processing unit), or a controller. The processor 132 is not limited to a single processor, but may have a multiprocessor configuration. Alternatively, a multi-core configuration may be used in which a single chip has a plurality of cores connected by a single socket.

メモリ133は、主記憶装置と補助記憶装置とを含む。主記憶装置は、プロセッサ132の作業領域、プロセッサ132で処理される情報を一時的に記憶する記憶領域、通信データのバッファ領域として使用される。主記憶装置は、プロセッサ132がプログラムやデータをキャッシュしたり、作業領域を展開したりするための記憶媒体である。主記憶装置は、例えば、RAM(Random Access Memory)やROM(Read Only Memory)、フラッシュメモリを含む。補助記憶装置は、プロセッサ132により実行されるプログラムや、情報処理に用いられるデータ、動作の設定情報などを記憶する記憶媒体である。補助記憶装置は、例えば、HDD(Hard-disk Drive)やSSD(Solid State Drive)、EPROM(Erasable Programmable ROM)、フラッシュメモリ、USBメモリ、メモリカード等
である。
Memory 133 includes a main storage device and an auxiliary storage device. The main storage device is used as a work area for the processor 132, a storage area for temporarily storing information processed by the processor 132, and a buffer area for communication data. The main storage device is a storage medium used by the processor 132 to cache programs and data, and to develop a work area. The main storage device includes, for example, RAM (Random Access Memory), ROM (Read Only Memory), and flash memory. The auxiliary storage device is a storage medium that stores programs executed by the processor 132, data used for information processing, operation setting information, and the like. Examples of the auxiliary storage device include a HDD (Hard-disk Drive), an SSD (Solid State Drive), an EPROM (Erasable Programmable ROM), a flash memory, a USB memory, and a memory card.

入出力IF134は、制御部13に接続する機器との間でデータの入出力を行うインターフェースである。入出力IF134は、例えば、マウスやキーボード等の操作部、カメラ、スキャナ、スピーカ、表示装置等の機器との間でデータの入出力を行う。また、入出力IF134は、CDやDVD等の記憶媒体からデータを読み取るディスクドライブ、カードリーダライタ、アンプ、ディスプレイ、スピーカ等の機器との間でデータの入出力を行う。操作部は、入力ボタンやダイヤル、タッチパネル等、ユーザの操作によって制御部13に対する情報が入力される入力部である。スピーカや表示部は、ユーザに対して情報を出力する出力部である。 The input/output IF 134 is an interface that inputs and outputs data with a device connected to the control unit 13. The input/output IF 134 inputs and outputs data to and from devices such as operation units such as a mouse and keyboard, cameras, scanners, speakers, and display devices. In addition, the input/output IF 134 inputs and outputs data to and from devices such as a disk drive that reads data from storage media such as CDs and DVDs, card readers/writers, amplifiers, displays, and speakers. The operation unit is an input unit, such as an input button, a dial, or a touch panel, through which information to the control unit 13 is input by a user's operation. The speaker and display unit are output units that output information to the user.

通信IF135は、通信回線を介して他の装置との通信を行うインターフェース(通信モジュール)であり、CCU(Communication Control Unit)とも称す。通信IF135は、例えば、WiMAX(Worldwide Interoperability for Microwave Access)やLT
E(Long Term Evolution)、WiFi、ブルートゥース(登録商標)等の無線通信方式
で通信を行う。なお、図3に示した制御部13の構成要素はそれぞれ複数設けられてもよいし、一部の構成要素を設けないようにしてもよい。
The communication IF 135 is an interface (communication module) that communicates with other devices via a communication line, and is also referred to as a CCU (Communication Control Unit). The communication IF 135 is, for example, WiMAX (Worldwide Interoperability for Microwave Access) or LT.
Communication is performed using wireless communication methods such as E (Long Term Evolution), WiFi, and Bluetooth (registered trademark). Note that a plurality of the components of the control unit 13 shown in FIG. 3 may be provided, or some components may not be provided.

制御部13では、プロセッサ132が、アプリケーションプログラムを実行することにより、三次元モデル生成部312、映像生成部313、状況情報送信部331、指示受信部332、指示出力部333といった各処理部として機能する。プロセッサ132は、一つのプロセッサ132又は一つのコアが、複数の処理部として兼用され得る。例えば、プロセッサ132は、マルチスレッド或いはマルチタスクといった技術で複数の処理部として機能する。また、上記複数の処理部の一部又は全部が、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)等の専用LSI(large scale integration)、論理回路、その
他のデジタル回路といったハードウェアで形成されたものであってもよい。また、上記各処理部の少なくとも一部にアナログ回路を含む構成としてもよい。
In the control unit 13, the processor 132 functions as each processing unit such as a three-dimensional model generation unit 312, a video generation unit 313, a situation information transmission unit 331, an instruction reception unit 332, and an instruction output unit 333 by executing an application program. do. In the processor 132, one processor 132 or one core may be used as multiple processing units. For example, the processor 132 functions as a plurality of processing units using techniques such as multithreading or multitasking. In addition, some or all of the plurality of processing units may include a dedicated LSI (large scale integration) such as a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), a logic circuit, It may also be formed from hardware such as other digital circuits. Further, at least a portion of each of the processing units may include an analog circuit.

三次元モデル生成部312は、前記位置検出部で検出した身体の位置に基づいて健肢を含む身体の三次元モデルを生成する。検出対象者が存在する現実の空間と対応する仮想空間を設定し、三次元モデル生成部312は、現実の空間において検出対象者が存在する位置と対応する仮想空間上の位置に作成した三次元モデルを配置するように、三次元モデルの位置を設定する。また、三次元モデル生成部312は、前記健肢と対になる幻肢の三次元モデルを生成する。本実施形態では、健肢の三次元モデルに対して左右対称のモデルを生成し、幻肢が有るべき位置に配置する。 The three-dimensional model generating section 312 generates a three-dimensional model of the body including healthy limbs based on the position of the body detected by the position detecting section. A virtual space corresponding to the real space where the detection target person exists is set, and the three-dimensional model generation unit 312 generates a three-dimensional model created at a position in the virtual space that corresponds to the position where the detection target person exists in the real space. Set the position of the 3D model to place the model. Furthermore, the three-dimensional model generation unit 312 generates a three-dimensional model of a phantom limb that is paired with the healthy limb. In this embodiment, a symmetrical model is generated with respect to the three-dimensional model of a healthy limb, and the phantom limb is placed in the desired position.

映像生成部313は、前記健肢及び前記幻肢の三次元モデルを含む前記仮想空間の映像を生成する。ここで、検出対象者が健肢を動かした場合、三次元モデル生成部が作成する三次元モデルも仮想空間内で同じように動くため、映像生成部313は、この仮想空間内で動く三次元モデルの映像を生成する。また、本実施形態の映像生成部313は、検出対象者の左目の位置から仮想空間内を見た場合の映像(左目用映像)と、検出対象者の右目の位置から仮想空間内を見た場合の映像(右目用映像)とを生成する。即ち、左目用映像と右目用映像とは、同じ空間を見た場合の映像であって、左右の目の間隔(目幅)だけ見る位置に差(視差)を有した映像である。また、映像生成部313は、HMD14を装着している検出対象者の頭部の向きに応じて、仮想空間内を見る方向を定めて映像を生成しても良い。 The image generation unit 313 generates an image of the virtual space including three-dimensional models of the healthy limb and the phantom limb. Here, when the detection target moves a healthy limb, the 3D model created by the 3D model generation unit also moves in the same way in the virtual space. Generate a video of the model. In addition, the video generation unit 313 of this embodiment generates an image (left-eye video) when looking into the virtual space from the position of the left eye of the detection target, and an image when looking inside the virtual space from the position of the right eye of the detection target. The image for the right eye (image for the right eye) is generated. That is, the left-eye image and the right-eye image are images when viewing the same space, but have a difference (parallax) in viewing position by the distance between the left and right eyes (eye width). Further, the video generation unit 313 may generate the video by determining the direction in which the virtual space is viewed, depending on the orientation of the head of the detection target wearing the HMD 14.

状況情報送信部331は、少なくとも前記健肢の位置を含む前記被術者の状態を示す被術者状況情報を前記施術者装置へ送信する。被術者状況情報は、例えば、三次元モデル生成部312が生成した三次元モデルを示す情報、又は映像生成部313が生成した映像情報である。また、状況情報送信部331は、マイク143で取得した被術者の音声情報を状況情報に含めて送信してもよい。 The situation information transmitting unit 331 transmits patient situation information indicating the condition of the patient including at least the position of the healthy limb to the practitioner device. The subject situation information is, for example, information indicating a three-dimensional model generated by the three-dimensional model generation section 312 or video information generated by the image generation section 313. Further, the situation information transmitting unit 331 may include the patient's voice information acquired by the microphone 143 in the situation information and transmit it.

指示受信部332は、施術者装置20から施術者の指示を示す指示情報を受信する。指示情報は、例えば、施術者装置20が生成した施術者の三次元モデルを示す情報、映像情報、及び音声情報の少なくとも1つである。 The instruction receiving unit 332 receives instruction information indicating instructions from the practitioner from the practitioner's device 20. The instruction information is, for example, at least one of information indicating a three-dimensional model of the practitioner generated by the practitioner device 20, video information, and audio information.

指示出力部は、指示情報に基づいて仮想空間の映像及び音声のうち少なくとも一方として被術者に対して出力させる。例えば、指示情報が、施術者の三次元モデルを示す情報で
あった場合、この情報を映像生成部313へ送り、仮想空間内に被術者の三次元モデルと施術者の三次元モデルとを配置した状態で映像情報と生成させる。また、指示情報が、施術者の映像情報であった場合、この情報を映像生成部313へ送り、被術者の映像情報に施術者の映像情報を合成させる。指示情報が、施術者の音声情報であった場合、この情報をイヤフォン142から音声として出力させる。
The instruction output unit outputs at least one of video and audio in the virtual space to the patient based on the instruction information. For example, if the instruction information is information indicating a three-dimensional model of the practitioner, this information is sent to the image generation unit 313, and the three-dimensional model of the patient and the three-dimensional model of the practitioner are created in the virtual space. Generate video information in the arranged state. Further, when the instruction information is video information of the practitioner, this information is sent to the video generation unit 313, and the video information of the practitioner is combined with the video information of the patient. If the instruction information is the practitioner's voice information, this information is output as voice from the earphones 142.

《施術者装置》
図1に示すように、施術者装置20は、位置検出部21,22、制御部23、HMD24を備えている。施術者装置20において、位置検出部21,22、HMD24は、前述の被術者装置10における位置検出部21,22、HMD14と同じ構成のため、再度の説明を省略する。
《Practitioner device》
As shown in FIG. 1, the practitioner device 20 includes position detection units 21 and 22, a control unit 23, and an HMD 24. In the practitioner's device 20, the position detecting sections 21, 22 and HMD 24 have the same configuration as the position detecting sections 21, 22 and HMD 14 in the patient's device 10 described above, so a repeated explanation will be omitted.

図4は、制御部23の構成を示す図である。制御部23は、例えば、接続バス231によって相互に接続されたプロセッサ232、メモリ233、入出力IF(インターフェース)234、通信IF235を有する。施術者装置20における制御部23は、前述の被術者装置10の制御部13と比べて、プロセッサ232が実現する機能が異なっている。この他、制御部23における接続バス231、プロセッサ232、メモリ233、入出力IF234、通信IF235のハードウェア構成は、被術者装置10における制御部13の接続バス131、プロセッサ132、メモリ133、入出力IF134、通信IF135と同じ構成のため、再度の説明を省略する。 FIG. 4 is a diagram showing the configuration of the control section 23. As shown in FIG. The control unit 23 includes, for example, a processor 232, a memory 233, an input/output IF (interface) 234, and a communication IF 235, which are interconnected by a connection bus 231. The control unit 23 in the practitioner device 20 has a different function realized by the processor 232 than the control unit 13 in the patient device 10 described above. In addition, the hardware configuration of the connection bus 231, processor 232, memory 233, input/output IF 234, and communication IF 235 in the control unit 23 is as follows: Since the configuration is the same as that of the output IF 134 and the communication IF 135, repeated explanation will be omitted.

制御部23では、プロセッサ232が、アプリケーションプログラムを実行することにより、三次元モデル生成部412、状況情報受信部431、状況情報出力部432、指示情報送信部433といった各処理部として機能する。 In the control unit 23, the processor 232 functions as each processing unit such as a three-dimensional model generation unit 412, a situation information reception unit 431, a situation information output unit 432, and an instruction information transmission unit 433 by executing an application program.

三次元モデル生成部412は、位置検出部21,22で検出した身体の位置に基づいて健肢を含む身体の三次元モデルを生成する。検出対象者が存在する現実の空間と対応する仮想空間を設定し、三次元モデル生成部412は、現実の空間において検出対象者が存在する位置と対応する仮想空間上の位置に作成した三次元モデルを配置するように、三次元モデルの位置を設定する。また、三次元モデル生成部412は、前記健肢と対になる幻肢の三次元モデルを生成する。本実施形態では、健肢の三次元モデルに対して左右対称のモデルを生成し、幻肢が有るべき位置に配置する。 The three-dimensional model generation unit 412 generates a three-dimensional model of the body including healthy limbs based on the body positions detected by the position detection units 21 and 22. A virtual space corresponding to the real space where the detection target person exists is set, and the three-dimensional model generation unit 412 generates a three-dimensional model created at a position in the virtual space that corresponds to the position where the detection target person exists in the real space. Set the position of the 3D model to place the model. Furthermore, the three-dimensional model generation unit 412 generates a three-dimensional model of a phantom limb that is paired with the healthy limb. In this embodiment, a symmetrical model is generated with respect to the three-dimensional model of a healthy limb, and the phantom limb is placed in the desired position.

映像生成部413は、前記健肢及び前記幻肢の三次元モデルを含む前記仮想空間の映像を生成する。ここで、検出対象者が健肢を動かした場合、三次元モデル生成部が作成する三次元モデルも仮想空間内で同じように動くため、映像生成部413は、この仮想空間内で動く三次元モデルの映像を生成する。また、本実施形態の映像生成部413は、検出対象者の左目の位置から仮想空間内を見た場合の映像(左目用映像)と、検出対象者の右目の位置から仮想空間内を見た場合の映像(右目用映像)とを生成する。即ち、左目用映像と右目用映像とは、同じ空間を見た場合の映像であって、左右の目の間隔(目幅)だけ見る位置に差(視差)を有した映像である。また、映像生成部413は、HMD24を装着している検出対象者の頭部の向きに応じて、仮想空間内を見る方向を定めて映像を生成しても良い。 The image generation unit 413 generates an image of the virtual space including three-dimensional models of the healthy limb and the phantom limb. Here, when the detection target moves a healthy limb, the 3D model created by the 3D model generation unit also moves in the same way in the virtual space. Generate a video of the model. In addition, the video generation unit 413 of this embodiment generates an image (left-eye video) when looking into the virtual space from the position of the left eye of the detection target, and an image when looking inside the virtual space from the position of the right eye of the detection target. The image for the right eye (image for the right eye) is generated. That is, the left-eye image and the right-eye image are images when viewing the same space, but have a difference (parallax) in viewing position by the distance between the left and right eyes (eye width). Further, the video generation unit 413 may generate the video by determining the direction in which the virtual space is viewed, depending on the direction of the head of the detection target wearing the HMD 24.

状況情報受信部431は、被術者装置10から被術者状況情報を受信する。状況情報出力部432は、被術者状況情報に基づいて被術者の状況をディスプレイに表示出力させる。本実施形態において、状況情報出力部432は表示制御部の一形態である。また、状況情報出力部432は、被術者装置10から受信した音声情報をHMD24のイヤフォンから音声として出力させる。 The situation information receiving unit 431 receives patient situation information from the patient device 10. The situation information output unit 432 causes the patient's situation to be displayed on the display based on the patient's situation information. In this embodiment, the situation information output section 432 is one form of a display control section. Further, the situation information output unit 432 causes the audio information received from the patient's device 10 to be output as audio from the earphone of the HMD 24 .

指示情報送信部433は、例えば、三次元モデル生成部412で生成した施術者の三次元モデルや映像生成部413で生成した映像情報を指示情報として被術者装置10へ送信する。また、指示情報送信部433は、HMD24のマイクで取得した施術者の音声情報を指示情報として被術者装置10へ送信する。また、指示情報送信部433は、施術者の三次元モデルを配置させる仮想空間内の位置を指定する位置指定情報を含んでもよい。 The instruction information transmission section 433 transmits, for example, the three-dimensional model of the practitioner generated by the three-dimensional model generation section 412 and the video information generated by the video generation section 413 to the patient's device 10 as instruction information. Further, the instruction information transmitting unit 433 transmits the practitioner's voice information acquired by the microphone of the HMD 24 to the patient device 10 as instruction information. Further, the instruction information transmitter 433 may include position designation information that designates a position in the virtual space where the three-dimensional model of the practitioner is to be placed.

《幻肢痛ケア方法》
図5は、被術者装置10が、プログラムに基づいて実行する幻肢痛ケアの処理手順を示す図である。被術者装置10は、起動時や処理開始の指示を受けた時に図5の処理を開始し、処理の停止が指示されるまで、繰り返し実行する。
《Phantom limb pain care method》
FIG. 5 is a diagram showing a processing procedure for phantom limb pain care that is executed by the patient's device 10 based on a program. The patient's device 10 starts the process shown in FIG. 5 when it is activated or receives an instruction to start the process, and repeatedly executes the process until it is instructed to stop the process.

ステップS10にて、被術者装置10は、被術者の健肢を含む身体の位置を検出する。 In step S10, the patient's device 10 detects the position of the patient's body, including the healthy limbs.

ステップS20にて、被術者装置10は、施術者装置20から、指示情報を受信する。 In step S20, the patient's device 10 receives instruction information from the practitioner's device 20.

ステップS30にて、被術者装置10は、ステップS10で検出した位置に基づいて、被術者の三次元モデルを生成する。 In step S30, the patient device 10 generates a three-dimensional model of the patient based on the position detected in step S10.

ステップS40にて、被術者装置10は、ステップS20で指示情報として受信した施術者の三次元モデルと、ステップS30で生成した被術者の三次元モデルとを仮想空間内に配置し、この仮想空間において被術者の左目及び右目の位置から当該仮想空間内を見た場合の映像情報を生成する。なお、ステップS20で指示情報として音声情報を受信している場合には、この音声情報を映像情報に付加する。 In step S40, the patient device 10 arranges the three-dimensional model of the practitioner received as the instruction information in step S20 and the three-dimensional model of the patient generated in step S30 in the virtual space. Image information is generated when the virtual space is viewed from the positions of the subject's left and right eyes in the virtual space. Note that if audio information is received as the instruction information in step S20, this audio information is added to the video information.

ステップS50にて、被術者装置10は、映像情報に基づいてHMD14の表示部に仮想空間の映像を表示させると共に、イヤフォン142から施術者による指示の音声を出力させる。 In step S50, the patient's device 10 causes the display unit of the HMD 14 to display an image of the virtual space based on the image information, and causes the earphones 142 to output audio instructions from the practitioner.

図6は、施術者装置20が、プログラムに基づいて実行する幻肢痛ケアの処理手順を示す図である。施術者装置20は、起動時や処理開始の指示を受けた時に図6の処理を開始し、処理の停止が指示されるまで、繰り返し実行する。 FIG. 6 is a diagram showing the processing procedure of phantom limb pain care that the practitioner device 20 executes based on the program. The practitioner device 20 starts the process shown in FIG. 6 when activated or receives an instruction to start the process, and repeatedly executes the process until it is instructed to stop the process.

ステップS110にて、施術者装置20は、施術者の健肢を含む身体の位置を検出する。 In step S110, the practitioner's device 20 detects the position of the practitioner's body, including the healthy limbs.

ステップS120にて、施術者装置20は、被術者装置10から、被術者状況情報を受信する。 In step S120, the practitioner device 20 receives patient status information from the patient device 10.

ステップS130にて、施術者装置20は、ステップS110で検出した位置に基づいて、施術者の三次元モデルを生成する。 In step S130, the practitioner device 20 generates a three-dimensional model of the practitioner based on the position detected in step S110.

ステップS140にて、施術者装置20は、ステップS120で被術者状況情報として受信した被術者の三次元モデルと、ステップS130で生成した施術者の三次元モデルとを仮想空間内に配置し、この仮想空間において施術者の左目及び右目の位置から当該仮想空間内を見た場合の左目用映像情報及び右目用映像情報を生成する。なお、ステップS120で被術者状況情報として音声情報を受信している場合には、この音声情報を映像情報に付加する。 In step S140, the practitioner device 20 places the three-dimensional model of the patient received as the patient situation information in step S120 and the three-dimensional model of the practitioner generated in step S130 in the virtual space. , generates left-eye image information and right-eye image information when looking into the virtual space from the positions of the practitioner's left and right eyes in this virtual space. Note that if audio information is received as the subject situation information in step S120, this audio information is added to the video information.

ステップS150にて、施術者装置20は、映像情報に基づいてHMD24の表示部141に仮想空間の映像を表示させると共に、HMD24のイヤフォンから被術者の音声を
出力させる。
In step S150, the practitioner device 20 causes the display unit 141 of the HMD 24 to display an image of the virtual space based on the image information, and outputs the patient's voice from the earphones of the HMD 24.

《具体例》
図7は、被術者の健肢として左側の上肢を指定した場合に、現実空間において被術者から見える健肢5の例を示している。
"Concrete example"
FIG. 7 shows an example of the healthy limb 5 seen by the patient in real space when the left upper limb is designated as the patient's healthy limb.

図8は、健肢5の三次元モデル5Mを生成し、仮想空間内に配置した場合の映像情報の例を示す図である。なお、図8では、説明のため健肢5の三次元モデル5M以外の要素を省略して示している。図8に示すように、HMD14に表示される三次元モデル5Mは、現実の健肢5(図7)と重なる位置に表示される。 FIG. 8 is a diagram showing an example of video information when a three-dimensional model 5M of a healthy limb 5 is generated and placed in a virtual space. In addition, in FIG. 8, elements other than the three-dimensional model 5M of the healthy limb 5 are omitted for explanation. As shown in FIG. 8, the three-dimensional model 5M displayed on the HMD 14 is displayed in a position overlapping the actual healthy limb 5 (FIG. 7).

また、被術者装置10は、健肢5の三次元モデル5Mと左右対称に幻肢の三次元モデル5Lを生成し、図9に示すように三次元モデル5Mと左右対称の位置に三次元モデル5Lを配置して表示させる。これらモデル5M,5Lの映像は、例えば30フレーム/秒など、所定の周期でリアルタイムに生成されるので、被術者は動かした健肢5と一致してモデル5M,5Lが動くので、自身の上肢のように視認できる。この場合、視界内に幻肢の三次元モデル5Lが表示されるので、被術者は、あたかも幻肢が存在するように感じることができる。 The patient device 10 also generates a three-dimensional model 5L of the phantom limb symmetrically with the three-dimensional model 5M of the healthy limb 5, and as shown in FIG. Place and display model 5L. The images of these models 5M and 5L are generated in real time at a predetermined cycle, such as 30 frames/second, so the subject can move the models 5M and 5L in accordance with the healthy limb 5 that he or she is moving, so that the patient can see his or her own images. It can be seen as an upper limb. In this case, since the three-dimensional model 5L of the phantom limb is displayed within the field of view, the subject can feel as if the phantom limb exists.

また、被術者装置10は、図10に示すように、被術者の三次元モデル5M,5Lと同じ仮想空間内に施術者の三次元モデル50を表示させる。これにより施術者が操作の見本を映像で示すことができ、「このように腕をひねってください」「手をこっちに向けて下さい」などのように、簡潔に指示を伝えることができる。なお、本実施形態では、図10に示すように被術者の視界に施術者の三次元モデルも表示させる構成としたが、必ずしもこの構成に限定されるものではなく、施術者の三次元モデルを表示せずに音声のみで指示をする構成としてもよい。この場合、施術者装置20の位置検出部21,22や三次元モデル生成部412、映像生成部413は省略してもよい。 Furthermore, as shown in FIG. 10, the patient device 10 displays a three-dimensional model 50 of the practitioner in the same virtual space as the three-dimensional models 5M and 5L of the patient. This allows the practitioner to show a video sample of the operation and give concise instructions such as ``Twist your arm like this'' or ``Please point your hand this way.'' In this embodiment, as shown in FIG. 10, the three-dimensional model of the practitioner is also displayed in the subject's field of view, but the configuration is not necessarily limited to this, and the three-dimensional model of the practitioner is also displayed. The configuration may be such that instructions are given only by voice without being displayed. In this case, the position detection units 21 and 22, the three-dimensional model generation unit 412, and the image generation unit 413 of the practitioner device 20 may be omitted.

なお、仮想空間において、施術者の三次元モデル50を配置する位置と、被術者の位置との位置関係は、施術者が任意に選択してもよい。例えば、施術者が施術者装置20に、この位置関係を指定する情報(配置情報)を入力すると、施術者装置20は、この配置情報を指示情報に付加して被術者装置10へ送信する。被術者装置10は、受信した配置情報に基づいて三次元モデル50を配置する。 In addition, in the virtual space, the positional relationship between the position where the three-dimensional model 50 of the practitioner is placed and the position of the patient may be arbitrarily selected by the practitioner. For example, when a practitioner inputs information specifying this positional relationship (layout information) into the practitioner device 20, the practitioner device 20 adds this placement information to instruction information and transmits it to the patient device 10. . The patient device 10 arranges the three-dimensional model 50 based on the received arrangement information.

図11は、図10における被術者の三次元モデル51と施術者の三次元モデル50との位置関係を示す平面図である。図11に示すように、図10は、被術者の三次元モデル51と施術者の三次元モデル50との距離LAを比較的大きくとる配置(遠位モード)としている。図12では、図13に示すように被術者の三次元モデル51と施術者の三次元モデル50との距離LBを図10と比べて小さくした配置(近位モード)としている。更に、図13では、図14に示すように被術者の三次元モデル51と施術者の三次元モデル50とが略重なる位置に配置され、被術者及び施術者の三次元モデル50,51を同じ方向に向けた配置(重畳モード)としている。このように遠位モードでは施術者の全体を見ることができ、近位モードでは施術者の四肢を近くで詳細に見ることができ、重畳モードでは施術者の四肢と被術者の四肢を並べて見ることができるようにしている。なお、図10、図12では、被術者から見た映像の例を示したが、このとき施術者装置20は、図10、図12とは逆に、被術者の三次元モデルが対向する位置に表示される。 FIG. 11 is a plan view showing the positional relationship between the three-dimensional model 51 of the patient and the three-dimensional model 50 of the practitioner in FIG. 10. As shown in FIG. 11, FIG. 10 is an arrangement in which the distance LA between the three-dimensional model 51 of the subject and the three-dimensional model 50 of the practitioner is relatively large (distal mode). In FIG. 12, as shown in FIG. 13, the distance LB between the three-dimensional model 51 of the patient and the three-dimensional model 50 of the practitioner is set smaller than in FIG. 10 (proximal mode). Furthermore, in FIG. 13, as shown in FIG. 14, the three-dimensional model 51 of the patient and the three-dimensional model 50 of the practitioner are placed in a position where they substantially overlap, and the three-dimensional models 50, 51 of the patient and practitioner are arranged in the same direction (superimposed mode). In this way, the distal mode allows you to see the entire practitioner, the proximal mode allows you to see the practitioner's limbs in close detail, and the superimposed mode allows you to see the practitioner's limbs side by side with the patient's limbs. I'm making it so you can see it. Note that FIGS. 10 and 12 show examples of images seen from the patient, but at this time, the practitioner device 20 is configured such that the three-dimensional model of the patient is facing displayed in the position you want.

また、一つの施術者装置20が、複数の被術者装置10と接続し、この複数の被術者装置10へ指示情報を同時に送信する構成としてもよい。この場合、一つの施術者装置20が、複数の被術者装置10から被術者状況情報を受信し、複数の被術者の状況を表示させ
る。図15は、一つの仮想空間に複数の被術者の三次元モデル51を表示させた例を示している。
Alternatively, one practitioner device 20 may be connected to a plurality of patient devices 10 and transmit instruction information to the plurality of patient devices 10 simultaneously. In this case, one practitioner device 20 receives patient situation information from a plurality of patient devices 10 and displays the conditions of the plurality of patients. FIG. 15 shows an example in which three-dimensional models 51 of a plurality of subjects are displayed in one virtual space.

このように本実施形態の幻肢痛ケアシステムによれば、施術者が通信回線Nを介して被術者装置10へ指示をすることができるので、遠隔地にいる人(患者)に対して施術することができる。即ち、遠隔地にいる人(患者)であっても幻肢痛のケアを受けることができる。 In this way, according to the phantom limb pain care system of the present embodiment, the practitioner can give instructions to the patient's device 10 via the communication line N, so that a person (patient) in a remote location can receive instructions. It can be operated on. That is, even a person (patient) in a remote location can receive care for phantom limb pain.

また、本実施形態の幻肢痛ケアシステムでは、同じ仮想空間内に被術者と施術者の三次元モデルを表示させることにより、施術者が動作で手本を示すことができ、分かりやすく指示を行うことができる。 In addition, in the phantom limb pain care system of this embodiment, by displaying three-dimensional models of the patient and the practitioner in the same virtual space, the practitioner can demonstrate the movement and provide easy-to-understand instructions. It can be performed.

本実施形態の幻肢痛ケアシステムでは、被術者と施術者の三次元モデルの位置関係を変えて表示させることにより、被術者から見やすい位置で動作を示すことができ、分かりやすく指示を行うことができる。 In the phantom limb pain care system of this embodiment, by changing the positional relationship of the three-dimensional models of the patient and practitioner and displaying them, movements can be shown in a position that is easy for the patient to see, and instructions can be given in an easy-to-understand manner. It can be carried out.

本実施形態の幻肢痛ケアシステムでは、一つの施術者装置20から、複数の被術者装置10へ指示情報を同時に送信することにより、一人の施術者が複数の被術者に対して同時に施術することができる。 In the phantom limb pain care system of this embodiment, by simultaneously transmitting instruction information from one practitioner device 20 to multiple patient devices 10, one practitioner can treat multiple patients at the same time. It can be operated on.

1 :幻肢痛ケアシステム
5 :健肢
5M :健肢の三次元モデル
5L :幻肢の三次元モデル
10 :被術者装置
11,12 :位置検出部
13 :制御部
14 :ヘッドマウントディスプレイ(HMD)
20 :施術者装置
21 :位置検出部
22 :位置検出部
23 :制御部
24 :HMD
N :通信回線
1: Phantom limb pain care system 5: Healthy limb 5M: 3D model of healthy limb 5L: 3D model of phantom limb 10: Subject device 11, 12: Position detection unit 13: Control unit 14: Head mounted display ( HMD)
20: Practitioner device 21: Position detection unit 22: Position detection unit 23: Control unit 24: HMD
N: Communication line

Claims (7)

被術者が存在する第一の地点において仮想空間の映像を前記被術者に提供する被術者装置と、前記第一の地点から離れた第二の地点に存在する施術者によって操作される施術者装置とを備え、
前記被術者装置が、
前記被術者の四肢のうち予め定めた一つを健肢とし、当該健肢の位置を検出する位置検出部と、
前記位置検出部で検出した前記健肢の位置に基づいて前記健肢の三次元モデルを生成すると共に、前記健肢の位置に基づいて前記健肢と対になる幻肢の三次元モデルを生成する三次元モデル生成部と、
前記健肢及び前記幻肢の三次元モデルを含む前記仮想空間の映像を生成する映像生成部と、
前記被術者の頭部に装着され、前記仮想空間の映像をディスプレイ画面上に表示させるヘッドマウントディスプレイと、
前記三次元モデルを示す被術者状況情報を前記施術者装置へ送信する状況情報送信部と、
前記施術者装置から前記施術者の指示を示す指示情報を受信する指示受信部と、
前記指示情報を前記仮想空間の映像の一部と音声とのうち少なくとも一方として前記被術者に対して出力させる指示出力部と、を備え、
前記施術者装置が、
前記被術者装置から前記被術者状況情報を受信する状況情報受信部と、
前記被術者状況情報に基づいて前記被術者の状況をディスプレイに表示させる表示制御部と、
前記指示情報を前記被術者装置へ送信する指示情報送信部と、を備える幻肢痛ケアシステム。
A patient device that provides an image of a virtual space to the patient at a first point where the patient is present, and is operated by a practitioner located at a second point away from the first point. Equipped with a practitioner device,
The subject device is
a position detection unit that detects the position of a predetermined one of the subject's limbs as a healthy limb;
Generating a three-dimensional model of the healthy limb based on the position of the healthy limb detected by the position detection unit, and generating a three-dimensional model of a phantom limb to be paired with the healthy limb based on the position of the healthy limb. a three-dimensional model generation unit,
an image generation unit that generates an image of the virtual space including a three-dimensional model of the healthy limb and the phantom limb;
a head-mounted display that is attached to the subject's head and displays an image of the virtual space on a display screen;
a situation information transmitting unit that transmits patient situation information indicating the three-dimensional model to the practitioner device;
an instruction receiving unit that receives instruction information indicating instructions of the practitioner from the practitioner device;
an instruction output unit that outputs the instruction information to the patient as at least one of a part of the video and audio of the virtual space;
The practitioner device includes:
a situation information receiving unit that receives the patient situation information from the patient device;
a display control unit that displays the condition of the patient on a display based on the patient situation information;
A phantom limb pain care system, comprising: an instruction information transmitter that transmits the instruction information to the patient's device.
前記施術者装置が、
前記施術者の四肢のうち予め定めた一つを健肢とし、当該健肢の位置を検出する位置検出部と、
前記位置検出部で検出した前記健肢の位置に基づいて前記健肢の三次元モデルを生成すると共に、前記健肢の位置に基づいて前記健肢と対になる幻肢の三次元モデルを生成する三次元モデル生成部と、を備え、
前記指示情報送信部が、前記施術者の健肢に基づく三次元モデル及び幻肢の三次元モデルを指示情報に含めて前記被術者装置へ送信し、
前記被術者装置の映像生成部が、前記三次元モデルを含む前記指示情報に基づいて、前記施術者の健肢及び幻肢の三次元モデルを前記仮想空間の映像に合成して表示させる
請求項1に記載の幻肢痛ケアシステム。
The practitioner device includes:
a position detection unit that detects the position of a predetermined one of the limbs of the practitioner as a healthy limb, and the position of the healthy limb;
Generating a three-dimensional model of the healthy limb based on the position of the healthy limb detected by the position detection unit, and generating a three-dimensional model of a phantom limb to be paired with the healthy limb based on the position of the healthy limb. a three-dimensional model generation unit,
The instruction information transmitting unit includes a three-dimensional model based on the healthy limb of the practitioner and a three-dimensional model of the phantom limb in instruction information and transmits the instruction information to the patient device,
The image generation unit of the patient device synthesizes and displays the three-dimensional models of the healthy limb and phantom limb of the practitioner with the image of the virtual space based on the instruction information including the three-dimensional model. The phantom limb pain care system according to item 1.
前記映像生成部が、前記被術者の三次元モデルと前記施術者の三次元モデルとを向かい合わせた映像を生成する、又は前記被術者の三次元モデルと前記施術者の三次元モデルとを同じ方向に向けて、前記被術者の三次元モデルの背面側に前記施術者の三次元モデルを位置させた映像を生成する請求項2に記載の幻肢痛ケアシステム。 The image generation unit generates an image in which the three-dimensional model of the subject and the three-dimensional model of the practitioner face each other, or the three-dimensional model of the subject and the three-dimensional model of the practitioner 3. The phantom limb pain care system according to claim 2, wherein the phantom limb pain care system generates an image in which the three-dimensional model of the practitioner is positioned on the back side of the three-dimensional model of the subject, with the three-dimensional models facing the same direction. 前記映像生成部が、前記被術者の三次元モデルと前記施術者の三次元モデルとを向かい合わせた映像と、同じ方向を向けた映像とを前記施術者装置からの前記指示情報に基づいて切り替える請求項3に記載の幻肢痛ケアシステム。 The image generation unit generates an image in which the three-dimensional model of the patient and the three-dimensional model of the practitioner face each other, and an image in which the three-dimensional model of the practitioner faces the same direction, based on the instruction information from the practitioner's device. The phantom limb pain care system according to claim 3, wherein the phantom limb pain care system is switched. 一つの前記施術者装置が、複数の前記被術者装置と接続し、前記指示情報を複数の前記被術者装置へ送信する請求項1から4の何れか1項に記載の幻肢痛ケアシステム。 The phantom limb pain care according to any one of claims 1 to 4, wherein one of the practitioner's devices connects to a plurality of the patient's devices and transmits the instruction information to the plurality of patient's devices. system. 被術者が存在する第一の地点において仮想空間の映像を前記被術者に提供し、前記第一の地点から離れた第二の地点に存在する施術者によって操作される施術者装置と通信するする被術者装置であって、
前記被術者の四肢のうち予め定めた一つを健肢とし、当該健肢の位置を検出する位置検出部と、
前記位置検出部で検出した前記健肢の位置に基づいて前記健肢の三次元モデルを生成すると共に、前記健肢の位置に基づいて前記健肢と対になる幻肢の三次元モデルを生成する三次元モデル生成部と、
前記健肢及び前記幻肢の三次元モデルを含む前記仮想空間の映像を生成する映像生成部と、
前記被術者の頭部に装着され、前記仮想空間の映像をディスプレイ画面上に表示させるヘッドマウントディスプレイと、
前記三次元モデルを示す被術者状況情報を前記施術者装置へ送信する状況情報送信部と、
前記施術者装置から前記施術者の指示を示す指示情報を受信する指示受信部と、
前記指示情報を前記仮想空間の映像の一部と音声とのうち少なくとも一方として前記被術者に対して出力させる指示出力部と、
を備える被術者装置。
Providing an image of a virtual space to the patient at a first point where the patient is present, and communicating with a practitioner device operated by a practitioner located at a second point away from the first point. A patient device that performs
a position detection unit that detects the position of a predetermined one of the subject's limbs as a healthy limb;
Generating a three-dimensional model of the healthy limb based on the position of the healthy limb detected by the position detection unit, and generating a three-dimensional model of a phantom limb to be paired with the healthy limb based on the position of the healthy limb. a three-dimensional model generation unit,
an image generation unit that generates an image of the virtual space including a three-dimensional model of the healthy limb and the phantom limb;
a head-mounted display that is attached to the subject's head and displays an image of the virtual space on a display screen;
a situation information transmitting unit that transmits patient situation information indicating the three-dimensional model to the practitioner device;
an instruction receiving unit that receives instruction information indicating instructions of the practitioner from the practitioner device;
an instruction output unit that outputs the instruction information to the subject as at least one of a portion of the video of the virtual space and audio;
A patient device comprising:
被術者が存在する第一の地点において仮想空間の映像を前記被術者に提供し、前記第一の地点から離れた第二の地点に存在する施術者によって操作される施術者装置と通信するする被術者装置に実行させるプログラムであって、
前記被術者の四肢のうち予め定めた一つを健肢とし、当該健肢の位置を検出するステップと、
検出した前記健肢の位置に基づいて前記健肢の三次元モデルを生成すると共に、前記健
肢の位置に基づいて前記健肢と対になる幻肢の三次元モデルを生成するステップと、
前記健肢及び前記幻肢の三次元モデルを含む前記仮想空間の映像を生成するステップと、
前記被術者の頭部に装着されたヘッドマウントディスプレイのディスプレイ画面上に前記仮想空間の映像を表示させるステップと、
前記三次元モデルを示す被術者状況情報を前記施術者装置へ送信するステップと、
前記施術者装置から前記施術者の指示を示す指示情報を受信するステップと、
前記指示情報を前記仮想空間の映像の一部と音声とのうち少なくとも一方として前記被術者に対して出力させるステップと、
を前記被術者装置に実行させるためのプログラム。
Providing an image of a virtual space to the patient at a first point where the patient is present, and communicating with a practitioner device operated by a practitioner located at a second point away from the first point. A program to be executed by a patient's device to perform the operation,
A step of determining a predetermined one of the subject's limbs as a healthy limb, and detecting the position of the healthy limb;
generating a three-dimensional model of the healthy limb based on the detected position of the healthy limb, and generating a three-dimensional model of a phantom limb paired with the healthy limb based on the position of the healthy limb;
generating an image of the virtual space including a three-dimensional model of the healthy limb and the phantom limb;
Displaying an image of the virtual space on a display screen of a head-mounted display attached to the subject's head;
transmitting patient situation information indicating the three-dimensional model to the practitioner device;
receiving instruction information indicating the practitioner's instructions from the practitioner's device;
outputting the instruction information to the patient as at least one of a portion of the video of the virtual space and audio;
A program for causing the patient's device to execute.
JP2020037989A 2020-03-05 2020-03-05 Phantom limb pain care system, patient device, and program Active JP7450183B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020037989A JP7450183B2 (en) 2020-03-05 2020-03-05 Phantom limb pain care system, patient device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020037989A JP7450183B2 (en) 2020-03-05 2020-03-05 Phantom limb pain care system, patient device, and program

Publications (2)

Publication Number Publication Date
JP2021137348A JP2021137348A (en) 2021-09-16
JP7450183B2 true JP7450183B2 (en) 2024-03-15

Family

ID=77667006

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020037989A Active JP7450183B2 (en) 2020-03-05 2020-03-05 Phantom limb pain care system, patient device, and program

Country Status (1)

Country Link
JP (1) JP7450183B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007185325A (en) 2006-01-13 2007-07-26 Nagoya Institute Of Technology Upper limb rehabilitation exercise system
JP2011019627A (en) 2009-07-14 2011-02-03 Yasuhiro Shitan Fitness machine, method and program
JP2015161699A (en) 2014-02-26 2015-09-07 セイコーエプソン株式会社 Display system, health apparatus, and display control method
JP2018051100A (en) 2016-09-30 2018-04-05 セイコーエプソン株式会社 Exercise training device, program and display method
JP2018110672A (en) 2017-01-11 2018-07-19 国立大学法人東京農工大学 Display control device and display control program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007185325A (en) 2006-01-13 2007-07-26 Nagoya Institute Of Technology Upper limb rehabilitation exercise system
JP2011019627A (en) 2009-07-14 2011-02-03 Yasuhiro Shitan Fitness machine, method and program
JP2015161699A (en) 2014-02-26 2015-09-07 セイコーエプソン株式会社 Display system, health apparatus, and display control method
JP2018051100A (en) 2016-09-30 2018-04-05 セイコーエプソン株式会社 Exercise training device, program and display method
JP2018110672A (en) 2017-01-11 2018-07-19 国立大学法人東京農工大学 Display control device and display control program

Also Published As

Publication number Publication date
JP2021137348A (en) 2021-09-16

Similar Documents

Publication Publication Date Title
US11195340B2 (en) Systems and methods for rendering immersive environments
US20230029639A1 (en) Medical device system for remote monitoring and inspection
JP6381918B2 (en) Motion information processing device
US20140172166A1 (en) Treatment device for hemiplegia
US11273344B2 (en) Multimodal sensory feedback system and method for treatment and assessment of disequilibrium, balance and motion disorders
JP6181373B2 (en) Medical information processing apparatus and program
WO2014112635A1 (en) Movement-information processing device
JP4025230B2 (en) Pain treatment support device and method for displaying phantom limb images in a virtual space
KR102582154B1 (en) User terminal for providing augmented reality medical image using depth camera and method for providing augmented reality medical image
US20220071484A1 (en) Virtual reality-based portable nystagmography device and diagnostic test method using same
TWI636768B (en) Surgical assist system
JP2022529730A (en) MRI scanner compatible virtual reality system
JP2017191546A (en) Medical use head-mounted display, program of medical use head-mounted display, and control method of medical use head-mounted display
JP7450183B2 (en) Phantom limb pain care system, patient device, and program
US11081015B2 (en) Training device, training method, and program
WO2016190285A1 (en) Rehabilitation system, program for rehabilitation, and rehabilitation method
KR101730699B1 (en) Using virtual reality therapy apparatus for pain treatment of physical asymmetry
KR101917781B1 (en) Method for curing BPPV using HMD
US20160030764A1 (en) Non-tactile sensory substitution device
KR102446922B1 (en) Apparatus for rehabilitation treatment using virtual transplant based on vr/ar for overcoming phantom pain
JP2018191964A (en) Neuropathy-related pain treatment support system and pain treatment support method
JP7262763B2 (en) Rehabilitation support device and program
JP2017189591A (en) Medical VR preparation tool
KR101813474B1 (en) Psychotherapy method using virtual reality and apparatus performing the same
KR20170024994A (en) Dental x-ray imaging apparatus and system having wearable devices

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20211224

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20211227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20211224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20211227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240222

R150 Certificate of patent or registration of utility model

Ref document number: 7450183

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150