JP2014188095A - Remote diagnosis system - Google Patents
Remote diagnosis system Download PDFInfo
- Publication number
- JP2014188095A JP2014188095A JP2013064994A JP2013064994A JP2014188095A JP 2014188095 A JP2014188095 A JP 2014188095A JP 2013064994 A JP2013064994 A JP 2013064994A JP 2013064994 A JP2013064994 A JP 2013064994A JP 2014188095 A JP2014188095 A JP 2014188095A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- patient
- side system
- infrared
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004171 remote diagnosis Methods 0.000 title claims abstract description 10
- 238000003384 imaging method Methods 0.000 claims abstract description 22
- 230000005855 radiation Effects 0.000 claims description 9
- 238000003331 infrared imaging Methods 0.000 claims description 6
- 238000003745 diagnosis Methods 0.000 description 11
- 239000011159 matrix material Substances 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 238000000034 method Methods 0.000 description 5
- 208000027418 Wounds and injury Diseases 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 210000001015 abdomen Anatomy 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 206010011985 Decubitus ulcer Diseases 0.000 description 1
- 208000004210 Pressure Ulcer Diseases 0.000 description 1
- 230000003187 abdominal effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Landscapes
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Closed-Circuit Television Systems (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
Description
本発明は,遠隔診断システムに関し,特に地理的に離れた患者側と診断医側とをネットワークを介して繋ぎ,診断医側で,患者の患部の画像の観察により診断,及び介護支援を可能とするシステムに関する。 The present invention relates to a remote diagnosis system, and in particular, enables a diagnosis and care support to be performed by observing an image of an affected area of a patient on a diagnostician side by connecting a geographically distant patient side and a diagnostician side via a network. Related to the system.
インターネット等のネットワークの普及により高精細画像を,ネットワークを通して送受することが広く受け入れられている。パーソナルコンピュータ,デジタルカメラ,移動体機器等のネットワークに接続が容易な機器が日常生活で使用されている。 With the spread of networks such as the Internet, it is widely accepted to send and receive high-definition images through the network. Devices that can be easily connected to a network, such as personal computers, digital cameras, and mobile devices, are used in daily life.
これらの機器を医療診断に適用することで患者が病院に赴く時間の節約が図れ,特に移動の困難な患者にとって利益は計り知れない。さらに少数しかいない専門家の活動範囲を広げることが可能になると期待される。 Applying these devices to medical diagnosis can save time for patients to go to the hospital, especially for patients who have difficulty moving. It is expected that it will be possible to expand the scope of activities of specialists with only a few.
しかし,これまで医師と患者とは対面して診断をすることが原則であり,ネットワークを通して診断を行う場合は,対面の場合と同じ診断が可能になるとは限らない。その一つの理由として,対面で患者を診断するときは,医師は患者(患部)を自然に立体視しているが,ネットワークを介して送受される画像情報は原則平面画像,即ち二次元画像であり,立体視的な観察が出来ないことが挙げられる。 However, doctors and patients have been diagnosed face-to-face so far, and when making a diagnosis through a network, the same diagnosis as face-to-face is not always possible. One reason for this is that when a patient is diagnosed face-to-face, the doctor naturally views the patient (affected area) stereoscopically, but the image information sent and received via the network is basically a two-dimensional image, that is, a two-dimensional image. Yes, it is impossible to observe stereoscopically.
平面画像の立体視を可能にする技術として,ディスプレイに左右2つの視差平面画像を表示し,ディスプレイ前面に配置されるレンチキュラレンズを通して裸眼で観察する方法,液晶シャッターメガネを装着して観察する方法等がある。 As a technology that enables stereoscopic viewing of a planar image, a method of displaying two parallax planar images on the display and observing with naked eyes through a lenticular lens arranged in front of the display, a method of observing with liquid crystal shutter glasses, etc. There is.
視差平面画像をネットワークを通して遠隔地に送信することは可能であるが,診断医が上記いずれかの方法で患部画像を観察することは,画像の精細度,高価格機器の導入あるいは,データの伝送速度等の観点から実用化することは困難である。 Although it is possible to transmit a parallax plane image to a remote place through a network, the diagnostician observing the affected part image by any of the above methods is the definition of the image, introduction of high-priced equipment, or transmission of data. It is difficult to put it into practical use from the viewpoint of speed and the like.
一方,近年平面画像を撮像し,同時に平面画像の各画素単位に奥行き情報を獲得するデバイス(例えば,マイクロソフト社のKINECT[登録商標]と称されるコンピュータ周辺機器)があり,一利用法としてゲーム装置の入力手段として用いられている。 On the other hand, in recent years, there is a device (for example, a computer peripheral device called Microsoft's KINECT [registered trademark]) that captures a planar image and simultaneously acquires depth information for each pixel of the planar image. It is used as input means for the device.
本発明者は,かかる平面画像と画素対応の仮想三次元空間座標が得られる立体撮像装置は安価であり,更に全方向の完全な立体構造を生成することは出来ないが,皮膚の平面画像をその奥行き方向に立体的な表示をすることが可能であり,ストーマ患者,褥瘡等の患者の患部の状態を観察診断する特定の遠隔医療診断に有効な手段になるとの認識に至った。 The inventor of the present invention is inexpensive for a stereoscopic imaging apparatus that can obtain such a virtual image and a virtual three-dimensional spatial coordinate corresponding to a pixel, and cannot generate a complete stereoscopic structure in all directions. It is possible to display three-dimensionally in the depth direction, and has come to be recognized as an effective means for specific telemedicine diagnosis that observes and diagnoses the state of the affected area of patients such as stoma patients and pressure ulcers.
したがって,本願発明の目的は,平面画像と画素対応の仮想三次元空間座標が得られる立体撮像装置を用い,遠隔地の患者の患部画像を,ネットワークを通して診断することを可能とする遠隔診断システムを提供することにある。 Therefore, an object of the present invention is to provide a remote diagnosis system that can diagnose a diseased part image of a patient at a remote place through a network using a stereoscopic imaging device that can obtain a planar image and a virtual three-dimensional spatial coordinate corresponding to a pixel. It is to provide.
上記課題を達成する本発明に従う遠隔診断システムの第1の側面は,患者の患部を撮像して得られる平面画像データと,前記平面画像データの所定の範囲のドットパターンデータを取得する撮像装置と,前記平面画像データとドットパターンデータから三次元の座標空間上に立体画像データを生成する制御手段を有する患者側システムと,前記患者側システムから送信される立体画像データを,ネットワークを通して受信する診断医側システムを有し,前記診断医側システムで前記立体画像データをディスプレイに表示させることを特徴とする。 A first aspect of a remote diagnosis system according to the present invention that achieves the above-described object is a planar image data obtained by imaging a diseased part of a patient, and an imaging device that acquires dot pattern data in a predetermined range of the planar image data; , A patient-side system having control means for generating stereoscopic image data in a three-dimensional coordinate space from the planar image data and the dot pattern data, and a diagnosis for receiving stereoscopic image data transmitted from the patient-side system through a network A medical system is included, and the stereoscopic image data is displayed on a display by the diagnostic medical system.
本発明の第1の側面によれば,ネットワークを介した遠隔医療診断において,対面形式の医療診断に近い医師による観察が可能となり,更に診断医側システム2は,遠隔地でリアルタイムに患者の状態を診察することができる。 According to the first aspect of the present invention, in telemedicine diagnosis via a network, observation by a doctor close to a face-to-face medical diagnosis is possible, and further, the diagnostician side system 2 can detect the condition of a patient in real time at a remote place. Can be examined.
以下図面に従い,本発明の実施例を説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は,本発明に従う遠隔診断システムの一実施例概念図である。 FIG. 1 is a conceptual diagram of an embodiment of a remote diagnosis system according to the present invention.
患者1A側に置かれる患者側システム1がインターネット等のネットワーク3を通して診断医2A側に置かれる診断医側システム2と接続される。 A patient-side system 1 placed on the patient 1A side is connected to a diagnostic physician-side system 2 placed on the diagnostic physician 2A side through a network 3 such as the Internet.
患者側システム1は,立体撮像装置10と,処理装置11により構成される。一方診断医側システム2は,処理装置20を備え,処理装置20は、処理装置20の処理結果を表示するディスプレイ21と処理装置20に指令を与える入力機器22を備える。 The patient side system 1 includes a stereoscopic imaging device 10 and a processing device 11. On the other hand, the diagnostician-side system 2 includes a processing device 20, and the processing device 20 includes a display 21 that displays a processing result of the processing device 20 and an input device 22 that gives a command to the processing device 20.
患者側システム1の立体撮像装置10は,立体画像データを生成可能の装置で,例として,マイクロソフト社の入力装置であるKINECT(登録商標)を挙げることができる。かかる立体撮像装置10の概略構成を図2に示す。 The stereoscopic imaging device 10 of the patient-side system 1 is a device that can generate stereoscopic image data. As an example, KINECT (registered trademark) which is an input device of Microsoft Corporation can be cited. A schematic configuration of the stereoscopic imaging apparatus 10 is shown in FIG.
立体撮像装置10は、患者1Aの患部を含む所定範囲を撮像し,患部の平面画像データを生成するデジタルカメラ100と,赤外線ドットの放射源が所定のパターンで配列され、前記所定範囲より狭い範囲に赤外線ドットによるドットマトリクスの赤外線を投影する赤外線放射部101と,赤外線放射部101により患部に放射投影された赤外線ドットマトリクス像を撮像する赤外線撮像部102と、前記デジタルカメラ100と前記赤外線放射部101と前記赤外線撮像部102とに接続され、前記デジタルカメラ100と前記赤外線放射部101と前記赤外線撮像部102とを制御する制御部105と、前記制御部105に接続され、前記デジタルカメラ100により撮像された平面画像データと前記赤外線撮像部102により撮像された赤外線ドットマトリクスデータを格納するバッファメモリ104とを有する。前記平面画像データと前記赤外線ドットマトリクスデータに対する、制御部105による立体画像への変換は、以下のプロセスにより実行される。 The stereoscopic imaging device 10 images a predetermined range including the affected area of the patient 1A, and the digital camera 100 that generates planar image data of the affected area and the infrared dot radiation source are arranged in a predetermined pattern, and the range is narrower than the predetermined range. An infrared radiation unit 101 for projecting infrared rays of a dot matrix with infrared dots, an infrared imaging unit 102 for capturing an infrared dot matrix image projected onto the affected area by the infrared radiation unit 101, the digital camera 100, and the infrared radiation unit 101, connected to the infrared imaging unit 102, a control unit 105 that controls the digital camera 100, the infrared radiation unit 101, and the infrared imaging unit 102, and connected to the control unit 105, by the digital camera 100 The captured plane image data and the infrared imaging unit 102 capture the image. And a buffer memory 104 for storing the infrared dot matrix data. Conversion of the planar image data and the infrared dot matrix data into a stereoscopic image by the control unit 105 is executed by the following process.
制御部105による立体画像への変換は,例えば,被写体即ち,撮像対象の患部の凹凸に対応して,投影された赤外線ドットマトリクス像に歪みが生じる。この歪みから赤外線ドットマトリクスを構成する各赤外線ドットの三次元空間における奥行き方向の大きさが判定される。すなわち,赤外線ドットの放射源と,記赤外線撮像部102と被写体に投影された赤外線ドットの成す三角形の形状が,基準平面から被写体の凹凸に対応して変形する。これにより,空間に仮想的に設定された三次元座標における赤外線ドットの座標位置が判定される。したがって,この各赤外線ドットの座標位置に対応して,一般的なCG(コンピュータグラフィック)技術によりデジタルカメラ100により撮像された平面画像データを変形することにより三次元空間における患部の立体画像データが得られ,これをディスプレイ平面に射影することにより立体像が表示される。 The conversion to the stereoscopic image by the control unit 105 causes distortion in the projected infrared dot matrix image, for example, corresponding to the unevenness of the subject, that is, the affected part of the imaging target. From this distortion, the depth direction size of each infrared dot constituting the infrared dot matrix in the three-dimensional space is determined. That is, the shape of the triangle formed by the infrared dot radiation source, the infrared imaging unit 102 and the infrared dot projected onto the subject is deformed from the reference plane in accordance with the unevenness of the subject. Thereby, the coordinate position of the infrared dot in the three-dimensional coordinates virtually set in the space is determined. Accordingly, the three-dimensional image data of the affected part in the three-dimensional space is obtained by transforming the plane image data captured by the digital camera 100 by a general CG (computer graphic) technique corresponding to the coordinate position of each infrared dot. A three-dimensional image is displayed by projecting this onto the display plane.
かかる立体画像への変換処理は,立体撮像装置10の制御部105において実行しても,あるいは,処理装置11または20において実行することも可能である。 Such conversion processing into a stereoscopic image can be executed by the control unit 105 of the stereoscopic imaging device 10 or by the processing device 11 or 20.
なお,立体撮像装置10の位置即ち三次元空間における視点位置を移動することにより,撮像対象となる空間における視点位置を移動して,生成される立体画像の向きを変えることが可能である。 Note that by moving the position of the stereoscopic imaging apparatus 10, that is, the viewpoint position in the three-dimensional space, it is possible to change the orientation of the generated stereoscopic image by moving the viewpoint position in the space to be imaged.
図3は,処理装置11の一構成例ブロック図である。処理装置11及び20の構成は、一般的なパーソナルコンピュータと同様であり,主処理部としてCPU110を有する。CPU110は,HDD等の記憶装置111に格納されるOS(オペレーションシステム)に基づき,本発明に関連するアプリケーションプログラム(同様に記憶装置111に格納されている)を実行する。 FIG. 3 is a block diagram illustrating a configuration example of the processing device 11. The configuration of the processing devices 11 and 20 is the same as that of a general personal computer, and has a CPU 110 as a main processing unit. The CPU 110 executes an application program (also stored in the storage device 111) related to the present invention based on an OS (operation system) stored in the storage device 111 such as an HDD.
処理装置11は、立体撮像装置10の制御部105からの立体画像データを,インタフェース116を通して入力する。CPU110の制御により,一フレーム毎の立体画像データをバッファメモリ112に格納し,同時にビデオRAM113に描画し,ディスプレイ114に表示する。 The processing device 11 inputs stereoscopic image data from the control unit 105 of the stereoscopic imaging device 10 through the interface 116. Under the control of the CPU 110, the stereoscopic image data for each frame is stored in the buffer memory 112, simultaneously drawn in the video RAM 113, and displayed on the display 114.
さらに,立体画像データは,通信処理部117によりネットワーク3を通してリアルタイムに,診断医側システム2に送られる。 Further, the stereoscopic image data is sent to the diagnostician system 2 in real time through the network 3 by the communication processing unit 117.
図4は,診断医側システム2の一構成例ブロック図である。処理装置20は、実質的に患者側システム1の処理装置11と同様の構成である。 FIG. 4 is a block diagram of a configuration example of the diagnostician side system 2. The processing device 20 has substantially the same configuration as the processing device 11 of the patient side system 1.
主制御部としてCPU200を有し,記憶装置111に格納されるOS(オペレーションシステム)に基づき,全体制御が行われる。通信処理部203により患者側システム1からネットワーク3を通してリアルタイムに送られる患部の画像データを受信する。 The CPU 200 is used as a main control unit, and overall control is performed based on an OS (operation system) stored in the storage device 111. The communication processing unit 203 receives the image data of the affected part transmitted from the patient side system 1 through the network 3 in real time.
受信された画像データは,バッファメモリ202に格納されるとともに,CPU200によりビデオメモリ204に描画され,ディスプレイ21に表示される。 The received image data is stored in the buffer memory 202, drawn on the video memory 204 by the CPU 200, and displayed on the display 21.
処理装置20はまた、処理装置20に接続された入力機器22による指令を受け取り、ネットワーク3を通して処理装置11に指令を伝え、立体撮像装置10の位置即ち三次元空間における視点位置を移動させることもできる。 The processing device 20 can also receive a command from the input device 22 connected to the processing device 20, transmit the command to the processing device 11 through the network 3, and move the position of the stereoscopic imaging device 10, that is, the viewpoint position in the three-dimensional space. it can.
入力機器22は、キーボードでもよく、所定のキーごとに移動させる向きなどを指定させることもできる。また、別例として入力機器22はマウスでもよく、ディスプレイ21に表示される矢印をクリックすることで移動する向きなどを指定することもできる。 The input device 22 may be a keyboard, and can specify the direction of movement for each predetermined key. As another example, the input device 22 may be a mouse, and by clicking an arrow displayed on the display 21, the moving direction can be designated.
さらに別例として、入力機器22はマイクロフォンでもよく、特定の音声パターンに応じて移動する向きや距離を指定することもできる。入力機器22の例はこれまでにあげた例を個別に使っても組み合わせて使ってもよいが、これらの例に限定されない。 As another example, the input device 22 may be a microphone, and the direction and distance of movement can be specified according to a specific sound pattern. Examples of the input device 22 may be used individually or in combination, but are not limited to these examples.
図5は,ディスプレイ21に表示される仮想三次元の立体画像の表示例である。画像内容は,資料として子豚の腹部に,擬似的な褥瘡を想定して形成した創傷部(画面上黒丸で囲んだ部分)の画像である。ディスプレイ21の表示画像の辺部の暗部は,赤外線ドットマトリクスの照射範囲から外れた領域で,奥行き方向のデータが存在しないために何も表示されていない部分である。 FIG. 5 is a display example of a virtual three-dimensional stereoscopic image displayed on the display 21. The image content is an image of a wound part (a part surrounded by a black circle on the screen) formed on the abdomen of a piglet as a material, assuming a pseudo-decubitus. The dark part of the side part of the display image of the display 21 is an area outside the irradiation range of the infrared dot matrix and is a part where nothing is displayed because there is no data in the depth direction.
図6は,資料として子豚の実像であり,先端部にLED光源が付けられたツール棒が腹部に形成した創傷部(画面上黒丸で囲んだ部分)のポケットに差し込まれた状態である。 FIG. 6 is a real image of a piglet as a document, in which a tool bar with an LED light source attached to the tip is inserted into a pocket of a wound portion (a portion surrounded by a black circle on the screen) formed in the abdomen.
ポケットの深さ及びポケットの周辺部の状態をより広範囲に観察するために,ポケットに差し込まれたツール棒が操作される様子が図6に示される。 FIG. 6 shows how the tool bar inserted into the pocket is operated in order to observe the depth of the pocket and the state of the periphery of the pocket in a wider range.
図7は,この図6に示す患者側システム1での操作に対応してリアルタイムに示されるディスプレイ表示であり,診断医側システム2のディスプレイ21に患部の画像表示行われる。図7において,ポケットの状態が立体視されていることが理解出来る。 FIG. 7 is a display displayed in real time corresponding to the operation in the patient side system 1 shown in FIG. 6, and an image of the affected part is displayed on the display 21 of the diagnostician side system 2. In FIG. 7, it can be understood that the state of the pocket is stereoscopically viewed.
さらに,診断医側システム2に関わる医師は,ディスプレイ21を見て,患部をシフトした角度からの観察を欲する際は,ディスプレイ21上に形成されたタッチセンサを操作して,三次元座標の視点を移動させる指示を,インタフェース211を通して入力するか,キーボード等の入力手段22により入力する。 Furthermore, when a doctor related to the diagnostician-side system 2 looks at the display 21 and wants to observe from the angle at which the affected area is shifted, the doctor operates the touch sensor formed on the display 21 to view the three-dimensional coordinate viewpoint. Is input through the interface 211 or input means 22 such as a keyboard.
この指示が,通信処理部203を通して患者側システム1に送られる。これにより先に説明したように,患者側システム1において,仮想三次元空間のカメラ位置(視点座標)を,診断医側システム2からの指示に対応して移動し,変更された立体画像データを,診断医側システム2に再送信する。これにより,診断医側システム2おいて,リアルタイムに角度を変更した立体画像を表示することが出来る。 This instruction is sent to the patient side system 1 through the communication processing unit 203. As described above, in the patient side system 1, the camera position (viewpoint coordinates) in the virtual three-dimensional space is moved in accordance with the instruction from the diagnostician side system 2, and the changed stereoscopic image data is transferred to the patient side system 1. , It is retransmitted to the diagnostic physician side system 2. As a result, the diagnostician-side system 2 can display a stereoscopic image whose angle has been changed in real time.
上記の様に,本発明では二次元平面画像データと赤外線ドットマトリクスデータによる奥行き情報から立体像を作成できるので,患部の状態を擬似的な立体視が可能となる。 As described above, in the present invention, a stereoscopic image can be created from the depth information based on the two-dimensional planar image data and infrared dot matrix data, so that the state of the affected area can be pseudostereoscopically viewed.
また,撮像カメラ100の撮像範囲と,その範囲より狭い範囲で赤外線ドットマトリクスによる奥行き情報のデータが生成されるので,患部に対応する必要な立体画像データを大きくすることがない。 In addition, since the depth information data by the infrared dot matrix is generated in the imaging range of the imaging camera 100 and in a range narrower than that range, the necessary stereoscopic image data corresponding to the affected area is not enlarged.
これにより,患者側システム1から診断医側システム2に送られる画像データを大きくすることがないので,伝送時間も大きくすることがない。したがって,診断医側システム2は,遠隔地でリアルタイムに患者の状態を診察することができる。 Thereby, since the image data sent from the patient side system 1 to the diagnostician side system 2 is not enlarged, the transmission time is not increased. Therefore, the diagnostician side system 2 can examine the patient's condition in real time at a remote place.
すなわち,ネットワークを介した遠隔医療診断において患部の立体視的な観察ができるようになったため,対面形式の医療診断に近い医師による観察が可能となる。これにより遠隔医療診断の普及に貢献することが期待できる。 That is, since the stereoscopic observation of the affected part can be performed in the remote medical diagnosis via the network, the observation by the doctor close to the face-to-face medical diagnosis becomes possible. This can be expected to contribute to the spread of telemedicine diagnosis.
1 患者側システム
10 立体撮像装置
11 処理装置
2 診断医側システム
20 処理装置
21 ディスプレイ
22 入力機器
3 ネットワーク
DESCRIPTION OF SYMBOLS 1 Patient side system 10 Stereoscopic imaging device 11 Processing apparatus 2 Diagnostic physician side system 20 Processing apparatus 21 Display 22 Input device 3 Network
Claims (3)
前記患者側システムから送信される立体画像データを,ネットワークを通して受信し、前記立体画像データを平面データに射影して射影データを生成する第2の処理装置と、前記射影データを画像として表示するディスプレイとを有する診断医側システムとを備えることを特徴とする遠隔診断システム。 Planar image data obtained by imaging a diseased part of a patient, an imaging device that acquires dot pattern data in a predetermined range of the planar image data, and first image data generated from the planar image data and dot pattern data. A patient-side system having a processing device that transmits the stereoscopic image data to a specific processing device through a network;
A second processing device that receives stereoscopic image data transmitted from the patient-side system through a network, projects the stereoscopic image data onto plane data, and generates projection data; and a display that displays the projection data as an image A remote diagnosis system, comprising:
前記ドットパターンは,所定のパターンで配置される赤外線ドット放射源から放射される複数の赤外線ドットのパターンであり,前記撮像装置は,前記所定のパターンで配置される赤外線ドット放射源から放射される前記複数の赤外線ドットのパターンを前記患部に放射する赤外線放射部と,前記赤外線ドットのパターンを撮像する赤外線撮像部を有する,
ことを特徴とする遠隔診断システム。 In claim 1,
The dot pattern is a pattern of a plurality of infrared dots emitted from an infrared dot radiation source arranged in a predetermined pattern, and the imaging device is emitted from an infrared dot radiation source arranged in the predetermined pattern An infrared radiation portion that radiates the pattern of the plurality of infrared dots to the affected area; and an infrared imaging portion that images the pattern of the infrared dots,
A remote diagnosis system characterized by that.
前記診断医側システムは、前記ディスプレイに表示される前記射影データの元となる前記立体画像データの視点位置を変更する指示出すための入力装置を更に有し,
前記診断医側システムの前記第2の処理装置は、前記入力装置からの指示に応答して前記視点位置を変更する指示を前記患者側システムに送信し、前記患者側システムは,前記視点位置を変更する指示に対応して,立体画像データを変更して前記診断医側システムに送る,
ことを特徴とする遠隔診断システム。 In claim 1,
The diagnostic physician-side system further includes an input device for issuing an instruction to change the viewpoint position of the stereoscopic image data that is the basis of the projection data displayed on the display,
The second processing device of the diagnostician-side system transmits an instruction to change the viewpoint position in response to an instruction from the input device to the patient-side system, and the patient-side system determines the viewpoint position. In response to the instruction to change, the stereoscopic image data is changed and sent to the diagnostician system.
A remote diagnosis system characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013064994A JP2014188095A (en) | 2013-03-26 | 2013-03-26 | Remote diagnosis system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013064994A JP2014188095A (en) | 2013-03-26 | 2013-03-26 | Remote diagnosis system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014188095A true JP2014188095A (en) | 2014-10-06 |
Family
ID=51835061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013064994A Pending JP2014188095A (en) | 2013-03-26 | 2013-03-26 | Remote diagnosis system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014188095A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016080671A (en) * | 2014-10-20 | 2016-05-16 | 純一 水澤 | Robot measuring apparatus measuring human motions |
JP6145230B1 (en) * | 2016-06-30 | 2017-06-07 | 株式会社オプティム | Screen sharing remote examination system, screen sharing remote examination method, and screen sharing remote examination program |
CN111742374A (en) * | 2017-12-28 | 2020-10-02 | 铁佑医疗控股私人有限公司 | System and method for obtaining data relating to a wound |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006277559A (en) * | 2005-03-30 | 2006-10-12 | Susumu Terakawa | Telediagnosis system |
JP2008537190A (en) * | 2005-01-07 | 2008-09-11 | ジェスチャー テック,インコーポレイテッド | Generation of three-dimensional image of object by irradiating with infrared pattern |
JP2011232150A (en) * | 2010-04-27 | 2011-11-17 | Casio Comput Co Ltd | Information processor and information processing method, and program |
-
2013
- 2013-03-26 JP JP2013064994A patent/JP2014188095A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008537190A (en) * | 2005-01-07 | 2008-09-11 | ジェスチャー テック,インコーポレイテッド | Generation of three-dimensional image of object by irradiating with infrared pattern |
JP2006277559A (en) * | 2005-03-30 | 2006-10-12 | Susumu Terakawa | Telediagnosis system |
JP2011232150A (en) * | 2010-04-27 | 2011-11-17 | Casio Comput Co Ltd | Information processor and information processing method, and program |
Non-Patent Citations (3)
Title |
---|
"3DTVとKinectを組み合わせてステレオ立体視をやってみた", YOU TUBE, JPN7017002547, 23 November 2010 (2010-11-23), ISSN: 0003738624 * |
"KinectのデータからOpenGLで立体表示する", 明日とロボット, JPN7017002546, 13 July 2011 (2011-07-13), ISSN: 0003738623 * |
高田峻介: "PrimeSense社の世界最小3D深度センサー「Capri」とは?", GGSOKUガジェット速報, JPN7017002545, 26 January 2013 (2013-01-26), ISSN: 0003738622 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016080671A (en) * | 2014-10-20 | 2016-05-16 | 純一 水澤 | Robot measuring apparatus measuring human motions |
JP6145230B1 (en) * | 2016-06-30 | 2017-06-07 | 株式会社オプティム | Screen sharing remote examination system, screen sharing remote examination method, and screen sharing remote examination program |
WO2018003077A1 (en) * | 2016-06-30 | 2018-01-04 | 株式会社オプティム | Screen-sharing remote medical examination system, screen-sharing remote medical examination method, and screen-sharing remote medical examination program |
CN111742374A (en) * | 2017-12-28 | 2020-10-02 | 铁佑医疗控股私人有限公司 | System and method for obtaining data relating to a wound |
JP2021509298A (en) * | 2017-12-28 | 2021-03-25 | テツユ ヘルスケア ホールディングス ピーティーイー. エルティーディー.Tetsuyu Healthcare Holdings Pte. Ltd. | Systems and methods for retrieving data associated with damage |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2740259C2 (en) | Ultrasonic imaging sensor positioning | |
US20120256950A1 (en) | Medical support apparatus, medical support method, and medical support system | |
US9542771B2 (en) | Image processing system, image processing apparatus, and image processing method | |
JP5666967B2 (en) | Medical image processing system, medical image processing apparatus, medical image diagnostic apparatus, medical image processing method, and medical image processing program | |
JP5818531B2 (en) | Image processing system, apparatus and method | |
JP5813030B2 (en) | Mixed reality presentation system, virtual reality presentation system | |
US9426443B2 (en) | Image processing system, terminal device, and image processing method | |
CN113287158A (en) | Method and apparatus for telemedicine | |
US10145946B2 (en) | Generating a tomographic image based on sensor information | |
JP2015532483A (en) | Method and apparatus for changing the viewpoint of a video image | |
US10607340B2 (en) | Remote image transmission system, display apparatus, and guide displaying method thereof | |
JP2014161444A (en) | Ultrasound diagnostic device, medical image processor and control program | |
JP2012045032A (en) | Stereoscopic image displaying method and device | |
JP2012254288A (en) | Medical image diagnostic apparatus and image-processing apparatus | |
JP2016170641A (en) | Virtual object display system, display control method for the same, and display control program | |
JP2014188095A (en) | Remote diagnosis system | |
CN104679222A (en) | Medical office system based on human-computer interaction, medical information sharing system and method | |
CN110461208A (en) | Control device, external device (ED), Medical viewing system, control method, display methods and program | |
JP2011212218A (en) | Image reconstruction apparatus | |
US20120249533A1 (en) | Stereoscopic display apparatus | |
US20240173018A1 (en) | System and apparatus for remote interaction with an object | |
JP2012045287A (en) | Mammography displaying method and system | |
Zheng et al. | Mobile virtual reality for ophthalmic image display and diagnosis | |
US20210128265A1 (en) | Real-Time Ultrasound Imaging Overlay Using Augmented Reality | |
CN110786877B (en) | Marking method, device and system for medical image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20150526 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20150910 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160223 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170202 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170808 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180213 |