JP2014188095A - Remote diagnosis system - Google Patents

Remote diagnosis system Download PDF

Info

Publication number
JP2014188095A
JP2014188095A JP2013064994A JP2013064994A JP2014188095A JP 2014188095 A JP2014188095 A JP 2014188095A JP 2013064994 A JP2013064994 A JP 2013064994A JP 2013064994 A JP2013064994 A JP 2013064994A JP 2014188095 A JP2014188095 A JP 2014188095A
Authority
JP
Japan
Prior art keywords
image data
patient
side system
infrared
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013064994A
Other languages
Japanese (ja)
Inventor
Eijiro Adachi
栄治郎 安達
Mitsuko Inayoshi
光子 稲吉
Natsuki Kumada
奈津紀 熊田
Junichi Mizusawa
純一 水澤
Naofumi Kitsunezaki
直文 狐崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kitasato Institute
Original Assignee
Kitasato Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kitasato Institute filed Critical Kitasato Institute
Priority to JP2013064994A priority Critical patent/JP2014188095A/en
Publication of JP2014188095A publication Critical patent/JP2014188095A/en
Pending legal-status Critical Current

Links

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

PROBLEM TO BE SOLVED: To make it possible to remotely diagnose an image of an affected part of a remote patient via a network by using a three-dimensional imaging apparatus capable of obtaining a plane image and three-dimensional space coordinates corresponding to pixels.SOLUTION: A remote diagnosis system comprises a patient-side system and a diagnostician-side system, and displays three-dimensional image data on a display unit of the diagnostician-side system. The patient-side system comprises: an imaging apparatus for obtaining plane image data acquired by imaging a patient's affected part, and dot pattern data in a specified scope of the plane image data; and a first processing unit for generating three-dimensional image data from the plane image data and the dot pattern data, and sending the three-dimensional image data to a specified processing unit via a network. The diagnostician-side system comprises: a second processing unit for receiving via the network the three-dimensional image data sent from the patient-side system, and projecting the three-dimensional image data as plane data; and a display unit for displaying the plane data as three-dimensional image data.

Description

本発明は,遠隔診断システムに関し,特に地理的に離れた患者側と診断医側とをネットワークを介して繋ぎ,診断医側で,患者の患部の画像の観察により診断,及び介護支援を可能とするシステムに関する。   The present invention relates to a remote diagnosis system, and in particular, enables a diagnosis and care support to be performed by observing an image of an affected area of a patient on a diagnostician side by connecting a geographically distant patient side and a diagnostician side via a network. Related to the system.

インターネット等のネットワークの普及により高精細画像を,ネットワークを通して送受することが広く受け入れられている。パーソナルコンピュータ,デジタルカメラ,移動体機器等のネットワークに接続が容易な機器が日常生活で使用されている。   With the spread of networks such as the Internet, it is widely accepted to send and receive high-definition images through the network. Devices that can be easily connected to a network, such as personal computers, digital cameras, and mobile devices, are used in daily life.

これらの機器を医療診断に適用することで患者が病院に赴く時間の節約が図れ,特に移動の困難な患者にとって利益は計り知れない。さらに少数しかいない専門家の活動範囲を広げることが可能になると期待される。   Applying these devices to medical diagnosis can save time for patients to go to the hospital, especially for patients who have difficulty moving. It is expected that it will be possible to expand the scope of activities of specialists with only a few.

しかし,これまで医師と患者とは対面して診断をすることが原則であり,ネットワークを通して診断を行う場合は,対面の場合と同じ診断が可能になるとは限らない。その一つの理由として,対面で患者を診断するときは,医師は患者(患部)を自然に立体視しているが,ネットワークを介して送受される画像情報は原則平面画像,即ち二次元画像であり,立体視的な観察が出来ないことが挙げられる。   However, doctors and patients have been diagnosed face-to-face so far, and when making a diagnosis through a network, the same diagnosis as face-to-face is not always possible. One reason for this is that when a patient is diagnosed face-to-face, the doctor naturally views the patient (affected area) stereoscopically, but the image information sent and received via the network is basically a two-dimensional image, that is, a two-dimensional image. Yes, it is impossible to observe stereoscopically.

平面画像の立体視を可能にする技術として,ディスプレイに左右2つの視差平面画像を表示し,ディスプレイ前面に配置されるレンチキュラレンズを通して裸眼で観察する方法,液晶シャッターメガネを装着して観察する方法等がある。   As a technology that enables stereoscopic viewing of a planar image, a method of displaying two parallax planar images on the display and observing with naked eyes through a lenticular lens arranged in front of the display, a method of observing with liquid crystal shutter glasses, etc. There is.

視差平面画像をネットワークを通して遠隔地に送信することは可能であるが,診断医が上記いずれかの方法で患部画像を観察することは,画像の精細度,高価格機器の導入あるいは,データの伝送速度等の観点から実用化することは困難である。   Although it is possible to transmit a parallax plane image to a remote place through a network, the diagnostician observing the affected part image by any of the above methods is the definition of the image, introduction of high-priced equipment, or transmission of data. It is difficult to put it into practical use from the viewpoint of speed and the like.

特開平9−187432号公報JP-A-9-187432 特開2001−344349号公報JP 2001-344349 A 特開2002−351988号公報JP 2002-351988 A 特開2005−10884号公報Japanese Patent Laid-Open No. 2005-10848

一方,近年平面画像を撮像し,同時に平面画像の各画素単位に奥行き情報を獲得するデバイス(例えば,マイクロソフト社のKINECT[登録商標]と称されるコンピュータ周辺機器)があり,一利用法としてゲーム装置の入力手段として用いられている。   On the other hand, in recent years, there is a device (for example, a computer peripheral device called Microsoft's KINECT [registered trademark]) that captures a planar image and simultaneously acquires depth information for each pixel of the planar image. It is used as input means for the device.

本発明者は,かかる平面画像と画素対応の仮想三次元空間座標が得られる立体撮像装置は安価であり,更に全方向の完全な立体構造を生成することは出来ないが,皮膚の平面画像をその奥行き方向に立体的な表示をすることが可能であり,ストーマ患者,褥瘡等の患者の患部の状態を観察診断する特定の遠隔医療診断に有効な手段になるとの認識に至った。   The inventor of the present invention is inexpensive for a stereoscopic imaging apparatus that can obtain such a virtual image and a virtual three-dimensional spatial coordinate corresponding to a pixel, and cannot generate a complete stereoscopic structure in all directions. It is possible to display three-dimensionally in the depth direction, and has come to be recognized as an effective means for specific telemedicine diagnosis that observes and diagnoses the state of the affected area of patients such as stoma patients and pressure ulcers.

したがって,本願発明の目的は,平面画像と画素対応の仮想三次元空間座標が得られる立体撮像装置を用い,遠隔地の患者の患部画像を,ネットワークを通して診断することを可能とする遠隔診断システムを提供することにある。   Therefore, an object of the present invention is to provide a remote diagnosis system that can diagnose a diseased part image of a patient at a remote place through a network using a stereoscopic imaging device that can obtain a planar image and a virtual three-dimensional spatial coordinate corresponding to a pixel. It is to provide.

上記課題を達成する本発明に従う遠隔診断システムの第1の側面は,患者の患部を撮像して得られる平面画像データと,前記平面画像データの所定の範囲のドットパターンデータを取得する撮像装置と,前記平面画像データとドットパターンデータから三次元の座標空間上に立体画像データを生成する制御手段を有する患者側システムと,前記患者側システムから送信される立体画像データを,ネットワークを通して受信する診断医側システムを有し,前記診断医側システムで前記立体画像データをディスプレイに表示させることを特徴とする。   A first aspect of a remote diagnosis system according to the present invention that achieves the above-described object is a planar image data obtained by imaging a diseased part of a patient, and an imaging device that acquires dot pattern data in a predetermined range of the planar image data; , A patient-side system having control means for generating stereoscopic image data in a three-dimensional coordinate space from the planar image data and the dot pattern data, and a diagnosis for receiving stereoscopic image data transmitted from the patient-side system through a network A medical system is included, and the stereoscopic image data is displayed on a display by the diagnostic medical system.

本発明の第1の側面によれば,ネットワークを介した遠隔医療診断において,対面形式の医療診断に近い医師による観察が可能となり,更に診断医側システム2は,遠隔地でリアルタイムに患者の状態を診察することができる。   According to the first aspect of the present invention, in telemedicine diagnosis via a network, observation by a doctor close to a face-to-face medical diagnosis is possible, and further, the diagnostician side system 2 can detect the condition of a patient in real time at a remote place. Can be examined.

本発明に従う遠隔診断システムの一実施例概念図である。1 is a conceptual diagram of an embodiment of a remote diagnosis system according to the present invention. KINECT(登録商標)に類似の装置構成の概略構成を示す図である。It is a figure which shows schematic structure of an apparatus structure similar to KINECT (trademark). 処理装置の一構成例ブロック図である。It is a block diagram of a configuration example of a processing apparatus. 診断医側システムの一構成例ブロック図である。It is a block diagram of a configuration example of a diagnostician side system. ディスプレイに表示される仮想三次元の立体画像の表示例である。It is an example of a display of the virtual three-dimensional stereoscopic image displayed on a display. ツール棒が腹部に形成した創傷部(画面上黒丸で囲んだ部分)のポケットに差し込まれた状態を示す図である。It is a figure which shows the state inserted in the pocket of the wound part (part enclosed with the black circle on the screen) which the tool stick | rod formed in the abdominal part. 図6に示す患者側システムでの操作に対応してリアルタイムに示されるディスプレイ表示である。FIG. 7 is a display displayed in real time corresponding to an operation on the patient side system shown in FIG. 6. FIG.

以下図面に従い,本発明の実施例を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は,本発明に従う遠隔診断システムの一実施例概念図である。   FIG. 1 is a conceptual diagram of an embodiment of a remote diagnosis system according to the present invention.

患者1A側に置かれる患者側システム1がインターネット等のネットワーク3を通して診断医2A側に置かれる診断医側システム2と接続される。   A patient-side system 1 placed on the patient 1A side is connected to a diagnostic physician-side system 2 placed on the diagnostic physician 2A side through a network 3 such as the Internet.

患者側システム1は,立体撮像装置10と,処理装置11により構成される。一方診断医側システム2は,処理装置20を備え,処理装置20は、処理装置20の処理結果を表示するディスプレイ21と処理装置20に指令を与える入力機器22を備える。   The patient side system 1 includes a stereoscopic imaging device 10 and a processing device 11. On the other hand, the diagnostician-side system 2 includes a processing device 20, and the processing device 20 includes a display 21 that displays a processing result of the processing device 20 and an input device 22 that gives a command to the processing device 20.

患者側システム1の立体撮像装置10は,立体画像データを生成可能の装置で,例として,マイクロソフト社の入力装置であるKINECT(登録商標)を挙げることができる。かかる立体撮像装置10の概略構成を図2に示す。   The stereoscopic imaging device 10 of the patient-side system 1 is a device that can generate stereoscopic image data. As an example, KINECT (registered trademark) which is an input device of Microsoft Corporation can be cited. A schematic configuration of the stereoscopic imaging apparatus 10 is shown in FIG.

立体撮像装置10は、患者1Aの患部を含む所定範囲を撮像し,患部の平面画像データを生成するデジタルカメラ100と,赤外線ドットの放射源が所定のパターンで配列され、前記所定範囲より狭い範囲に赤外線ドットによるドットマトリクスの赤外線を投影する赤外線放射部101と,赤外線放射部101により患部に放射投影された赤外線ドットマトリクス像を撮像する赤外線撮像部102と、前記デジタルカメラ100と前記赤外線放射部101と前記赤外線撮像部102とに接続され、前記デジタルカメラ100と前記赤外線放射部101と前記赤外線撮像部102とを制御する制御部105と、前記制御部105に接続され、前記デジタルカメラ100により撮像された平面画像データと前記赤外線撮像部102により撮像された赤外線ドットマトリクスデータを格納するバッファメモリ104とを有する。前記平面画像データと前記赤外線ドットマトリクスデータに対する、制御部105による立体画像への変換は、以下のプロセスにより実行される。   The stereoscopic imaging device 10 images a predetermined range including the affected area of the patient 1A, and the digital camera 100 that generates planar image data of the affected area and the infrared dot radiation source are arranged in a predetermined pattern, and the range is narrower than the predetermined range. An infrared radiation unit 101 for projecting infrared rays of a dot matrix with infrared dots, an infrared imaging unit 102 for capturing an infrared dot matrix image projected onto the affected area by the infrared radiation unit 101, the digital camera 100, and the infrared radiation unit 101, connected to the infrared imaging unit 102, a control unit 105 that controls the digital camera 100, the infrared radiation unit 101, and the infrared imaging unit 102, and connected to the control unit 105, by the digital camera 100 The captured plane image data and the infrared imaging unit 102 capture the image. And a buffer memory 104 for storing the infrared dot matrix data. Conversion of the planar image data and the infrared dot matrix data into a stereoscopic image by the control unit 105 is executed by the following process.

制御部105による立体画像への変換は,例えば,被写体即ち,撮像対象の患部の凹凸に対応して,投影された赤外線ドットマトリクス像に歪みが生じる。この歪みから赤外線ドットマトリクスを構成する各赤外線ドットの三次元空間における奥行き方向の大きさが判定される。すなわち,赤外線ドットの放射源と,記赤外線撮像部102と被写体に投影された赤外線ドットの成す三角形の形状が,基準平面から被写体の凹凸に対応して変形する。これにより,空間に仮想的に設定された三次元座標における赤外線ドットの座標位置が判定される。したがって,この各赤外線ドットの座標位置に対応して,一般的なCG(コンピュータグラフィック)技術によりデジタルカメラ100により撮像された平面画像データを変形することにより三次元空間における患部の立体画像データが得られ,これをディスプレイ平面に射影することにより立体像が表示される。   The conversion to the stereoscopic image by the control unit 105 causes distortion in the projected infrared dot matrix image, for example, corresponding to the unevenness of the subject, that is, the affected part of the imaging target. From this distortion, the depth direction size of each infrared dot constituting the infrared dot matrix in the three-dimensional space is determined. That is, the shape of the triangle formed by the infrared dot radiation source, the infrared imaging unit 102 and the infrared dot projected onto the subject is deformed from the reference plane in accordance with the unevenness of the subject. Thereby, the coordinate position of the infrared dot in the three-dimensional coordinates virtually set in the space is determined. Accordingly, the three-dimensional image data of the affected part in the three-dimensional space is obtained by transforming the plane image data captured by the digital camera 100 by a general CG (computer graphic) technique corresponding to the coordinate position of each infrared dot. A three-dimensional image is displayed by projecting this onto the display plane.

かかる立体画像への変換処理は,立体撮像装置10の制御部105において実行しても,あるいは,処理装置11または20において実行することも可能である。   Such conversion processing into a stereoscopic image can be executed by the control unit 105 of the stereoscopic imaging device 10 or by the processing device 11 or 20.

なお,立体撮像装置10の位置即ち三次元空間における視点位置を移動することにより,撮像対象となる空間における視点位置を移動して,生成される立体画像の向きを変えることが可能である。   Note that by moving the position of the stereoscopic imaging apparatus 10, that is, the viewpoint position in the three-dimensional space, it is possible to change the orientation of the generated stereoscopic image by moving the viewpoint position in the space to be imaged.

図3は,処理装置11の一構成例ブロック図である。処理装置11及び20の構成は、一般的なパーソナルコンピュータと同様であり,主処理部としてCPU110を有する。CPU110は,HDD等の記憶装置111に格納されるOS(オペレーションシステム)に基づき,本発明に関連するアプリケーションプログラム(同様に記憶装置111に格納されている)を実行する。   FIG. 3 is a block diagram illustrating a configuration example of the processing device 11. The configuration of the processing devices 11 and 20 is the same as that of a general personal computer, and has a CPU 110 as a main processing unit. The CPU 110 executes an application program (also stored in the storage device 111) related to the present invention based on an OS (operation system) stored in the storage device 111 such as an HDD.

処理装置11は、立体撮像装置10の制御部105からの立体画像データを,インタフェース116を通して入力する。CPU110の制御により,一フレーム毎の立体画像データをバッファメモリ112に格納し,同時にビデオRAM113に描画し,ディスプレイ114に表示する。   The processing device 11 inputs stereoscopic image data from the control unit 105 of the stereoscopic imaging device 10 through the interface 116. Under the control of the CPU 110, the stereoscopic image data for each frame is stored in the buffer memory 112, simultaneously drawn in the video RAM 113, and displayed on the display 114.

さらに,立体画像データは,通信処理部117によりネットワーク3を通してリアルタイムに,診断医側システム2に送られる。   Further, the stereoscopic image data is sent to the diagnostician system 2 in real time through the network 3 by the communication processing unit 117.

図4は,診断医側システム2の一構成例ブロック図である。処理装置20は、実質的に患者側システム1の処理装置11と同様の構成である。   FIG. 4 is a block diagram of a configuration example of the diagnostician side system 2. The processing device 20 has substantially the same configuration as the processing device 11 of the patient side system 1.

主制御部としてCPU200を有し,記憶装置111に格納されるOS(オペレーションシステム)に基づき,全体制御が行われる。通信処理部203により患者側システム1からネットワーク3を通してリアルタイムに送られる患部の画像データを受信する。   The CPU 200 is used as a main control unit, and overall control is performed based on an OS (operation system) stored in the storage device 111. The communication processing unit 203 receives the image data of the affected part transmitted from the patient side system 1 through the network 3 in real time.

受信された画像データは,バッファメモリ202に格納されるとともに,CPU200によりビデオメモリ204に描画され,ディスプレイ21に表示される。   The received image data is stored in the buffer memory 202, drawn on the video memory 204 by the CPU 200, and displayed on the display 21.

処理装置20はまた、処理装置20に接続された入力機器22による指令を受け取り、ネットワーク3を通して処理装置11に指令を伝え、立体撮像装置10の位置即ち三次元空間における視点位置を移動させることもできる。   The processing device 20 can also receive a command from the input device 22 connected to the processing device 20, transmit the command to the processing device 11 through the network 3, and move the position of the stereoscopic imaging device 10, that is, the viewpoint position in the three-dimensional space. it can.

入力機器22は、キーボードでもよく、所定のキーごとに移動させる向きなどを指定させることもできる。また、別例として入力機器22はマウスでもよく、ディスプレイ21に表示される矢印をクリックすることで移動する向きなどを指定することもできる。   The input device 22 may be a keyboard, and can specify the direction of movement for each predetermined key. As another example, the input device 22 may be a mouse, and by clicking an arrow displayed on the display 21, the moving direction can be designated.

さらに別例として、入力機器22はマイクロフォンでもよく、特定の音声パターンに応じて移動する向きや距離を指定することもできる。入力機器22の例はこれまでにあげた例を個別に使っても組み合わせて使ってもよいが、これらの例に限定されない。   As another example, the input device 22 may be a microphone, and the direction and distance of movement can be specified according to a specific sound pattern. Examples of the input device 22 may be used individually or in combination, but are not limited to these examples.

図5は,ディスプレイ21に表示される仮想三次元の立体画像の表示例である。画像内容は,資料として子豚の腹部に,擬似的な褥瘡を想定して形成した創傷部(画面上黒丸で囲んだ部分)の画像である。ディスプレイ21の表示画像の辺部の暗部は,赤外線ドットマトリクスの照射範囲から外れた領域で,奥行き方向のデータが存在しないために何も表示されていない部分である。   FIG. 5 is a display example of a virtual three-dimensional stereoscopic image displayed on the display 21. The image content is an image of a wound part (a part surrounded by a black circle on the screen) formed on the abdomen of a piglet as a material, assuming a pseudo-decubitus. The dark part of the side part of the display image of the display 21 is an area outside the irradiation range of the infrared dot matrix and is a part where nothing is displayed because there is no data in the depth direction.

図6は,資料として子豚の実像であり,先端部にLED光源が付けられたツール棒が腹部に形成した創傷部(画面上黒丸で囲んだ部分)のポケットに差し込まれた状態である。   FIG. 6 is a real image of a piglet as a document, in which a tool bar with an LED light source attached to the tip is inserted into a pocket of a wound portion (a portion surrounded by a black circle on the screen) formed in the abdomen.

ポケットの深さ及びポケットの周辺部の状態をより広範囲に観察するために,ポケットに差し込まれたツール棒が操作される様子が図6に示される。   FIG. 6 shows how the tool bar inserted into the pocket is operated in order to observe the depth of the pocket and the state of the periphery of the pocket in a wider range.

図7は,この図6に示す患者側システム1での操作に対応してリアルタイムに示されるディスプレイ表示であり,診断医側システム2のディスプレイ21に患部の画像表示行われる。図7において,ポケットの状態が立体視されていることが理解出来る。   FIG. 7 is a display displayed in real time corresponding to the operation in the patient side system 1 shown in FIG. 6, and an image of the affected part is displayed on the display 21 of the diagnostician side system 2. In FIG. 7, it can be understood that the state of the pocket is stereoscopically viewed.

さらに,診断医側システム2に関わる医師は,ディスプレイ21を見て,患部をシフトした角度からの観察を欲する際は,ディスプレイ21上に形成されたタッチセンサを操作して,三次元座標の視点を移動させる指示を,インタフェース211を通して入力するか,キーボード等の入力手段22により入力する。   Furthermore, when a doctor related to the diagnostician-side system 2 looks at the display 21 and wants to observe from the angle at which the affected area is shifted, the doctor operates the touch sensor formed on the display 21 to view the three-dimensional coordinate viewpoint. Is input through the interface 211 or input means 22 such as a keyboard.

この指示が,通信処理部203を通して患者側システム1に送られる。これにより先に説明したように,患者側システム1において,仮想三次元空間のカメラ位置(視点座標)を,診断医側システム2からの指示に対応して移動し,変更された立体画像データを,診断医側システム2に再送信する。これにより,診断医側システム2おいて,リアルタイムに角度を変更した立体画像を表示することが出来る。   This instruction is sent to the patient side system 1 through the communication processing unit 203. As described above, in the patient side system 1, the camera position (viewpoint coordinates) in the virtual three-dimensional space is moved in accordance with the instruction from the diagnostician side system 2, and the changed stereoscopic image data is transferred to the patient side system 1. , It is retransmitted to the diagnostic physician side system 2. As a result, the diagnostician-side system 2 can display a stereoscopic image whose angle has been changed in real time.

上記の様に,本発明では二次元平面画像データと赤外線ドットマトリクスデータによる奥行き情報から立体像を作成できるので,患部の状態を擬似的な立体視が可能となる。   As described above, in the present invention, a stereoscopic image can be created from the depth information based on the two-dimensional planar image data and infrared dot matrix data, so that the state of the affected area can be pseudostereoscopically viewed.

また,撮像カメラ100の撮像範囲と,その範囲より狭い範囲で赤外線ドットマトリクスによる奥行き情報のデータが生成されるので,患部に対応する必要な立体画像データを大きくすることがない。   In addition, since the depth information data by the infrared dot matrix is generated in the imaging range of the imaging camera 100 and in a range narrower than that range, the necessary stereoscopic image data corresponding to the affected area is not enlarged.

これにより,患者側システム1から診断医側システム2に送られる画像データを大きくすることがないので,伝送時間も大きくすることがない。したがって,診断医側システム2は,遠隔地でリアルタイムに患者の状態を診察することができる。   Thereby, since the image data sent from the patient side system 1 to the diagnostician side system 2 is not enlarged, the transmission time is not increased. Therefore, the diagnostician side system 2 can examine the patient's condition in real time at a remote place.

すなわち,ネットワークを介した遠隔医療診断において患部の立体視的な観察ができるようになったため,対面形式の医療診断に近い医師による観察が可能となる。これにより遠隔医療診断の普及に貢献することが期待できる。   That is, since the stereoscopic observation of the affected part can be performed in the remote medical diagnosis via the network, the observation by the doctor close to the face-to-face medical diagnosis becomes possible. This can be expected to contribute to the spread of telemedicine diagnosis.

1 患者側システム
10 立体撮像装置
11 処理装置
2 診断医側システム
20 処理装置
21 ディスプレイ
22 入力機器
3 ネットワーク
DESCRIPTION OF SYMBOLS 1 Patient side system 10 Stereoscopic imaging device 11 Processing apparatus 2 Diagnostic physician side system 20 Processing apparatus 21 Display 22 Input device 3 Network

Claims (3)

患者の患部を撮像して得られる平面画像データと,前記平面画像データの所定の範囲のドットパターンデータを取得する撮像装置と,前記平面画像データとドットパターンデータから立体画像データを生成する第1の処理装置であって、ネットワークを通して特定の処理装置に前記立体画像データを送信する処理装置を有する患者側システムと,
前記患者側システムから送信される立体画像データを,ネットワークを通して受信し、前記立体画像データを平面データに射影して射影データを生成する第2の処理装置と、前記射影データを画像として表示するディスプレイとを有する診断医側システムとを備えることを特徴とする遠隔診断システム。
Planar image data obtained by imaging a diseased part of a patient, an imaging device that acquires dot pattern data in a predetermined range of the planar image data, and first image data generated from the planar image data and dot pattern data. A patient-side system having a processing device that transmits the stereoscopic image data to a specific processing device through a network;
A second processing device that receives stereoscopic image data transmitted from the patient-side system through a network, projects the stereoscopic image data onto plane data, and generates projection data; and a display that displays the projection data as an image A remote diagnosis system, comprising:
請求項1において,
前記ドットパターンは,所定のパターンで配置される赤外線ドット放射源から放射される複数の赤外線ドットのパターンであり,前記撮像装置は,前記所定のパターンで配置される赤外線ドット放射源から放射される前記複数の赤外線ドットのパターンを前記患部に放射する赤外線放射部と,前記赤外線ドットのパターンを撮像する赤外線撮像部を有する,
ことを特徴とする遠隔診断システム。
In claim 1,
The dot pattern is a pattern of a plurality of infrared dots emitted from an infrared dot radiation source arranged in a predetermined pattern, and the imaging device is emitted from an infrared dot radiation source arranged in the predetermined pattern An infrared radiation portion that radiates the pattern of the plurality of infrared dots to the affected area; and an infrared imaging portion that images the pattern of the infrared dots,
A remote diagnosis system characterized by that.
請求項1において,
前記診断医側システムは、前記ディスプレイに表示される前記射影データの元となる前記立体画像データの視点位置を変更する指示出すための入力装置を更に有し,
前記診断医側システムの前記第2の処理装置は、前記入力装置からの指示に応答して前記視点位置を変更する指示を前記患者側システムに送信し、前記患者側システムは,前記視点位置を変更する指示に対応して,立体画像データを変更して前記診断医側システムに送る,
ことを特徴とする遠隔診断システム。
In claim 1,
The diagnostic physician-side system further includes an input device for issuing an instruction to change the viewpoint position of the stereoscopic image data that is the basis of the projection data displayed on the display,
The second processing device of the diagnostician-side system transmits an instruction to change the viewpoint position in response to an instruction from the input device to the patient-side system, and the patient-side system determines the viewpoint position. In response to the instruction to change, the stereoscopic image data is changed and sent to the diagnostician system.
A remote diagnosis system characterized by that.
JP2013064994A 2013-03-26 2013-03-26 Remote diagnosis system Pending JP2014188095A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013064994A JP2014188095A (en) 2013-03-26 2013-03-26 Remote diagnosis system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013064994A JP2014188095A (en) 2013-03-26 2013-03-26 Remote diagnosis system

Publications (1)

Publication Number Publication Date
JP2014188095A true JP2014188095A (en) 2014-10-06

Family

ID=51835061

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013064994A Pending JP2014188095A (en) 2013-03-26 2013-03-26 Remote diagnosis system

Country Status (1)

Country Link
JP (1) JP2014188095A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016080671A (en) * 2014-10-20 2016-05-16 純一 水澤 Robot measuring apparatus measuring human motions
JP6145230B1 (en) * 2016-06-30 2017-06-07 株式会社オプティム Screen sharing remote examination system, screen sharing remote examination method, and screen sharing remote examination program
CN111742374A (en) * 2017-12-28 2020-10-02 铁佑医疗控股私人有限公司 System and method for obtaining data relating to a wound

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006277559A (en) * 2005-03-30 2006-10-12 Susumu Terakawa Telediagnosis system
JP2008537190A (en) * 2005-01-07 2008-09-11 ジェスチャー テック,インコーポレイテッド Generation of three-dimensional image of object by irradiating with infrared pattern
JP2011232150A (en) * 2010-04-27 2011-11-17 Casio Comput Co Ltd Information processor and information processing method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008537190A (en) * 2005-01-07 2008-09-11 ジェスチャー テック,インコーポレイテッド Generation of three-dimensional image of object by irradiating with infrared pattern
JP2006277559A (en) * 2005-03-30 2006-10-12 Susumu Terakawa Telediagnosis system
JP2011232150A (en) * 2010-04-27 2011-11-17 Casio Comput Co Ltd Information processor and information processing method, and program

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"3DTVとKinectを組み合わせてステレオ立体視をやってみた", YOU TUBE, JPN7017002547, 23 November 2010 (2010-11-23), ISSN: 0003738624 *
"KinectのデータからOpenGLで立体表示する", 明日とロボット, JPN7017002546, 13 July 2011 (2011-07-13), ISSN: 0003738623 *
高田峻介: "PrimeSense社の世界最小3D深度センサー「Capri」とは?", GGSOKUガジェット速報, JPN7017002545, 26 January 2013 (2013-01-26), ISSN: 0003738622 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016080671A (en) * 2014-10-20 2016-05-16 純一 水澤 Robot measuring apparatus measuring human motions
JP6145230B1 (en) * 2016-06-30 2017-06-07 株式会社オプティム Screen sharing remote examination system, screen sharing remote examination method, and screen sharing remote examination program
WO2018003077A1 (en) * 2016-06-30 2018-01-04 株式会社オプティム Screen-sharing remote medical examination system, screen-sharing remote medical examination method, and screen-sharing remote medical examination program
CN111742374A (en) * 2017-12-28 2020-10-02 铁佑医疗控股私人有限公司 System and method for obtaining data relating to a wound
JP2021509298A (en) * 2017-12-28 2021-03-25 テツユ ヘルスケア ホールディングス ピーティーイー. エルティーディー.Tetsuyu Healthcare Holdings Pte. Ltd. Systems and methods for retrieving data associated with damage

Similar Documents

Publication Publication Date Title
RU2740259C2 (en) Ultrasonic imaging sensor positioning
US20120256950A1 (en) Medical support apparatus, medical support method, and medical support system
US9542771B2 (en) Image processing system, image processing apparatus, and image processing method
JP5666967B2 (en) Medical image processing system, medical image processing apparatus, medical image diagnostic apparatus, medical image processing method, and medical image processing program
JP5818531B2 (en) Image processing system, apparatus and method
JP5813030B2 (en) Mixed reality presentation system, virtual reality presentation system
US9426443B2 (en) Image processing system, terminal device, and image processing method
CN113287158A (en) Method and apparatus for telemedicine
US10145946B2 (en) Generating a tomographic image based on sensor information
JP2015532483A (en) Method and apparatus for changing the viewpoint of a video image
US10607340B2 (en) Remote image transmission system, display apparatus, and guide displaying method thereof
JP2014161444A (en) Ultrasound diagnostic device, medical image processor and control program
JP2012045032A (en) Stereoscopic image displaying method and device
JP2012254288A (en) Medical image diagnostic apparatus and image-processing apparatus
JP2016170641A (en) Virtual object display system, display control method for the same, and display control program
JP2014188095A (en) Remote diagnosis system
CN104679222A (en) Medical office system based on human-computer interaction, medical information sharing system and method
CN110461208A (en) Control device, external device (ED), Medical viewing system, control method, display methods and program
JP2011212218A (en) Image reconstruction apparatus
US20120249533A1 (en) Stereoscopic display apparatus
US20240173018A1 (en) System and apparatus for remote interaction with an object
JP2012045287A (en) Mammography displaying method and system
Zheng et al. Mobile virtual reality for ophthalmic image display and diagnosis
US20210128265A1 (en) Real-Time Ultrasound Imaging Overlay Using Augmented Reality
CN110786877B (en) Marking method, device and system for medical image

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150526

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150910

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170808

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180213