JP2011206168A - Observation support system, method, and program - Google Patents

Observation support system, method, and program Download PDF

Info

Publication number
JP2011206168A
JP2011206168A JP2010075201A JP2010075201A JP2011206168A JP 2011206168 A JP2011206168 A JP 2011206168A JP 2010075201 A JP2010075201 A JP 2010075201A JP 2010075201 A JP2010075201 A JP 2010075201A JP 2011206168 A JP2011206168 A JP 2011206168A
Authority
JP
Japan
Prior art keywords
endoscope
image
finding
medical image
dimensional medical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010075201A
Other languages
Japanese (ja)
Other versions
JP5504028B2 (en
Inventor
Yoshiji Nakamura
佳児 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2010075201A priority Critical patent/JP5504028B2/en
Priority to PCT/JP2011/001842 priority patent/WO2011121986A1/en
Publication of JP2011206168A publication Critical patent/JP2011206168A/en
Application granted granted Critical
Publication of JP5504028B2 publication Critical patent/JP5504028B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00115Electrical control of surgical instruments with audible or visual output
    • A61B2017/00128Electrical control of surgical instruments with audible or visual output related to intensity or progress of surgical action
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B2090/306Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using optical fibres
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras

Abstract

PROBLEM TO BE SOLVED: To confirm a finding acquired from another medical image simply and rapidly while a medical image such as an endoscope image or the like is displayed.SOLUTION: Finding information Kv indicating the finding regarding the three-dimensional medical image V and finding position information Pv indicating a position at which the finding information Kv is acquired are associated with each other to be recorded in a diagnostic reading report Rv, and the diagnostic reading report Rv is registered in an image information database 24. An endoscope-image formation part 2 displays the endoscope image S on a display 4, and an endoscope-position acquisition part 21 acquires endoscope position information Ps indicating the real-time position of the endoscope in the body cavity. Further a retrieval part 25 retrieves the finding information Kv associated with the finding position information Pv indicating a position corresponding to a conversion position Ps' obtained from the endoscope position information Ps, and the finding Kv indicated by the retrieved finding information Kv is displayed on the display 4.

Description

本発明は、例えば被検体の体腔内に挿入された内視鏡下での手術あるいは検査等における、内視鏡観察を支援する技術に関するものである。   The present invention relates to a technique for supporting endoscopic observation, for example, in an operation or examination under an endoscope inserted into a body cavity of a subject.

近年、腹腔鏡手術や胸腔鏡手術等の内視鏡下で行われる手術が注目されている。この内視鏡手術では、開腹や開胸等を行うことなく、内視鏡と処置具を刺入するための数センチ程度の穴を2、3個開けるだけで済むので、患者の負担が極めて小さいというメリットがある。一方で、内視鏡の限られた視野で手術を実施することは技術的難易度が高く、執刀を行う医師は熟練を要する。もし患者の血管や臓器を誤って傷つけてしまい、出血してしまった場合には、開腹、開胸等を伴う従来の手法による手術に移行せざるを得ない。   In recent years, surgery performed under an endoscope such as laparoscopic surgery and thoracoscopic surgery has been attracting attention. In this endoscopic operation, it is only necessary to make a few centimeter holes for insertion of the endoscope and the treatment tool without performing abdominal or thoracotomy, so that the burden on the patient is extremely high. There is merit that it is small. On the other hand, it is technically difficult to perform an operation with a limited field of view of an endoscope, and a doctor who performs the operation requires skill. If a patient's blood vessels or organs are accidentally injured and they bleed, there is no choice but to proceed to conventional surgery with laparotomy, thoracotomy, etc.

一方、CT等での撮影によって得られた3次元ボリューム画像から内視鏡と類似した画像を生成する仮想内視鏡技術が知られている。この技術は、とくに大腸の腫瘍を発見するために、内視鏡検査をすることなくCT撮影のみで腫瘍を発見する方法として北米で普及している。そして、仮想内視鏡画像を用いて内視鏡手術あるいは検査等を安全かつ迅速に行うための手法が提案されている。   On the other hand, a virtual endoscope technique for generating an image similar to an endoscope from a three-dimensional volume image obtained by imaging with CT or the like is known. This technique is widely used in North America as a method for finding a tumor only by CT imaging without performing endoscopy in order to find a colon tumor. And the technique for performing endoscopic surgery or a test | inspection etc. safely and rapidly using a virtual endoscopic image is proposed.

例えば、特許文献1には、内視鏡観察下において、内視鏡画像では見えない周辺部の仮想内視鏡画像を内視鏡画像に重畳表示することにより、内視鏡手術を支援するための手法が記載されている。また、特許文献2には、気管支等の管路についての仮想内視鏡画像を作成し、仮想内視鏡画像上において管路に沿って目的点までの経路を事前に求めておき、この経路の沿った仮想内視鏡画像を実際の内視鏡観察時における案内画像として使用する手法が提案されている。特許文献1,2に記載された手法によれば、内視鏡画像とともに仮想内視鏡画像を表示することにより、安全かつ迅速に内視鏡観察を行うことができる。   For example, in Patent Document 1, under endoscopic observation, a virtual endoscopic image of a peripheral portion that cannot be seen in an endoscopic image is superimposed and displayed on the endoscopic image to support endoscopic surgery. The method is described. In Patent Document 2, a virtual endoscopic image of a duct such as a bronchus is created, and a path to a target point along the duct is obtained in advance on the virtual endoscopic image. A method has been proposed in which a virtual endoscopic image along the line is used as a guide image during actual endoscopic observation. According to the methods described in Patent Documents 1 and 2, endoscopic observation can be performed safely and quickly by displaying a virtual endoscopic image together with an endoscopic image.

一方、実際の画像診断の現場では、画像診断の依頼元である各診療科の医師(以下、依頼医)と3次元ボリューム画像等の医用画像の読影を専門とする医師(以下、読影医)との連携により診断が行われる。具体的には、依頼医からの検査オーダーに基づいて、放射線技師が患者の撮影を行って医用画像を取得した後、読影医がその医用画像の読影を行い、読影結果をまとめた読影レポートを作成して依頼医に返し、依頼医は、作成された読影レポートに記載された所見を読み、読影レポートを取得した画像を参照しつつ、問診結果や他の検査結果等の種々の情報も考慮して最終的な診断を行っている。また、内視鏡画像を読影して読影レポートを作成することも行われている。なお、読影レポートにはその読影レポートに関連する病変あるいは血管等の位置の情報および所見が記載される。このため、読影レポートを参照することにより、位置情報に基づいて病変等が含まれる位置の医用画像とともに所見を確認することが可能となる。   On the other hand, in an actual image diagnosis field, doctors of each clinical department (hereinafter referred to as a requesting doctor) who are requesters of image diagnosis and doctors specializing in interpretation of medical images such as a three-dimensional volume image (hereinafter referred to as an interpreting doctor). Diagnosis is performed in cooperation with Specifically, based on the examination order from the requesting doctor, the radiologist captures the patient and obtains a medical image, and then the interpreting doctor interprets the medical image and creates an interpretation report that summarizes the interpretation results. Prepared and returned to the requesting doctor, the requesting doctor reads the findings described in the created interpretation report and refers to the image from which the interpretation report was acquired, and also considers various information such as interview results and other examination results And make a final diagnosis. In addition, an interpretation report is created by interpreting an endoscopic image. The interpretation report includes information on the position of a lesion or blood vessel and the findings related to the interpretation report. Therefore, by referring to the interpretation report, it is possible to confirm the findings together with the medical image at the position including the lesion based on the position information.

特開2006−198032号公報JP 2006-198032 A 特開2000−135215号公報JP 2000-135215 A

しかしながら、上記特許文献1,2に記載された手法を用いての内視鏡観察中に、仮想内視鏡画像を作成するために取得した3次元ボリューム画像等についての所見を確認したい場合には、別途読影レポートに記載されている所見を表示する必要がある。このため、内視鏡観察中は所見を迅速に確認することができない。また、内視鏡観察中に得た内視鏡画像についての所見を、内視鏡観察後においても容易に確認できるようにすることが望ましい。   However, when it is desired to confirm the findings about a three-dimensional volume image acquired to create a virtual endoscopic image during endoscopic observation using the methods described in Patent Documents 1 and 2 above. It is necessary to display the findings described in the interpretation report separately. For this reason, findings cannot be confirmed quickly during endoscopic observation. In addition, it is desirable that the findings regarding the endoscopic image obtained during endoscopic observation can be easily confirmed even after endoscopic observation.

本発明は上記事情に鑑みなされたものであり、例えば内視鏡画像、3次元医用画像等のある医用画像の表示中に、他の医用画像において取得した所見を簡易かつ迅速に確認できるようにすることを目的とする。   The present invention has been made in view of the above circumstances. For example, while a medical image such as an endoscopic image or a three-dimensional medical image is being displayed, it is possible to easily and quickly confirm findings obtained in another medical image. The purpose is to do.

本発明による第1の観察支援システムは、被検体の3次元医用画像を取得する第1の画像取得手段と、
前記被検体の体腔内に挿入された内視鏡により撮影した、前記体腔内の内視鏡画像を取得する第2の画像取得手段と、
前記内視鏡画像を表示する表示手段と、
前記3次元医用画像についての少なくとも1つの所見を、該3次元医用画像内における該所見を得た位置を表す所見位置情報と対応づけて記憶する記憶手段と、
前記体腔内の前記内視鏡のリアルタイムの位置を表す内視鏡位置情報を取得する内視鏡位置取得手段と、
前記3次元医用画像内における前記内視鏡位置情報により表される位置が、前記所見位置情報により表される位置を基準とした所定空間範囲内に位置した際に、前記所見を通知する通知手段とを備えたことを特徴とするものである。
A first observation support system according to the present invention includes first image acquisition means for acquiring a three-dimensional medical image of a subject,
Second image acquisition means for acquiring an endoscopic image in the body cavity imaged by an endoscope inserted into the body cavity of the subject;
Display means for displaying the endoscopic image;
Storage means for storing at least one finding about the three-dimensional medical image in association with finding position information representing a position where the finding is obtained in the three-dimensional medical image;
Endoscope position acquisition means for acquiring endoscope position information representing a real-time position of the endoscope in the body cavity;
Notification means for notifying the finding when the position represented by the endoscope position information in the three-dimensional medical image is located within a predetermined spatial range with reference to the position represented by the finding position information. It is characterized by comprising.

「所定範囲内に位置する」とは、第1の位置情報により表される位置と完全に一致する場合も含む。   “Located within the predetermined range” includes a case where the position completely corresponds to the position represented by the first position information.

なお、本発明による第1の観察支援システムにおいては、前記通知手段を、前記表示手段への前記所見の表示および/または音声出力により前記所見を通知する手段としてもよい。   In the first observation support system according to the present invention, the notifying means may be a means for notifying the findings by displaying the findings on the display means and / or outputting sound.

また、本発明による第1の観察支援システムにおいては、前記表示手段を、前記所見の通知がなされると、通知する所見を取得した位置における前記3次元医用画像を表示する手段としてもよい。   In the first observation support system according to the present invention, the display means may be a means for displaying the three-dimensional medical image at the position where the finding to be notified is obtained when the finding is notified.

本発明による第2の観察支援システムは、被検体の3次元医用画像を取得する第1の画像取得手段と、
前記被検体の体腔内に挿入された内視鏡により撮影した、前記体腔内の内視鏡画像を取得する第2の画像取得手段と、
前記内視鏡画像を表示する表示手段と、
前記体腔内の少なくとも1つの位置についての所見を取得する所見取得手段と、
該所見を得た前記体腔内の前記内視鏡の位置を表す内視鏡位置情報を取得する内視鏡位置取得手段と、
前記3次元医用画像内における前記内視鏡位置情報に対応する位置を特定し、該特定された位置を表す特定位置情報と前記所見とを対応づけて記憶する記憶手段とを備えたことを特徴とするものである。
A second observation support system according to the present invention includes first image acquisition means for acquiring a three-dimensional medical image of a subject,
Second image acquisition means for acquiring an endoscopic image in the body cavity imaged by an endoscope inserted into the body cavity of the subject;
Display means for displaying the endoscopic image;
A finding acquisition means for acquiring a finding about at least one position in the body cavity;
Endoscope position acquisition means for acquiring endoscope position information representing the position of the endoscope in the body cavity that has obtained the findings;
Storage means for specifying a position corresponding to the endoscope position information in the three-dimensional medical image and storing the specific position information representing the specified position and the findings in association with each other is provided. It is what.

なお、本発明による第2の観察支援システムにおいては、前記特定位置情報により表される位置における前記3次元医用画像を表示する他の表示手段と、
前記特定位置情報により表される位置の前記3次元医用画像を前記他の表示手段に表示する際に、該位置に対応づけられた前記所見を通知する通知手段とをさらに備えるものとしてもよい。
In the second observation support system according to the present invention, other display means for displaying the three-dimensional medical image at the position represented by the specific position information;
When the three-dimensional medical image at the position represented by the specific position information is displayed on the other display means, a notification means for notifying the finding associated with the position may be further provided.

また、本発明による第2の観察支援システムにおいては、前記通知手段を、前記他の表示手段への前記所見の表示および/または音声出力により前記所見を通知する手段としてもよい。   In the second observation support system according to the present invention, the notifying means may be a means for notifying the findings by displaying the findings on the other display means and / or outputting sound.

また、本発明による第2の観察支援システムにおいては、前記他の表示手段を、前記所見の通知がなされると、通知する所見を取得した位置における前記内視鏡画像を表示する手段としてもよい。   In the second observation support system according to the present invention, the other display means may be a means for displaying the endoscopic image at the position where the finding to be notified is obtained when the finding is notified. .

本発明による第1の観察支援方法は、被検体の3次元医用画像を取得するステップと、
前記被検体の体腔内に挿入された内視鏡により撮影した、前記体腔内の内視鏡画像を取得するステップと、
前記内視鏡画像を表示するステップと、
前記3次元医用画像についての少なくとも1つの所見を、該3次元医用画像内における該所見を得た位置を表す所見位置情報と対応づけて記憶するステップと、
前記体腔内の前記内視鏡のリアルタイムの位置を表す内視鏡位置情報を取得するステップと、
前記3次元医用画像内における前記内視鏡位置情報により表される位置が、前記所見位置情報により表される位置を基準とした所定空間範囲内に位置した際に、前記所見を通知するステップとを有することを特徴とするものである。
A first observation support method according to the present invention includes a step of acquiring a three-dimensional medical image of a subject;
Obtaining an endoscopic image in the body cavity imaged by an endoscope inserted into the body cavity of the subject; and
Displaying the endoscopic image;
Storing at least one finding about the three-dimensional medical image in association with finding position information representing a position where the finding is obtained in the three-dimensional medical image;
Obtaining endoscope position information representing a real-time position of the endoscope in the body cavity;
Notifying the observation when the position represented by the endoscope position information in the three-dimensional medical image is located within a predetermined spatial range with reference to the position represented by the finding position information; It is characterized by having.

本発明による第2の観察支援方法は、被検体の3次元医用画像を取得するステップと、
前記被検体の体腔内に挿入された内視鏡により撮影した、前記体腔内の内視鏡画像を取得するステップと、
前記内視鏡画像を表示するステップと、
前記体腔内の少なくとも1つの位置についての所見を取得するステップと、
該所見を得た前記体腔内の前記内視鏡の位置を表す内視鏡位置情報を取得するステップと、
前記3次元医用画像内における前記内視鏡位置情報に対応する位置を特定し、該特定された位置を表す特定位置情報と前記所見とを対応づけて記憶するステップとを有することを特徴とするものである。
A second observation support method according to the present invention includes a step of acquiring a three-dimensional medical image of a subject;
Obtaining an endoscopic image in the body cavity imaged by an endoscope inserted into the body cavity of the subject; and
Displaying the endoscopic image;
Obtaining a finding for at least one location within the body cavity;
Obtaining endoscope position information representing the position of the endoscope in the body cavity that obtained the findings;
A step of specifying a position corresponding to the endoscope position information in the three-dimensional medical image, and storing the specific position information representing the specified position and the findings in association with each other. Is.

なお、本発明による第1および第2の観察支援方法をコンピュータに実行させるためのプログラムとして提供してもよい。   In addition, you may provide as a program for making a computer perform the 1st and 2nd observation assistance method by this invention.

本発明の第1の観察支援システムおよび方法によれば、被検体の3次元医用画像が取得され、被検体の体腔内に挿入された内視鏡により撮影した、体腔内の内視鏡画像が取得される。そして、3次元医用画像についての少なくとも1つの所見が、3次元医用画像内における所見を得た位置を表す所見位置情報と対応づけられて記憶される。一方、内視鏡画像が表示され、体腔内の内視鏡のリアルタイムの位置を表す内視鏡位置情報が取得され、内視鏡位置情報により表される位置が、所見位置情報により表される位置を基準とした所定空間範囲内に位置した際に所見が通知される。このため、ユーザである医師は内視鏡画像の観察中に、内視鏡が3次元医用画像内における所見を取得した位置の近くに到達した際に、3次元医用画像内において取得した所見を簡易かつ迅速に確認できる。とくに、所見は、病変がある位置あるいは動脈等の血管がある位置等の内視鏡を用いての手術、検査等の内視鏡観察を行うに際して重要な位置において作成されるため、ユーザである医師は、内視鏡観察を行っている最中に、そのような重要な位置に内視鏡が近づいたことを所見の通知により知ることができる。したがって、内視鏡を用いての手術、検査を安全かつ確実に行うことができる。   According to the first observation support system and method of the present invention, a three-dimensional medical image of a subject is acquired, and an endoscopic image in a body cavity taken by an endoscope inserted in the body cavity of the subject is obtained. To be acquired. Then, at least one finding regarding the three-dimensional medical image is stored in association with the finding position information indicating the position where the finding is obtained in the three-dimensional medical image. On the other hand, an endoscope image is displayed, endoscope position information representing the real-time position of the endoscope in the body cavity is acquired, and the position represented by the endoscope position information is represented by the finding position information. The observation is notified when the position is within a predetermined space range based on the position. For this reason, during observation of an endoscopic image, a doctor who is a user, when an endoscope reaches a position near the position where the finding is acquired in the 3D medical image, the observation acquired in the 3D medical image is displayed. Simple and quick confirmation. In particular, the findings are created at important positions when performing endoscopic observations such as surgery and examination using an endoscope such as a position where a lesion is present or a blood vessel such as an artery is present. During the endoscopic observation, the doctor can know that the endoscope has approached such an important position by notifying the findings. Therefore, it is possible to safely and reliably perform surgery and inspection using an endoscope.

また、所見の通知とともに、通知する所見を取得した位置における3次元医用画像を表示することにより、医師は重要な位置における3次元医用画像をも参照して、内視鏡観察を行うことができる。したがって、内視鏡観察をより精度良く行うことができる。   Further, by displaying the 3D medical image at the position where the notified finding is acquired together with the notification of the finding, the doctor can also perform endoscopic observation with reference to the 3D medical image at the important position. . Therefore, endoscopic observation can be performed with higher accuracy.

また、本発明の第2の観察支援システムおよび方法によれば、被検体の3次元医用画像が取得され、被検体の体腔内に挿入された内視鏡により撮影した、体腔内の内視鏡画像が取得される。そして、内視鏡画像が表示され、体腔内の少なくとも1つの位置についての所見が取得され、所見を得た体腔内の内視鏡の位置を表す内視鏡位置情報が取得される。さらに、内視鏡位置情報に対応する3次元医用画像内における位置が特定され、特定された位置を表す特定位置情報と所見とが対応づけられて記憶される。   In addition, according to the second observation support system and method of the present invention, an endoscope in a body cavity in which a three-dimensional medical image of a subject is acquired and photographed by an endoscope inserted into the body cavity of the subject. An image is acquired. Then, an endoscopic image is displayed, a finding about at least one position in the body cavity is acquired, and endoscope position information indicating the position of the endoscope in the body cavity that obtained the finding is acquired. Further, the position in the three-dimensional medical image corresponding to the endoscope position information is specified, and the specific position information representing the specified position and the finding are stored in association with each other.

このため、医師は、3次元医用画像を観察する際に、内視鏡を用いての手術、検査等の内視鏡観察時に作成された所見を、その所見を作成した位置に対応する位置の3次元医用画像とともに簡易かつ迅速に確認することができる。とくに、所見は、被検体の体腔内の病変がある位置等の内視鏡を用いての手術、検査を行うに際して重要な位置において作成されるため、医師は、内視鏡観察中あるいは内視鏡観察後に、そのような重要な位置についての3次元医用画像を所見とともに確認することができる。したがって、3次元医用画像を用いての、内視鏡観察時に重要であるとされた位置における診断を安全かつ確実に行うことができる。   For this reason, when a doctor observes a three-dimensional medical image, the doctor creates a finding created at the time of endoscopic observation such as surgery or examination using an endoscope at a position corresponding to the position where the finding was created. It can be confirmed easily and quickly together with the three-dimensional medical image. In particular, findings are created at important positions when performing surgery and examinations using an endoscope, such as where there is a lesion in the body cavity of the subject. After mirror observation, a three-dimensional medical image of such an important position can be confirmed along with the findings. Therefore, it is possible to safely and reliably perform a diagnosis at a position that is important at the time of endoscopic observation using a three-dimensional medical image.

また、所見の通知とともに、通知する所見を取得した位置における内視鏡画像を表示することにより、医師は重要な位置における内視鏡画像をも参照して、3次元医用画像を用いた診断を行うことができる。したがって、3次元医用画像を用いた診断をより精度良く行うことができる。   Further, by displaying the endoscopic image at the position where the finding to be notified is displayed together with the notification of the finding, the doctor also refers to the endoscopic image at the important position and performs the diagnosis using the three-dimensional medical image. It can be carried out. Therefore, the diagnosis using the three-dimensional medical image can be performed with higher accuracy.

本発明の第1の実施形態による内視鏡観察支援システムの概要を示すハードウェア構成図The hardware block diagram which shows the outline | summary of the endoscope observation assistance system by the 1st Embodiment of this invention 本発明の第1の実施形態における内視鏡観察支援システムを機能レベルで分割したブロック図The block diagram which divided | segmented the endoscope observation assistance system in the 1st Embodiment of this invention in the functional level 本発明の第1の実施形態において行われる処理を示すフローチャートThe flowchart which shows the process performed in the 1st Embodiment of this invention. 内視鏡画像用ディスプレイにおける内視鏡画像および所見の表示を説明するための図The figure for demonstrating the display of an endoscopic image and a finding in the display for endoscopic images 内視鏡画像用ディスプレイにおける内視鏡画像および所見の表示を説明するための図The figure for demonstrating the display of an endoscopic image and a finding in the display for endoscopic images 内視鏡画像用ディスプレイにおける内視鏡画像および所見の表示を説明するための図The figure for demonstrating the display of an endoscopic image and a finding in the display for endoscopic images 本発明の第1の実施形態の変形例における内視鏡観察支援システムを機能レベルで分割したブロック図The block diagram which divided | segmented the endoscope observation assistance system in the modification of the 1st Embodiment of this invention in the functional level 本発明の第2の実施形態における内視鏡観察支援システムを機能レベルで分割したブロック図The block diagram which divided | segmented the endoscope observation assistance system in the 2nd Embodiment of this invention in the functional level 本発明の第2の実施形態において行われる処理を示すフローチャート(その1)The flowchart which shows the process performed in the 2nd Embodiment of this invention (the 1) 本発明の第1の実施形態において行われる処理を示すフローチャート(その2)The flowchart which shows the process performed in the 1st Embodiment of this invention (the 2) 画像処理ワークステーション用ディスプレイにおける3次元医用画像および所見の表示を説明するための図The figure for demonstrating the display of the three-dimensional medical image and finding on the display for image processing workstations 画像処理ワークステーション用ディスプレイにおける3次元医用画像および所見の表示を説明するための図The figure for demonstrating the display of the three-dimensional medical image and finding on the display for image processing workstations 画像処理ワークステーション用ディスプレイにおける3次元医用画像および所見の表示を説明するための図The figure for demonstrating the display of the three-dimensional medical image and finding on the display for image processing workstations

以下、本発明の実施形態による内視鏡観察支援システムについて説明する。図1は、本発明の第1の実施形態による内視鏡観察支援システムの概要を示すハードウェア構成図である。図1に示すように、本発明の第1の実施形態による内視鏡観察支援システムは、内視鏡1、デジタルプロセッサ2、光源装置3、内視鏡画像用ディスプレイ4、モダリティ5、内視鏡用マーカー7、位置センサ8、読影ワークステーション9、読影ワークステーション用ディスプレイ10(以下単にディスプレイ10とすることもある)、画像処理ワークステーション11、画像処理ワークステーション用ディスプレイ12(以下単位ディスプレイ12とすることもある)から構成されており、被検体の腹腔内に内視鏡1および処置具6を挿入して、腹腔鏡手術や胸腔鏡手術等の内視鏡下で行われる手術を行う際の内視鏡の観察を支援するためのものである。   Hereinafter, an endoscope observation support system according to an embodiment of the present invention will be described. FIG. 1 is a hardware configuration diagram showing an overview of an endoscope observation support system according to the first embodiment of the present invention. As shown in FIG. 1, the endoscope observation support system according to the first embodiment of the present invention includes an endoscope 1, a digital processor 2, a light source device 3, an endoscope image display 4, a modality 5, an endoscope. Mirror marker 7, position sensor 8, interpretation workstation 9, interpretation workstation display 10 (hereinafter simply referred to as display 10), image processing workstation 11, image processing workstation display 12 (hereinafter unit display 12) The endoscope 1 and the treatment tool 6 are inserted into the abdominal cavity of the subject, and an operation performed under an endoscope such as a laparoscopic operation or a thoracoscopic operation is performed. This is to support observation of the endoscope at the time.

本実施形態では、内視鏡1は腹腔用の硬性鏡であり、被検体の腹腔内に挿入される。光源装置3から光ファイバーで導かれた光が内視鏡1の先端部から照射され、内視鏡1の撮像光学系により被検体の腹腔内の画像が得られる。デジタルプロセッサ2は、内視鏡1で得られた撮像信号をデジタル画像信号に変換し、ホワイトバランス調整やシェーディング補正等のデジタル信号処理によって画質の補正を行うことにより、内視鏡画像データSを取得し、内視鏡画像Sを内視鏡画像用ディスプレイ4に表示する。内視鏡1での撮像信号の取得は所定のフレームレートで行われるので、内視鏡画像用ディスプレイ4には、内視鏡画像Sが腹腔内を表す動画として表示される。   In this embodiment, the endoscope 1 is a rigid endoscope for abdominal cavity and is inserted into the abdominal cavity of a subject. Light guided by an optical fiber from the light source device 3 is irradiated from the distal end portion of the endoscope 1, and an image in the abdominal cavity of the subject is obtained by the imaging optical system of the endoscope 1. The digital processor 2 converts the imaging signal obtained by the endoscope 1 into a digital image signal, and corrects the image quality through digital signal processing such as white balance adjustment and shading correction, thereby converting the endoscope image data S into the image data S. The endoscope image S is acquired and displayed on the endoscope image display 4. Since acquisition of the imaging signal by the endoscope 1 is performed at a predetermined frame rate, the endoscope image S is displayed on the endoscope image display 4 as a moving image representing the abdominal cavity.

また、デジタルプロセッサ2は、キーボード等の入力装置2Aを備えており、内視鏡画像用ディスプレイ4に動画として表示された内視鏡画像Sにおいて病変等が観察された場合に、ユーザである医師が入力装置2Aを用いて、静止画撮影を行うことが可能となっている。また、医師が静止画撮影により取得した静止画の内視鏡画像(静止内視鏡画像)Ssを読影することにより、静止内視鏡画像Ssに対する所見を入力することも可能となっている。この際、デジタルプロセッサ2は、読影レポートの作成を支援するレポート作成画面をディスプレイ4に表示し、読影に基づいて行った所見等の内容を示すテキスト(以下、所見情報Ksとする)が入力されたときに、所見情報Ksおよび読影の対象とされた静止内視鏡画像Ssを撮影した際の内視鏡1の位置を表す内視鏡位置情報Psを記録した読影レポートRsを作成する。なお、読影レポートRsには、所見を作成した位置の静止内視鏡画像Ssを記録してもよい。   The digital processor 2 includes an input device 2A such as a keyboard. When a lesion or the like is observed in the endoscopic image S displayed as a moving image on the endoscopic image display 4, a doctor who is a user is used. However, still image shooting can be performed using the input device 2A. Further, it is also possible to input a finding on the still endoscopic image Ss by interpreting an endoscopic image (still endoscopic image) Ss of a still image acquired by a doctor by taking a still image. At this time, the digital processor 2 displays a report creation screen for supporting the creation of an interpretation report on the display 4, and text (hereinafter referred to as observation information Ks) indicating the content of findings made based on the interpretation is input. At this time, an interpretation report Rs in which the endoscope position information Ps indicating the position of the endoscope 1 when the finding information Ks and the stationary endoscope image Ss to be interpreted are captured is created. The interpretation report Rs may record the still endoscope image Ss at the position where the findings are created.

また、所見の入力は入力装置2Aのみならず音声を用いてもよい。また、内視鏡画像用ディスプレイ4がタッチパネル式の入力装置となっている場合には、タッチパネル式の入力装置を用いて入力してもよい。また、医師のみならず手術のアシスタント(看護士)が入力するようにしてもよい。これにより、手術中における医師の負担を軽減できる。デジタルプロセッサ2は、作成した読影レポートRsをLAN経由で画像処理ワークステーション11に送信する。   Further, not only the input device 2A but also voice may be used for inputting findings. When the endoscope image display 4 is a touch panel type input device, the input may be performed using a touch panel type input device. Further, not only a doctor but also an operation assistant (nurse) may be input. Thereby, the burden of the doctor during an operation can be reduced. The digital processor 2 transmits the created interpretation report Rs to the image processing workstation 11 via the LAN.

また、静止内視鏡画像Ssが複数あるときは、読影レポートRsには、静止内視鏡画像毎に所見情報Ksおよび内視鏡位置情報Psが対応づけられて記録される。   When there are a plurality of still endoscopic images Ss, the interpretation report Rs records the finding information Ks and the endoscope position information Ps in association with each stationary endoscopic image.

なお、デジタルプロセッサ2は、内視鏡画像Sを表す内視鏡画像データSおよび静止内視鏡画像Ssを表す静止内視鏡画像データSsにDICOM(Digital Imaging and Communications in Medicine)規格で規定された付帯情報を付加して、内視鏡画像データSおよび静止内視鏡画像データSsを出力する。出力された静止内視鏡画像データSsは、DICOM規格に準拠した通信プロトコルに従って、LAN経由で画像処理ワークステーション11に送信される。   The digital processor 2 is defined in the DICOM (Digital Imaging and Communications in Medicine) standard for the endoscope image data S representing the endoscope image S and the stationary endoscope image data Ss representing the stationary endoscope image Ss. The supplementary information is added, and endoscope image data S and stationary endoscope image data Ss are output. The outputted static endoscope image data Ss is transmitted to the image processing workstation 11 via the LAN according to a communication protocol compliant with the DICOM standard.

モダリティ5は、被検体の検査対象部位を撮影することにより、その部位を表す3次元医用画像の画像データVを生成する装置であり、ここではCT装置とする。この3次元医用画像データVにもDICOM規格で規定された付帯情報が付加されている。また、3次元医用画像データVも、DICOM規格に準拠した通信プロトコルに従って、LAN経由で読影ワークステーション9および画像処理ワークステーション11に送信される。   The modality 5 is an apparatus that generates image data V of a three-dimensional medical image representing a part of the subject by imaging the part to be examined, and is a CT apparatus here. The accompanying information defined by the DICOM standard is also added to the three-dimensional medical image data V. The three-dimensional medical image data V is also transmitted to the interpretation workstation 9 and the image processing workstation 11 via the LAN according to a communication protocol compliant with the DICOM standard.

読影ワークステーション9は、モダリティ5から受け取った3次元医用画像Vをディスプレイ10に表示して、読影医による読影に供する。さらに、読影ワークステーション9は、読影レポートの作成を支援するレポート作成画面をディスプレイ10に表示し、読影に基づいて所見等の内容を示すテキスト(以下、所見情報Kvとする)が入力されたときに、所見情報Kvおよび3次元医用画像V内における所見を取得した位置を表す所見位置情報Pvを記録した読影レポートRvを作成する。なお、読影レポートRvには、3次元医用画像Vの所見情報Kvを作成した位置における画像(以下、読影対象画像)を記録してもよい。なお、読影を行って所見を作成した箇所が複数あるときは、読影レポートRvには、読影毎に所見情報Kvおよび所見位置情報Pvが対応づけられて記録される。読影ワークステーション9は、生成した読影レポートを、LAN経由で画像処理ワークステーション11に送信する。   The interpretation workstation 9 displays the three-dimensional medical image V received from the modality 5 on the display 10 for interpretation by the interpretation doctor. Furthermore, the interpretation workstation 9 displays a report creation screen for supporting the creation of an interpretation report on the display 10, and when text indicating the content of findings (hereinafter referred to as finding information Kv) is input based on the interpretation. Then, an interpretation report Rv in which the finding information Kv and the finding position information Pv representing the position where the finding is acquired in the three-dimensional medical image V is recorded is created. Note that an image at the position where the finding information Kv of the three-dimensional medical image V is created (hereinafter referred to as an image to be interpreted) may be recorded in the interpretation report Rv. When there are a plurality of places where findings are created by interpretation, finding information Kv and finding position information Pv are recorded in the interpretation report Rv in association with each interpretation. The interpretation workstation 9 transmits the generated interpretation report to the image processing workstation 11 via the LAN.

なお、読影ワークステーション9においては、例えば特開2004−135867号公報に記載されたようなアイリスフィルタを用いた異常陰影候補検出手法に代表される、計算機支援診断(CAD:Computer Aided Diagnosis) システムを用いて、3次元医用画像Vから病変を自動的に検出し、病変が含まれる部分の3次元医用画像Vをディスプレイ10に表示して読影に供するようにしてもよい。   In the interpretation workstation 9, for example, a computer aided diagnosis (CAD) system represented by an abnormal shadow candidate detection method using an iris filter as described in Japanese Patent Application Laid-Open No. 2004-135867 is used. The lesion may be automatically detected from the three-dimensional medical image V, and the three-dimensional medical image V including the lesion may be displayed on the display 10 for interpretation.

内視鏡用マーカー7および位置センサ8は、公知の3次元位置計測装置を構成する。内視鏡用マーカー7は内視鏡1の手元付近に設けられており、光学式の位置センサ8によって、所定の時間間隔でマーカー7の3次元位置が検出される。内視鏡用マーカー7は、複数のマーカー片から構成されているため、位置センサ8はマーカー片の位置関係から内視鏡1の向きも検出可能であり、オフセット計算によって、内視鏡1の先端部の3次元位置を算出することができる。位置センサ8は、算出された内視鏡1の3次元位置および向きを表す内視鏡位置情報Psを、USBインターフェースを介してデジタルプロセッサ2および画像処理ワークステーション11に送信する。   The endoscope marker 7 and the position sensor 8 constitute a known three-dimensional position measuring device. The endoscope marker 7 is provided near the hand of the endoscope 1, and the optical position sensor 8 detects the three-dimensional position of the marker 7 at a predetermined time interval. Since the endoscope marker 7 is composed of a plurality of marker pieces, the position sensor 8 can also detect the orientation of the endoscope 1 from the positional relationship of the marker pieces. The three-dimensional position of the tip can be calculated. The position sensor 8 transmits endoscope position information Ps representing the calculated three-dimensional position and orientation of the endoscope 1 to the digital processor 2 and the image processing workstation 11 via the USB interface.

画像処理ワークステーション11は、CPU、主記憶装置、補助記憶装置、入出力インターフェース、通信インターフェース、データバス等の周知のハードウェア構成を備えたコンピュータであり、入力装置(ポインティングデバイス、キーボード等)およびディスプレイ10が接続されている。また、画像処理ワークステーション11は、デジタルプロセッサ2、モダリティ5および読影ワークステーション9とはLAN接続されており、位置センサ8とはUSB接続されている。さらに、画像処理ワークステーション11は、周知のオペレーティングシステムおよび各種アプリケーション・ソフトウェア等がインストールされたものであり、本実施形態の内視鏡観察支援処理を実行させるためのアプリケーションもインストールされている。これらのソフトウェアは、CD−ROM等の記録媒体からインストールされたものであってもよいし、インターネット等のネットワーク経由で接続されたサーバの記憶装置からダウンロードされた後にインストールされたものであってもよい。   The image processing workstation 11 is a computer having a well-known hardware configuration such as a CPU, a main storage device, an auxiliary storage device, an input / output interface, a communication interface, a data bus, etc., and an input device (pointing device, keyboard, etc.) A display 10 is connected. The image processing workstation 11 is connected to the digital processor 2, the modality 5 and the image interpretation workstation 9 via a LAN, and is connected to the position sensor 8 via a USB. Further, the image processing workstation 11 is installed with a well-known operating system, various application software, and the like, and is also installed with an application for executing the endoscope observation support processing of the present embodiment. These software may be installed from a recording medium such as a CD-ROM, or may be installed after being downloaded from a storage device of a server connected via a network such as the Internet. Good.

なお、画像処理ワークステーション11は、内視鏡手術を行う手術室または手術室に隣接する控え室に設置されており、手術中または手術後に医師が適宜情報を確認可能なようになっている。   The image processing workstation 11 is installed in an operating room where endoscopic surgery is performed or in a waiting room adjacent to the operating room, so that a doctor can appropriately check information during or after the operation.

図2は本発明の第1の実施形態における内視鏡観察支援システムを機能レベルで分割したブロック図である。図2に示すように、本発明の第1の実施形態による内視鏡観察支援システムは、内視鏡1、内視鏡画像形成部2、内視鏡画像用ディスプレイ4、3次元医用画像形成部5、所見作成部9、内視鏡位置検出部20、内視鏡位置取得部21、3次元医用画像取得部22、所見取得部23、画像情報データベース24、検索部25および内視鏡画像取得部26から構成されている。なお、図1に示したハードウェア機器と図2に示した各機能ブロックとが概ね1対1に対応する場合には同じ符号を付している。すなわち、内視鏡画像形成部2の機能は図1のデジタルプロセッサによって実現され、3次元医用画像形成部5の機能は図1のモダリティによって実現され、所見作成部9の機能は図1の読影ワークステーションによって実現される。一方、内視鏡位置検出部20の機能は、内視鏡用マーカー7および位置センサ8によって実現される。また、破線枠は画像処理ワークステーション11を示しており、破線枠内の各処理部の機能は、画像処理ワークステーション11で所定のプログラムを実行することによって実現される。   FIG. 2 is a block diagram in which the endoscope observation support system according to the first embodiment of the present invention is divided at a functional level. As shown in FIG. 2, the endoscope observation support system according to the first embodiment of the present invention includes an endoscope 1, an endoscope image forming unit 2, an endoscope image display 4, and a three-dimensional medical image formation. Unit 5, finding creation unit 9, endoscope position detection unit 20, endoscope position acquisition unit 21, three-dimensional medical image acquisition unit 22, finding acquisition unit 23, image information database 24, search unit 25, and endoscope image The acquisition unit 26 is configured. In addition, when the hardware device shown in FIG. 1 and each functional block shown in FIG. That is, the function of the endoscope image forming unit 2 is realized by the digital processor of FIG. 1, the function of the three-dimensional medical image forming unit 5 is realized by the modality of FIG. 1, and the function of the finding creating unit 9 is the interpretation of FIG. Realized by a workstation. On the other hand, the function of the endoscope position detection unit 20 is realized by the endoscope marker 7 and the position sensor 8. A broken line frame indicates the image processing workstation 11, and the functions of the processing units in the broken line frame are realized by executing a predetermined program on the image processing workstation 11.

次に、第1の実施形態において行われる処理について説明する。図3は本発明の第1の実施形態による内視鏡観察支援システムで行われる処理を示すフローチャートである。   Next, processing performed in the first embodiment will be described. FIG. 3 is a flowchart showing processing performed in the endoscope observation support system according to the first embodiment of the present invention.

まず、内視鏡1を用いた被検体の腹腔内の観察に先立って、3次元医用画像形成部5による被検体の撮影によって3次元医用画像Vが形成される。また、所見作成部9において、読影医による3次元医用画像Vの読影が行われ、3次元医用画像Vについての所見情報Kvおよびその所見情報Kvを取得した3次元医用画像V上の位置を表す所見位置情報Pvが記録された読影レポートRvが作成される。   First, prior to observation of the subject in the abdominal cavity using the endoscope 1, a three-dimensional medical image V is formed by photographing the subject by the three-dimensional medical image forming unit 5. In addition, the finding creation unit 9 interprets the 3D medical image V by the interpreting doctor, and represents the finding information Kv about the 3D medical image V and the position on the 3D medical image V from which the finding information Kv is acquired. An interpretation report Rv in which the finding position information Pv is recorded is created.

画像処理ワークステーション11では、3次元医用画像取得部22が、3次元医用画像形成部5によって形成された3次元医用画像Vを取得し(ステップST1)、さらに所見取得部23が、所見作成部9によって作成された読影レポートRvを取得する(ステップST2)。3次元医用画像Vおよび読影レポートRvは、互いに対応づけられて画像情報データベース24に登録される(ステップST3)。以上の処理は、内視鏡下手術の前に行われる。   In the image processing workstation 11, the three-dimensional medical image acquisition unit 22 acquires the three-dimensional medical image V formed by the three-dimensional medical image forming unit 5 (step ST1), and the finding acquisition unit 23 further detects the finding creation unit. 9. Interpretation report Rv created in step 9 is acquired (step ST2). The three-dimensional medical image V and the interpretation report Rv are associated with each other and registered in the image information database 24 (step ST3). The above processing is performed before endoscopic surgery.

そして、内視鏡下手術中、すなわち内視鏡1を用いた被検体の腹腔内の観察中は、観察が終了するまで(ステップST10肯定)、内視鏡画像形成部2は、所定のフレームレートで体腔内に挿入された内視鏡1による内視鏡画像Sを繰り返し形成し、形成された内視鏡画像Sを内視鏡画像用ディスプレイ4にスルー動画としてリアルタイムに表示する(ステップST4)。なお、内視鏡画像Sは内視鏡画像取得部26により取得され、画像処理ワークステーション11内の所定のメモリ領域に逐次格納される。また、内視鏡位置検出部20は、所定の時間間隔で、体腔内に挿入された内視鏡1の位置を繰り返しリアルタイムに検出する。   During endoscopic surgery, that is, during observation of the subject in the abdominal cavity using the endoscope 1, the endoscope image forming unit 2 performs a predetermined frame until the observation is completed (Yes in step ST10). The endoscope image S by the endoscope 1 inserted into the body cavity at a rate is repeatedly formed, and the formed endoscope image S is displayed in real time as a through moving image on the endoscope image display 4 (step ST4). ). The endoscopic image S is acquired by the endoscopic image acquisition unit 26 and sequentially stored in a predetermined memory area in the image processing workstation 11. Further, the endoscope position detection unit 20 repeatedly detects the position of the endoscope 1 inserted into the body cavity in real time at predetermined time intervals.

画像処理ワークステーション11では、内視鏡位置取得部21が、内視鏡位置検出部20で検出された内視鏡1の位置を表す内視鏡位置情報Psを取得し(ステップST5)、内視鏡位置情報Psを3次元医用画像Vの座標系における位置に変換して得られた変換位置Ps′を取得する(ステップST6)。   In the image processing workstation 11, the endoscope position acquisition unit 21 acquires endoscope position information Ps representing the position of the endoscope 1 detected by the endoscope position detection unit 20 (step ST5). A conversion position Ps ′ obtained by converting the endoscope position information Ps into a position in the coordinate system of the three-dimensional medical image V is acquired (step ST6).

そして検索部25が、画像情報データベース24における同一被検体の3次元医用画像Vについての読影レポートRvを参照し、変換位置Ps′に対応する位置を表す所見位置情報Pvと対応づけられた所見情報Kvを検索する(ステップST7)。この場合、変換位置Ps′と所見位置情報Pvにより表される位置とが完全に一致したときに検索されたと判定してもよいが、所見位置情報Pvにより表される位置を基準とした所定の空間的な範囲を定めるしきい値を設定し、このしきい値により定められる空間的な範囲内に変換位置Ps′が含まれている場合に、所見情報Kvが検索されたと判定するようにしてもよい。なお、しきい値はユーザが設定できるようにすればよい。   Then, the search unit 25 refers to the interpretation report Rv for the three-dimensional medical image V of the same subject in the image information database 24, and the finding information associated with the finding position information Pv representing the position corresponding to the converted position Ps ′. Kv is searched (step ST7). In this case, although it may be determined that the conversion position Ps ′ and the position represented by the finding position information Pv completely match, it may be determined that the search has been performed. A threshold value that determines the spatial range is set, and when the conversion position Ps ′ is included in the spatial range determined by the threshold value, it is determined that the finding information Kv is retrieved. Also good. The threshold value may be set by the user.

また、内視鏡位置情報Psには内視鏡1の向きも含まれているため、内視鏡1の向きから内視鏡の画角を求めることができる。したがって、検索部25は、内視鏡位置情報Psに含まれる内視鏡1の向きの情報から内視鏡1の画角を算出し、内視鏡1の画角よりも所定量広い画角の範囲に3次元医用画像Vの所見位置情報Pvにより表される位置が存在する場合に、所見情報Kvが検索されたと判定するようにしてもよい。   Further, since the endoscope position information Ps includes the direction of the endoscope 1, the angle of view of the endoscope can be obtained from the direction of the endoscope 1. Accordingly, the search unit 25 calculates the angle of view of the endoscope 1 from the orientation information of the endoscope 1 included in the endoscope position information Ps, and the angle of view wider by a predetermined amount than the angle of view of the endoscope 1. If the position represented by the finding position information Pv of the three-dimensional medical image V exists in the range of, it may be determined that the finding information Kv has been searched.

また、上記特許文献2に記載された手法を用いて、3次元医用画像Vから内視鏡観察を行う際の経路をあらかじめ求め、求めた経路についての仮想内視鏡画像を作成して画像情報データベース24に登録しておき、リアルタイムで取得した内視鏡画像Sと仮想内視鏡画像との類似度を算出し、類似度が所定範囲(例えば2つの画像の相関値が所定のしきい値以内)となった仮想内視鏡画像内の位置を検出し、その位置が所見位置情報Pvにより表される位置を基準とした所定のしきい値により定められる空間的な範囲内に含まれたときに、所見情報Kvが検索されたと判定するようにしてもよい。   Further, using the method described in Patent Document 2, a route for performing endoscopic observation from the three-dimensional medical image V is obtained in advance, and a virtual endoscope image for the obtained route is created to obtain image information. The similarity between the endoscopic image S and the virtual endoscopic image acquired in real time is registered in the database 24, and the similarity is within a predetermined range (for example, the correlation value between the two images is a predetermined threshold value). Within the spatial range determined by a predetermined threshold value based on the position represented by the finding position information Pv. Sometimes, it may be determined that the finding information Kv has been searched.

ステップST7が否定されると、ステップST10の処理に進む。ステップST7が肯定されると、検索部25は画像情報データベース24から検索した所見情報Kvを取得し(ステップST8)、内視鏡画像用ディスプレイ4に送信する。内視鏡画像用ディスプレイ4は、所見情報Kvにより表される所見Kvを内視鏡画像Sとともに表示する(ステップST9)。   If step ST7 is negative, the process proceeds to step ST10. When step ST7 is affirmed, the search unit 25 acquires the finding information Kv searched from the image information database 24 (step ST8), and transmits it to the endoscope image display 4. The endoscopic image display 4 displays the finding Kv represented by the finding information Kv together with the endoscopic image S (step ST9).

図4および図5は、内視鏡画像用ディスプレイ4における内視鏡画像Sおよび所見情報Kvの表示を説明するための図である。所見情報Kvが検索されていないときには、図4に示すように内視鏡画像Sのみが表示されている。一方、所見情報Kvが検索されると、図5に示すように所見Kvが内視鏡画像Sに重畳されて表示される。なお、図6に示すように、所見情報Kvを取得した位置における読影対象画像である3次元医用画像V0を所見Kvとともに表示してもよい。   4 and 5 are diagrams for explaining the display of the endoscope image S and the finding information Kv on the endoscope image display 4. When the finding information Kv is not searched, only the endoscopic image S is displayed as shown in FIG. On the other hand, when the finding information Kv is retrieved, the finding Kv is superimposed on the endoscopic image S and displayed as shown in FIG. As shown in FIG. 6, a three-dimensional medical image V0 that is an image to be interpreted at the position where the finding information Kv is acquired may be displayed together with the finding Kv.

続いて、画像処理ワークステーション11では、観察終了を指示する操作がなされたか否かを判定し(ステップST10)、ステップST10が否定されるとステップST4に戻り、ステップST4以降の処理を繰り返す。ステップST10が肯定されると、それまでにメモリに格納した内視鏡画像S(動画)を画像情報データベース24に登録し(ステップST11)、処理を終了する。   Subsequently, the image processing workstation 11 determines whether or not an operation for instructing the end of observation has been performed (step ST10). If step ST10 is negative, the process returns to step ST4 and repeats the processes after step ST4. If step ST10 is affirmed, the endoscopic image S (moving image) stored in the memory so far is registered in the image information database 24 (step ST11), and the process is terminated.

次に、第1の実施形態における画像処理ワークステーション11内の各処理部で行われる処理の詳細について説明する。   Next, details of processing performed in each processing unit in the image processing workstation 11 in the first embodiment will be described.

内視鏡位置取得部21は、内視鏡位置検出部20との通信により内視鏡位置を表す内視鏡位置情報Psを取得する通信インターフェースとしての機能と、取得した内視鏡位置情報Psを位置センサ8の3次元座標系から3次元医用画像Vの3次元座標系の座標値で表現された変換位置Ps′に変換して画像処理ワークステーション11の所定のメモリ領域に格納する機能とを有する。前者の通信インターフェース機能では、内視鏡位置取得部21からの要求ベースで内視鏡位置検出部20から内視鏡位置情報Psが取得される。また、後者の座標変換機能では、位置センサ8の3次元座標系における各座標軸と3次元医用画像Vの3次元座標系における各座標軸との向きの対応関係に基づいて、座標軸の回転量をあらかじめ求めておくとともに、3次元医用画像Vの原点に相当する被検体中の位置の、位置センサ8の3次元座標系における座標値をあらかじめ計測しておき、この原点の座標値に基づいて、両座標軸の平行移動量を求めておけば、その回転量の回転とその平行移動量の平行移動を行う行列を用いて、位置センサ8の3次元座標系で表現された内視鏡位置情報Psを3次元医用画像Vの3次元座標系の座標値で表現された変換位置Ps′に変換することができる。   The endoscope position acquisition unit 21 functions as a communication interface for acquiring endoscope position information Ps representing the endoscope position by communication with the endoscope position detection unit 20, and the acquired endoscope position information Ps. Is converted from the three-dimensional coordinate system of the position sensor 8 into a conversion position Ps ′ expressed by the coordinate values of the three-dimensional coordinate system of the three-dimensional medical image V and stored in a predetermined memory area of the image processing workstation 11. Have In the former communication interface function, endoscope position information Ps is acquired from the endoscope position detection unit 20 on a request basis from the endoscope position acquisition unit 21. In the latter coordinate conversion function, the rotation amount of the coordinate axis is determined in advance based on the correspondence relationship between the respective coordinate axes in the three-dimensional coordinate system of the position sensor 8 and the respective coordinate axes in the three-dimensional coordinate system of the three-dimensional medical image V. In addition, the coordinate value in the three-dimensional coordinate system of the position sensor 8 of the position in the subject corresponding to the origin of the three-dimensional medical image V is measured in advance, and both are calculated based on the coordinate value of the origin. If the translation amount of the coordinate axis is obtained, the endoscope position information Ps expressed in the three-dimensional coordinate system of the position sensor 8 is obtained by using a matrix for performing the rotation of the rotation amount and the translation of the translation amount. The three-dimensional medical image V can be converted to a conversion position Ps ′ expressed by the coordinate values of the three-dimensional coordinate system.

3次元医用画像取得部22は、3次元医用画像形成部5から3次元医用画像Vを受信し、画像処理ワークステーション11の所定のメモリ領域に格納するとともに、読影レポートRvと対応づけて画像情報データベース24に登録する通信インターフェース機能を有する。   The three-dimensional medical image acquisition unit 22 receives the three-dimensional medical image V from the three-dimensional medical image forming unit 5, stores it in a predetermined memory area of the image processing workstation 11, and associates image information with the interpretation report Rv. A communication interface function registered in the database 24 is provided.

所見取得部23は、読影ワークステーション9から読影レポートRvを受信し、画像処理ワークステーション11の所定のメモリ領域に格納するとともに、3次元医用画像Vと対応づけて画像情報データベース24に登録する通信インターフェース機能を有する。   The finding acquisition unit 23 receives the interpretation report Rv from the interpretation workstation 9, stores it in a predetermined memory area of the image processing workstation 11, and registers it in the image information database 24 in association with the three-dimensional medical image V. Has an interface function.

画像情報データベース24は、内視鏡画像データS、静止内視鏡画像データSs、その付帯情報および読影レポートRs、並びに3次元医用画像データV、その付帯情報および読影レポートRvを対応づけて記憶することが可能となっている。付帯情報は、例えば、個々の画像を識別するための画像ID、被写体を識別するための患者ID、検査を識別するための検査ID、画像情報毎に割り振られるユニークなID(UID)、その画像情報が生成された検査日、検査時刻、その画像情報を取得するための検査で使用されたモダリティの種類、患者氏名、年齢、性別等の患者情報、検査部位(撮影部位)、撮影条件(造影剤の使用有無や、放射線量等)、1回の検査で複数の画像を取得したときのシリーズ番号あるいは採取番号等の情報が含まれうる。   The image information database 24 stores the endoscope image data S, the static endoscope image data Ss, the accompanying information and the interpretation report Rs, and the three-dimensional medical image data V, the accompanying information and the interpretation report Rv in association with each other. It is possible. The incidental information includes, for example, an image ID for identifying individual images, a patient ID for identifying a subject, an examination ID for identifying examinations, a unique ID (UID) assigned to each piece of image information, and the image Examination date when the information was generated, examination time, type of modality used in the examination to obtain the image information, patient information such as patient name, age, gender, examination site (imaging site), imaging conditions (contrast Information such as the series number or collection number when a plurality of images are acquired in one examination may be included.

検索部25は、内視鏡位置取得部21から変換位置Ps′を受け取り、変換位置Ps′に対応する位置を表す所見位置情報Pvと対応づけられた所見情報Kvを検索する。また、所見情報Kvが検索された場合には、画像情報データベース24から検索された所見情報Kvをデジタルプロセッサ2に送信する通信インターフェース機能を有する。   The search unit 25 receives the converted position Ps ′ from the endoscope position acquisition unit 21 and searches for the finding information Kv associated with the finding position information Pv representing the position corresponding to the converted position Ps ′. In addition, when the finding information Kv is retrieved, it has a communication interface function for transmitting the finding information Kv retrieved from the image information database 24 to the digital processor 2.

内視鏡画像取得部26は、内視鏡画像形成部(デジタルプロセッサ)2との通信により、内視鏡画像Sを受信し、画像処理ワークステーション11の所定のメモリ領域に格納する通信インターフェースであり、内視鏡画像取得部26からの要求に基づいて内視鏡画像形成部2から内視鏡画像が転送される。   The endoscope image acquisition unit 26 is a communication interface that receives the endoscope image S through communication with the endoscope image forming unit (digital processor) 2 and stores it in a predetermined memory area of the image processing workstation 11. Yes, an endoscopic image is transferred from the endoscopic image forming unit 2 based on a request from the endoscopic image acquiring unit 26.

このように、本発明の第1の実施形態においては、3次元医用画像形成部5が、被検体の3次元医用画像Vを取得し、内視鏡画像形成部2が、被検体の体腔内に挿入された内視鏡により撮影した体腔内の内視鏡画像Sを取得し、3次元医用画像Vについての所見を表す所見情報Kvとその所見情報Kvを取得した位置を表す所見位置情報Pvとを対応づけて読影レポートRvに記録し、この読影レポートRvを画像情報データベース24に登録するようにしたものである。そして、内視鏡画像形成部2が、内視鏡画像Sを内視鏡画像用ディスプレイ4に表示し、内視鏡位置取得部21が、体腔内の内視鏡のリアルタイムの位置を表す内視鏡位置情報Psを取得し、検索部25が、内視鏡位置情報Psから得られる変換位置Ps′に対応する位置を表す所見位置情報Pvと対応づけられた所見情報Kvを検索し、検索した所見情報Kvにより表される所見Kvを内視鏡画像用ディスプレイ4に表示するようにしたものである。   Thus, in the first embodiment of the present invention, the three-dimensional medical image forming unit 5 acquires the three-dimensional medical image V of the subject, and the endoscope image forming unit 2 is in the body cavity of the subject. An endoscopic image S in a body cavity imaged by an endoscope inserted into the body is acquired, and finding information Kv indicating the findings about the three-dimensional medical image V and finding position information Pv indicating the position where the finding information Kv is acquired. Are recorded in the interpretation report Rv, and this interpretation report Rv is registered in the image information database 24. The endoscopic image forming unit 2 displays the endoscopic image S on the endoscopic image display 4, and the endoscopic position acquisition unit 21 represents the real-time position of the endoscope in the body cavity. The endoscope position information Ps is acquired, and the search unit 25 searches and searches the finding information Kv associated with the finding position information Pv representing the position corresponding to the converted position Ps ′ obtained from the endoscope position information Ps. The finding Kv represented by the finding information Kv is displayed on the endoscope image display 4.

このため、ユーザである医師は内視鏡画像Sの観察中に、内視鏡1が3次元医用画像V内における所見Kvを取得した位置の近くに到達した際に、3次元医用画像V内において取得した所見Kvを簡易かつ迅速に確認できる。とくに、所見Kvは、病変がある位置、あるいは動脈等の血管がある位置等の内視鏡を用いての手術、検査等の内視鏡観察を行うに際して重要な位置において作成されるため、医師は、内視鏡観察を行っている最中に、そのような重要な位置に内視鏡が近づいたことを所見Kvの通知により知ることができる。したがって、内視鏡を用いての手術、検査を安全かつ確実に行うことができる。   For this reason, when the doctor who is the user reaches the position where the endoscope 1 acquires the finding Kv in the three-dimensional medical image V during observation of the endoscopic image S, the doctor in the three-dimensional medical image V The finding Kv acquired in step 1 can be confirmed easily and quickly. In particular, the finding Kv is created at an important position when performing endoscopic observation such as surgery or examination using an endoscope such as a position where a lesion is present or a blood vessel such as an artery is present. Can know from the notification of the observation Kv that the endoscope has approached such an important position during the endoscopic observation. Therefore, it is possible to safely and reliably perform surgery and inspection using an endoscope.

なお、上記第1の実施形態においては、所見Kvを内視鏡画像用ディスプレイ4に表示することにより通知しているが、図7に示すように内視鏡画像形成部2(すなわちデジタルプロセッサ)にスピーカー等からなる音声出力部2Bを設け、音声出力部2Bから所見Kvを音声により出力することにより通知してもよい。この際、所見Kvを内視鏡画像用ディスプレイ4に併せて表示するようにしてもよい。さらに、ビープ音等により所見Kvが表示されたことを通知するようにしてもよい。   In the first embodiment, the observation Kv is notified by being displayed on the endoscope image display 4. However, as shown in FIG. 7, the endoscope image forming unit 2 (that is, a digital processor) is used. An audio output unit 2B composed of a speaker or the like may be provided, and the findings Kv may be output from the audio output unit 2B by voice. At this time, the findings Kv may be displayed together with the endoscope image display 4. Further, it may be notified that the finding Kv is displayed by a beep sound or the like.

また、上記第1の実施形態においては、内視鏡画像Sを画像情報データベース24に登録する際に、所見情報Kvに対応づけられた位置に対応する内視鏡1の位置を表す内視鏡位置情報Psおよびその位置における3次元医用画像Vの所見情報Kvを、内視鏡画像Sと対応づけるようにしてもよい。これにより、後で内視鏡画像Sを表示した際に、表示される内視鏡画像Sが内視鏡位置情報Psにより表される位置に近づいた際に、3次元医用画像Vの所見Ksを併せて表示することが可能となる。   In the first embodiment, when the endoscopic image S is registered in the image information database 24, the endoscope represents the position of the endoscope 1 corresponding to the position associated with the finding information Kv. The position information Ps and the finding information Kv of the three-dimensional medical image V at the position may be associated with the endoscope image S. As a result, when the endoscopic image S is displayed later and the displayed endoscopic image S approaches the position represented by the endoscopic position information Ps, the findings Ks of the three-dimensional medical image V are displayed. Can be displayed together.

次いで、本発明の第2の実施形態について説明する。なお、本発明の第2の実施形態による内視鏡観察支援システムのハードウェア構成は、第1の実施形態による内視鏡観察支援システムのハードウェア構成と同一であるためここでは詳細な説明は省略する。図8は本発明の第2の実施形態における内視鏡観察支援システムを機能レベルで分割したブロック図である。なお、図8において図2と同一の構成については同一の参照番号を付与し、ここでは詳細な説明は省略する。第2の実施形態による内視鏡観察支援システムは、第1の実施形態による内視鏡観察支援システムの所見作成部9、所見取得部23および検索部25に代えて、内視鏡画像Sについての読影レポートRsを作成する所見作成部2C、読影レポートRsを取得する所見取得部27、位置情報取得部28、および表示制御部29を備えた点が第1の実施形態と異なる。   Next, a second embodiment of the present invention will be described. The hardware configuration of the endoscope observation support system according to the second embodiment of the present invention is the same as the hardware configuration of the endoscope observation support system according to the first embodiment. Omitted. FIG. 8 is a block diagram in which the endoscope observation support system according to the second embodiment of the present invention is divided at the functional level. In FIG. 8, the same components as those in FIG. 2 are denoted by the same reference numerals, and detailed description thereof is omitted here. The endoscopic observation support system according to the second embodiment replaces the finding creation unit 9, the finding acquisition unit 23, and the search unit 25 of the endoscopic observation support system according to the first embodiment with respect to the endoscopic image S. The second embodiment is different from the first embodiment in that it includes an observation creation unit 2C that creates an interpretation report Rs, an observation acquisition unit 27 that acquires the interpretation report Rs, a position information acquisition unit 28, and a display control unit 29.

なお、図1に示したハードウェア機器と図8に示した各機能ブロックとが概ね1対1に対応する場合には同じ符号を付している。すなわち、内視鏡画像形成部2および所見作成部2Cの機能は図1のデジタルプロセッサによって実現され、3次元医用画像形成部5の機能は図1のモダリティによって実現され、内視鏡位置検出部20の機能は、内視鏡用マーカー7および位置センサ8によって実現される。また、破線枠は画像処理ワークステーション11を示しており、破線枠内の各処理部の機能は、画像処理ワークステーション11で所定のプログラムを実行することによって実現される。   In addition, when the hardware apparatus shown in FIG. 1 and each functional block shown in FIG. That is, the functions of the endoscope image forming unit 2 and the finding creating unit 2C are realized by the digital processor of FIG. 1, and the functions of the three-dimensional medical image forming unit 5 are realized by the modality of FIG. The function 20 is realized by the endoscope marker 7 and the position sensor 8. A broken line frame indicates the image processing workstation 11, and the functions of the processing units in the broken line frame are realized by executing a predetermined program on the image processing workstation 11.

次に、第2の実施形態において行われる処理について説明する。図9は本発明の第2の実施形態による内視鏡観察支援システムで行われる処理を示すフローチャートである。   Next, processing performed in the second embodiment will be described. FIG. 9 is a flowchart showing processing performed in the endoscope observation support system according to the second embodiment of the present invention.

まず、内視鏡1を用いた被検体の腹腔内の観察に先立って、3次元医用画像形成部5による被検体の撮影により、3次元医用画像Vが形成される。画像処理ワークステーション11では、3次元医用画像取得部22が、3次元医用画像形成部5によって形成された3次元医用画像Vを取得し(ステップST21)、3次元医用画像Vを画像情報データベース24に登録する(ステップST22)。以上の処理は、内視鏡下手術の前に行われる。   First, prior to observation of the subject in the abdominal cavity using the endoscope 1, a three-dimensional medical image V is formed by photographing the subject by the three-dimensional medical image forming unit 5. In the image processing workstation 11, the 3D medical image acquisition unit 22 acquires the 3D medical image V formed by the 3D medical image forming unit 5 (step ST21), and the 3D medical image V is stored in the image information database 24. (Step ST22). The above processing is performed before endoscopic surgery.

そして、内視鏡下手術中、すなわち内視鏡1を用いた被検体の腹腔内の観察中は、観察が終了するまで(ステップST32肯定)、内視鏡画像形成部2は、所定のフレームレートで体腔内に挿入された内視鏡1による内視鏡画像Sを繰り返し形成し、形成された内視鏡画像Sを内視鏡画像用ディスプレイ4にスルー動画としてリアルタイムに表示する(ステップST23)。また、内視鏡位置検出部20は、所定の時間間隔で、体腔内に挿入された内視鏡1の位置を繰り返しリアルタイムに検出し、内視鏡画像形成部2に入力する。なお、内視鏡画像Sは内視鏡画像取得部26により取得され、画像処理ワークステーション11内の所定のメモリ領域に逐次格納される。   During endoscopic surgery, that is, during observation of the subject in the abdominal cavity using the endoscope 1, the endoscopic image forming unit 2 performs a predetermined frame until the observation is completed (Yes in step ST <b> 32). The endoscope image S by the endoscope 1 inserted into the body cavity at a rate is repeatedly formed, and the formed endoscope image S is displayed on the endoscope image display 4 in real time as a through moving image (step ST23). ). In addition, the endoscope position detection unit 20 repeatedly detects the position of the endoscope 1 inserted into the body cavity in real time at a predetermined time interval and inputs the position to the endoscope image forming unit 2. The endoscopic image S is acquired by the endoscopic image acquisition unit 26 and sequentially stored in a predetermined memory area in the image processing workstation 11.

そして、デジタルプロセッサ2においてユーザである医師による所見入力の操作が行われると(ステップST24肯定)、内視鏡画像形成部2が、表示中の内視鏡画像S0の静止画像を撮影、すなわちキャプチャして、静止内視鏡画像Ssを内視鏡画像用ディスプレイ4に表示する(ステップST25)。また、内視鏡画像取得部26は、キャプチャされた静止内視鏡画像Ssを取得し(ステップST26)、画像処理ワークステーション11内の所定のメモリ領域に格納する。さらに、所見作成部2Cは、医師による所見の入力を受け付け、所見情報Ksおよび読影の対象とされた静止内視鏡画像Ssの位置を表す内視鏡位置情報Psを記録した読影レポートRsを作成する(ステップST27)。   Then, when a finding input operation is performed by a doctor who is a user in the digital processor 2 (Yes in step ST24), the endoscope image forming unit 2 captures, that is, captures a still image of the displayed endoscope image S0. Then, the static endoscope image Ss is displayed on the endoscope image display 4 (step ST25). The endoscopic image acquisition unit 26 acquires the captured still endoscope image Ss (step ST26) and stores it in a predetermined memory area in the image processing workstation 11. Further, the finding creation unit 2C receives the input of the finding by the doctor, and creates an interpretation report Rs in which the finding information Ks and the endoscope position information Ps indicating the position of the stationary endoscope image Ss to be interpreted are recorded. (Step ST27).

画像処理ワークステーション11では、所見取得部27が所見作成部9cによって作成された読影レポートRsを取得して、位置情報取得部28が読影レポートRsに記録された内視鏡位置情報Psを取得し(ステップST28)、さらに内視鏡位置情報Psを3次元医用画像Vの座標系における位置に変換して得られた変換位置Ps′を取得する(ステップST29)。   In the image processing workstation 11, the finding acquisition unit 27 acquires the interpretation report Rs created by the finding creation unit 9c, and the position information acquisition unit 28 acquires the endoscope position information Ps recorded in the interpretation report Rs. (Step ST28) Further, a conversion position Ps ′ obtained by converting the endoscope position information Ps into a position in the coordinate system of the three-dimensional medical image V is acquired (step ST29).

そして位置情報取得部28が、画像情報データベース24に登録された3次元医用画像Vにおいて、変換位置Ps′に対応する位置を特定し(ステップST30)、特定した位置を表す特定位置情報Pv1と読影レポートRsに記録された所見情報Ksとを対応づけ、さらに静止内視鏡画像Ssと読影レポートRsとを対応づけて画像情報データベース24に登録する(ステップST31)。この後、内視鏡画像用ディスプレイ4への静止内視鏡画像Ssの表示が解除され、内視鏡画像Sがリアルタイムで再度表示されることとなる。   Then, the position information acquisition unit 28 specifies a position corresponding to the conversion position Ps ′ in the three-dimensional medical image V registered in the image information database 24 (step ST30), and interprets the specific position information Pv1 representing the specified position and interpretation. The finding information Ks recorded in the report Rs is associated with each other, and the stationary endoscope image Ss and the interpretation report Rs are associated with each other and registered in the image information database 24 (step ST31). Thereafter, the display of the static endoscopic image Ss on the endoscopic image display 4 is canceled, and the endoscopic image S is displayed again in real time.

続いて、画像処理ワークステーション11は、観察終了を指示する操作がなされたか否かを判定し(ステップST32)、ステップST32が否定されるとステップST23に戻り、ステップST23以降の処理を繰り返す。ステップST32が肯定されると、それまでにメモリに格納した内視鏡画像S(動画)を画像情報データベース24に登録し(ステップST33)、処理を終了する。   Subsequently, the image processing workstation 11 determines whether or not an operation for instructing the end of observation has been performed (step ST32). If step ST32 is negative, the process returns to step ST23 and repeats the processes after step ST23. If step ST32 is affirmed, the endoscopic image S (moving image) stored in the memory so far is registered in the image information database 24 (step ST33), and the process is terminated.

図10は第2の実施形態における3次元医用画像の表示時の処理を示すフローチャートである。内視鏡手術後または手術中に、確認等のために3次元医用画像Vを医師が観察する場合、医師は画像処理ワークステーション11の入力装置を用いて3次元医用画像Vの表示の操作を行う(ステップST41肯定)。これにより、表示制御部29が画像処理ワークステーション11のディスプレイ12に3次元医用画像Vを表示するが、表示制御部29は、これから表示する3次元医用画像Vの位置(PvRとする)が特定位置情報Pv1により表される位置と一致するか否かを判定する(ステップST42)。   FIG. 10 is a flowchart showing processing at the time of displaying a three-dimensional medical image in the second embodiment. When a doctor observes the three-dimensional medical image V for confirmation or the like after the endoscopic operation or during the operation, the doctor uses the input device of the image processing workstation 11 to operate the display of the three-dimensional medical image V. Perform (Yes at step ST41). As a result, the display control unit 29 displays the three-dimensional medical image V on the display 12 of the image processing workstation 11, and the display control unit 29 specifies the position (PvR) of the three-dimensional medical image V to be displayed from now on. It is determined whether or not it matches the position represented by the position information Pv1 (step ST42).

この場合、位置PvRと特定位置情報Pv1により表される位置とが完全に一致したときに一致すると判定してもよいが、特定位置情報Pv1により表される位置を基準とした所定の空間的な範囲を定めるしきい値を設定し、このしきい値により定められる空間的な範囲内に位置PvRが含まれている場合には、一致すると判定するようにしてもよい。なお、しきい値はユーザが設定できるようにすればよい。   In this case, although it may be determined that the position PvR and the position represented by the specific position information Pv1 are completely matched, it may be determined that the position is the same. A threshold value that defines the range may be set, and if the position PvR is included in the spatial range defined by the threshold value, it may be determined that they match. The threshold value may be set by the user.

ステップST42が否定されると、表示制御部29はその位置の3次元医用画像Vを画像情報データベース24から取得してディスプレイ12に表示する(ステップST43)。なお、3次元医用画像Vは、複数の断層位置でのスライス画像あるいはボリュームレンダリング表示等により、ディスプレイ12に表示される。ステップST42が肯定されると、表示制御部29は、その位置の3次元医用画像Vおよび所見情報Ksを取得し、所見情報Ksにより表される所見Ksを3次元医用画像Vとともにディスプレイ12に表示する(ステップST44)。   If step ST42 is negative, the display control unit 29 acquires the three-dimensional medical image V at that position from the image information database 24 and displays it on the display 12 (step ST43). The three-dimensional medical image V is displayed on the display 12 by slice images or volume rendering display at a plurality of tomographic positions. If step ST42 is positive, the display control unit 29 acquires the three-dimensional medical image V and the finding information Ks at the position, and displays the finding Ks represented by the finding information Ks on the display 12 together with the three-dimensional medical image V. (Step ST44).

図11および図12は、ディスプレイ12における3次元医用画像Vおよび所見Ksの表示を説明するための図である。位置PvRが特定位置情報Pv1により表される位置と一致しないときには、図11に示すように3次元医用画像V(ここではあるスライス面のスライス画像)のみが表示されている。一方、位置PvRが特定位置情報Pv1により表される位置と一致する場合、図12に示すように、所見Ksが3次元医用画像Vに重畳されて表示される。なお、図13に示すように、所見情報Ksを取得した位置における静止内視鏡画像Ssを所見Ksとともに表示してもよい。   FIGS. 11 and 12 are diagrams for explaining the display of the three-dimensional medical image V and the finding Ks on the display 12. When the position PvR does not coincide with the position represented by the specific position information Pv1, only the three-dimensional medical image V (here, a slice image of a certain slice plane) is displayed as shown in FIG. On the other hand, when the position PvR matches the position represented by the specific position information Pv1, the finding Ks is superimposed on the three-dimensional medical image V and displayed as shown in FIG. In addition, as shown in FIG. 13, you may display the static endoscope image Ss in the position which acquired the finding information Ks with the finding Ks.

そして、医師により3次元医用画像Vの表示位置の変更操作がなされると(ステップST45肯定)、ステップST42に戻り、ステップST42以降の処理を繰り返す。ステップST45が否定されると、観察終了を指示する操作がなされたか否かを判定し(ステップST46)、ステップST46が否定されるとステップST45に戻る。ステップST46が肯定されると処理を終了する。   When the doctor changes the display position of the three-dimensional medical image V (Yes at step ST45), the process returns to step ST42, and the processes after step ST42 are repeated. If step ST45 is negative, it is determined whether or not an operation for instructing the end of observation has been performed (step ST46). If step ST46 is negative, the process returns to step ST45. If step ST46 is affirmed, the process ends.

次に、第2の実施形態における画像処理ワークステーション11内の各処理部で行われる処理の詳細について説明する。   Next, details of processing performed in each processing unit in the image processing workstation 11 in the second embodiment will be described.

所見作成部2Cの機能はデジタルプロセッサにより実現され、上述したように所見情報Ksおよび読影の対象とされた静止内視鏡画像Ssを取得した際の内視鏡1の位置を表す内視鏡位置情報Psを記録した読影レポートRsを作成する。   The function of the finding creation unit 2C is realized by a digital processor, and as described above, an endoscope position representing the position of the endoscope 1 when obtaining the finding information Ks and the stationary endoscope image Ss to be interpreted. An interpretation report Rs in which information Ps is recorded is created.

所見取得部27は、デジタルプロセッサ2から読影レポートRsを受信し、画像処理ワークステーション11の所定のメモリ領域に格納する通信インターフェース機能を有する。   The finding acquisition unit 27 has a communication interface function for receiving the interpretation report Rs from the digital processor 2 and storing it in a predetermined memory area of the image processing workstation 11.

位置情報取得部28は、読影レポートRsから取得した内視鏡位置情報Psを位置センサ8の3次元座標系から3次元医用画像Vの3次元座標系の座標値で表現された変換位置Ps′に変換して画像処理ワークステーション11の所定のメモリ領域に格納する機能を有するとともに、変換位置Ps′に対応する位置を、画像情報データベース24に登録された3次元医用画像Vにおいて特定し、特定した位置を表す特定位置情報Pv1を、読影レポートRsに記録された所見情報Ksと対応づけて画像情報データベース24に登録する機能を有する。なお、この座標変換機能は、第1の実施形態において内視鏡位置取得部21が行う機能と同一である。   The position information acquisition unit 28 converts the endoscope position information Ps acquired from the interpretation report Rs from the three-dimensional coordinate system of the position sensor 8 to the converted position Ps ′ expressed by the coordinate values of the three-dimensional coordinate system of the three-dimensional medical image V. And a position corresponding to the converted position Ps ′ is specified in the three-dimensional medical image V registered in the image information database 24 and specified. The specific position information Pv1 representing the determined position is registered in the image information database 24 in association with the finding information Ks recorded in the interpretation report Rs. This coordinate conversion function is the same as the function performed by the endoscope position acquisition unit 21 in the first embodiment.

表示制御部29は、3次元医用画像Vおよび必要な場合には所見Ksを1画面に並べた表示画面を生成し、ディスプレイ12に出力する。   The display control unit 29 generates a display screen in which the three-dimensional medical image V and the finding Ks are arranged on one screen, if necessary, and outputs the display screen to the display 12.

このように、本発明の第2の実施形態においては、所見情報作成部2Cが静止内視鏡画像Ssについての所見を得た体腔内の内視鏡の位置を表す内視鏡位置情報Psと所見情報Ksとを記録した読影レポートRsを作成し、位置情報取得部28が、読影レポートRvに記録された内視鏡位置情報Psに対応する3次元医用画像V上の位置を特定し、特定された位置を表す特定位置情報Pv1と所見情報Ksとを対応づけて画像情報データベース24に登録するようにしたものである。   As described above, in the second embodiment of the present invention, the endoscope position information Ps representing the position of the endoscope in the body cavity where the finding information creation unit 2C has obtained the findings about the stationary endoscope image Ss and An interpretation report Rs in which the observation information Ks is recorded is created, and the position information acquisition unit 28 identifies and identifies the position on the three-dimensional medical image V corresponding to the endoscope position information Ps recorded in the interpretation report Rv. The specific position information Pv1 representing the position and the finding information Ks are registered in the image information database 24 in association with each other.

このため、ユーザである医師は、3次元医用画像Vを観察する際に、内視鏡1を用いての手術、検査等の内視鏡観察時に作成された所見を、その所見を作成した位置に対応する位置の3次元医用画像Vとともに簡易かつ迅速に確認することができる。とくに、所見は、被検体の体腔内の病変がある位置等の内視鏡を用いての手術、検査を行うに際して重要な位置において作成されるため、医師は、内視鏡観察中あるいは内視鏡観察後に、そのような重要な位置についての3次元医用画像Vを所見Ksとともに確認することができる。したがって、内視鏡観察時に重要であるとされた位置における3次元医用画像Vを用いての診断を安全かつ確実に行うことができる。   For this reason, when a doctor who is a user observes the three-dimensional medical image V, the position created at the time of observing an endoscope such as surgery or examination using the endoscope 1 is created. Can be confirmed easily and quickly together with the three-dimensional medical image V at the position corresponding to. In particular, findings are created at important positions when performing surgery and examinations using an endoscope, such as where there is a lesion in the body cavity of the subject. After the mirror observation, the three-dimensional medical image V for such an important position can be confirmed together with the finding Ks. Therefore, the diagnosis using the three-dimensional medical image V at a position that is important at the time of endoscopic observation can be performed safely and reliably.

なお、上記第2の実施形態においては、所見Ksをディスプレイ12に表示することにより通知しているが、第1の実施形態と同様に、画像処理ワークステーション11にスピーカー等からなる音声出力部(不図示)を設け、音声出力部から所見Ksを音声により出力することにより通知してもよい。この際、所見Ksをディスプレイ12に併せて表示するようにしてもよい。さらに、ビープ音等により所見Ksが表示されたことを通知するようにしてもよい。   In the second embodiment, the observation Ks is notified by being displayed on the display 12. However, as in the first embodiment, the image processing workstation 11 has an audio output unit (such as a speaker). (Not shown) may be provided, and the observation Ks may be output by voice from the voice output unit. At this time, the finding Ks may be displayed together with the display 12. Further, it may be notified that the finding Ks is displayed by a beep sound or the like.

また、上記第2の実施形態において、特定位置情報Pv1は内視鏡位置情報Psに基づいて求められている。内視鏡1は、それが存在する位置よりも先にある部位を撮影するものであるため、3次元医用画像V内の特定位置情報Pv1により表される位置には、その位置に対応する位置の静止内視鏡画像Ssに含まれる病変等が含まれない場合がある。このため、3次元医用画像Vの表示中において所見Ksを表示した際に、所見Ksが対応づけられている3次元医用画像V上の位置を編集できるようにし、3次元医用画像V上において実際に病変が視認される位置と所見Ksとを正確に対応づけられるようにしてもよい。   In the second embodiment, the specific position information Pv1 is obtained based on the endoscope position information Ps. Since the endoscope 1 captures a part ahead of the position where the endoscope 1 exists, the position represented by the specific position information Pv1 in the three-dimensional medical image V is a position corresponding to the position. In some cases, a lesion included in the still endoscope image Ss is not included. For this reason, when the finding Ks is displayed while the 3D medical image V is being displayed, the position on the 3D medical image V to which the finding Ks is associated can be edited, and the actual 3D medical image V is displayed. The position where the lesion is visually recognized and the finding Ks may be associated with each other accurately.

また、上記第2の実施形態においては、静止内視鏡画像Ssと読影レポートRsとを対応づけて画像情報データベース24に登録する際に、3次元医用画像Vにおける特定位置情報Pv1を併せて登録するようにしてもよい。また、静止内視鏡画像Ssの画像データの付帯情報に、3次元医用画像Vにおける特定位置情報Pv1を記述するようにしてもよい。これにより、複数の静止内視鏡画像Ssがキャプチャされた場合において、所望とする静止内視鏡画像Ssを術後または術中に表示する際に、画像情報データベース24に登録されたあるいは付帯情報に記述された特定位置情報Pv1を参照して、その位置に対応する3次元医用画像Vを内視鏡画像Sとともに表示することが可能となる。   In the second embodiment, when the static endoscope image Ss and the interpretation report Rs are registered in the image information database 24 in association with each other, the specific position information Pv1 in the three-dimensional medical image V is also registered. You may make it do. Further, the specific position information Pv1 in the three-dimensional medical image V may be described in the incidental information of the image data of the static endoscope image Ss. Thereby, when a plurality of still endoscopic images Ss are captured, when the desired still endoscopic image Ss is displayed after or during the operation, it is registered in the image information database 24 or in the accompanying information. With reference to the described specific position information Pv1, it becomes possible to display the three-dimensional medical image V corresponding to the position together with the endoscopic image S.

ところで、内視鏡1にはバルーンが取り付けられ、体腔内でバルーンを膨らませることにより、内視鏡観察を容易にしたバルーン内視鏡が知られている。このようなバルーン内視鏡を体腔内で膨らませると、その周辺の臓器が拡張するように変形するため、対応する位置の3次元医用画像Vに含まれる臓器の形状と、内視鏡画像Sに含まれる臓器の形状とが一致しなくなる。このように3次元医用画像Vに含まれる臓器の形状と、内視鏡画像に含まれる臓器の形状とが一致しないと、上記第1および第2の実施形態において、内視鏡画像Sと3次元医用画像Vとを同時に表示した際に、表示されている部位が一致しないように見えてしまう。   By the way, a balloon endoscope is known in which a balloon is attached to the endoscope 1 and the balloon is inflated in a body cavity to facilitate endoscopic observation. When such a balloon endoscope is inflated in the body cavity, the surrounding organs are deformed so as to expand. Therefore, the shape of the organ included in the three-dimensional medical image V at the corresponding position and the endoscopic image S Does not match the shape of the organs contained in. As described above, if the shape of the organ included in the three-dimensional medical image V does not match the shape of the organ included in the endoscopic image, in the first and second embodiments, the endoscopic images S and 3 are used. When the three-dimensional medical image V is displayed at the same time, it appears that the displayed parts do not match.

このため、バルーン内視鏡を用いての観察下においては、膨らませたバルーンの大きさの情報に基づいて、3次元医用画像Vにおける変換位置Ps′に対応する位置を変形させることが好ましい。なお、変形は、例えばWO2007/015365号明細書に記載されているように、3次元医用画像Vを四面体の集合により近似し、公知の有限要素法の手法を用いて四面体のメッシュ構造を変形する手法を用いることができる。これにより、3次元医用画像Vに含まれる臓器の形状を内視鏡画像Sに含まれる臓器の形状と一致させることができる。なお、3次元医用画像Vの変形は、内視鏡を用いての観察中に行うことができるが、バルーンを膨らませる位置があらかじめ分かっている場合には、観察前に3次元医用画像Vを変形しておくようにしてもよい。   For this reason, it is preferable to deform the position corresponding to the conversion position Ps ′ in the three-dimensional medical image V based on information on the size of the inflated balloon under observation using a balloon endoscope. For example, as described in the specification of WO 2007/015365, the deformation approximates the three-dimensional medical image V by a set of tetrahedrons, and uses a known finite element method technique to change the tetrahedral mesh structure. Deformation techniques can be used. Thereby, the shape of the organ included in the three-dimensional medical image V can be matched with the shape of the organ included in the endoscopic image S. The three-dimensional medical image V can be deformed during observation using the endoscope. However, if the position where the balloon is inflated is known in advance, the three-dimensional medical image V is displayed before observation. You may make it deform | transform.

また、内視鏡画像Sとその表示中の位置に対応する3次元医用画像Vとを併せて表示し、バルーンを膨らませることによる内視鏡画像Sに含まれる臓器の形状の変更を反映させるように、表示中の3次元医用画像Vを変形するようにしてもよい。   In addition, the endoscope image S and the three-dimensional medical image V corresponding to the position being displayed are displayed together to reflect the change in the shape of the organ included in the endoscope image S by inflating the balloon. As described above, the three-dimensional medical image V being displayed may be deformed.

なお、3次元医用画像Vを変形させると、所見情報Kvが対応づけられている位置が変更される場合がある。このような場合は、3次元医用画像Vの変形に伴い、画像情報データベース24に登録されている読影レポートRvに記録された位置情報Kvを更新することが好ましい。   Note that when the three-dimensional medical image V is deformed, the position associated with the finding information Kv may be changed. In such a case, it is preferable to update the position information Kv recorded in the interpretation report Rv registered in the image information database 24 as the three-dimensional medical image V is deformed.

なお、上記第1および第2の実施形態はあくまでも例示であり、上記のすべての説明が本発明の技術的範囲を限定的に解釈するために利用されるべきものではない。   In addition, the said 1st and 2nd embodiment is an illustration to the last, and all said description should not be utilized in order to interpret the technical scope of this invention restrictively.

この他、上記第1および第2の実施形態におけるシステム構成、ハードウェア構成、処理フロー、モジュール構成、ユーザインターフェースや具体的処理内容等に対して、本発明の趣旨から逸脱しない範囲で様々な改変を行ったものも、本発明の技術的範囲に含まれる。   In addition, various modifications can be made to the system configuration, hardware configuration, processing flow, module configuration, user interface, specific processing contents, and the like in the first and second embodiments without departing from the spirit of the present invention. Those performed are also included in the technical scope of the present invention.

例えば、システム構成については、上記実施形態では、図1のハードウェア構成では、モダリティ5と読影ワークステーション9および画像処理ワークステーション11とが直接接続されているが、画像保管サーバをLAN上に接続し、モダリティ5で形成された3次元医用画像Vを、一旦画像保管サーバのデータベースに格納されるようにし、読影ワークステーション9および画像処理ワークステーション11からの要求に応じて、画像保管サーバから読影ワークステーション9および画像処理ワークステーション11に3次元医用画像Vが転送されるようにしてもよい。   For example, regarding the system configuration, in the above embodiment, in the hardware configuration of FIG. 1, the modality 5, the image interpretation workstation 9 and the image processing workstation 11 are directly connected, but the image storage server is connected on the LAN. The three-dimensional medical image V formed by the modality 5 is temporarily stored in the database of the image storage server, and is read from the image storage server in response to requests from the image interpretation workstation 9 and the image processing workstation 11. The three-dimensional medical image V may be transferred to the workstation 9 and the image processing workstation 11.

また、内視鏡1は、硬性鏡ではなく、軟性鏡やカプセル型内視鏡を用いてもよい。   Further, the endoscope 1 may be a flexible endoscope or a capsule endoscope instead of a rigid endoscope.

モダリティ5は、上記のCT装置の他、超音波診断装置またはMRI装置等を用いてもよい。   The modality 5 may use an ultrasonic diagnostic apparatus or an MRI apparatus in addition to the above CT apparatus.

内視鏡位置検出部20は、磁気式のものを用いてもよいし、例えば特開2005−21353号公報に記載されているジャイロやロータリーエンコーダ等を用いてもよい。   The endoscope position detection unit 20 may be a magnetic type, or may be a gyroscope, a rotary encoder, or the like described in JP-A-2005-21353, for example.

さらに、観察部位は腹腔内ではなく、胸腔内等、内視鏡下での観察に適した被検体の他の部位であってもよい。   Furthermore, the observation site may be another site of the subject suitable for observation under the endoscope, such as in the chest cavity, not in the abdominal cavity.

1 内視鏡
2 デジタルプロセッサ
3 光源装置
4 内視鏡画像用ディスプレイ
5 モダリティ
7 内視鏡用マーカー
8 位置センサ
9 読影ワークステーション
10 読影ワークステーション用ディスプレイ
11 画像処理ワークステーション
12 画像処理ワークステーション用ディスプレイ
20 内視鏡位置検出部
21 内視鏡位置取得部
22 3次元医用画像取得部
23 所見取得部
24 画像情報データベース
25 検索部
26 内視鏡画像取得部
27 所見取得部
28 位置情報取得部
29 表示制御部
DESCRIPTION OF SYMBOLS 1 Endoscope 2 Digital processor 3 Light source device 4 Endoscopic image display 5 Modality 7 Endoscopic marker 8 Position sensor 9 Interpretation workstation 10 Interpretation workstation display 11 Image processing workstation 12 Display for image processing workstation DESCRIPTION OF SYMBOLS 20 Endoscope position detection part 21 Endoscope position acquisition part 22 3D medical image acquisition part 23 Finding acquisition part 24 Image information database 25 Search part 26 Endoscope image acquisition part 27 Finding acquisition part 28 Position information acquisition part 29 Display Control unit

Claims (11)

被検体の3次元医用画像を取得する第1の画像取得手段と、
前記被検体の体腔内に挿入された内視鏡により撮影した、前記体腔内の内視鏡画像を取得する第2の画像取得手段と、
前記内視鏡画像を表示する表示手段と、
前記3次元医用画像についての少なくとも1つの所見を、該3次元医用画像内における該所見を得た位置を表す所見位置情報と対応づけて記憶する記憶手段と、
前記体腔内の前記内視鏡のリアルタイムの位置を表す内視鏡位置情報を取得する内視鏡位置取得手段と、
前記3次元医用画像内における前記内視鏡位置情報により表される位置が、前記所見位置情報により表される位置を基準とした所定空間範囲内に位置した際に、前記所見を通知する通知手段とを備えたことを特徴とする観察支援システム。
First image acquisition means for acquiring a three-dimensional medical image of a subject;
Second image acquisition means for acquiring an endoscopic image in the body cavity imaged by an endoscope inserted into the body cavity of the subject;
Display means for displaying the endoscopic image;
Storage means for storing at least one finding about the three-dimensional medical image in association with finding position information representing a position where the finding is obtained in the three-dimensional medical image;
Endoscope position acquisition means for acquiring endoscope position information representing a real-time position of the endoscope in the body cavity;
Notification means for notifying the finding when the position represented by the endoscope position information in the three-dimensional medical image is located within a predetermined spatial range with reference to the position represented by the finding position information. An observation support system characterized by comprising:
前記通知手段は、前記表示手段への前記所見の表示および/または音声出力により前記所見を通知する手段であることを特徴とする請求項1記載の観察支援システム。   2. The observation support system according to claim 1, wherein the notifying means is means for notifying the findings by displaying the findings on the display means and / or outputting sound. 前記表示手段は、前記所見の通知がなされると、通知する所見を取得した位置における前記3次元医用画像を表示する手段であることを特徴とする請求項1または2記載の観察支援システム。   3. The observation support system according to claim 1, wherein when the finding is notified, the display means displays the three-dimensional medical image at a position where the finding to be notified is acquired. 被検体の3次元医用画像を取得する第1の画像取得手段と、
前記被検体の体腔内に挿入された内視鏡により撮影した、前記体腔内の内視鏡画像を取得する第2の画像取得手段と、
前記内視鏡画像を表示する表示手段と、
前記体腔内の少なくとも1つの位置についての所見を取得する所見取得手段と、
該所見を得た前記体腔内の前記内視鏡の位置を表す内視鏡位置情報を取得する内視鏡位置取得手段と、
前記3次元医用画像内における前記内視鏡位置情報に対応する位置を特定し、該特定された位置を表す特定位置情報と前記所見とを対応づけて記憶する記憶手段とを備えたことを特徴とする観察支援システム。
First image acquisition means for acquiring a three-dimensional medical image of a subject;
Second image acquisition means for acquiring an endoscopic image in the body cavity imaged by an endoscope inserted into the body cavity of the subject;
Display means for displaying the endoscopic image;
A finding acquisition means for acquiring a finding about at least one position in the body cavity;
Endoscope position acquisition means for acquiring endoscope position information representing the position of the endoscope in the body cavity that has obtained the findings;
Storage means for specifying a position corresponding to the endoscope position information in the three-dimensional medical image and storing the specific position information representing the specified position and the findings in association with each other is provided. An observation support system.
前記特定位置情報により表される位置における前記3次元医用画像を表示する他の表示手段と、
前記特定位置情報により表される位置の前記3次元医用画像を前記他の表示手段に表示する際に、該位置に対応づけられた前記所見を通知する通知手段とをさらに備えたことを特徴とする請求項4記載の観察支援システム。
Other display means for displaying the three-dimensional medical image at the position represented by the specific position information;
And a notification means for notifying the finding associated with the position when the three-dimensional medical image at the position represented by the specific position information is displayed on the other display means. The observation support system according to claim 4.
前記通知手段は、前記他の表示手段への前記所見の表示および/または音声出力により前記所見を通知する手段であることを特徴とする請求項4または5記載の観察支援システム。   6. The observation support system according to claim 4, wherein the notifying means is means for notifying the finding by displaying the finding on the other displaying means and / or outputting sound. 前記他の表示手段は、前記所見の通知がなされると、通知する所見を取得した位置における前記内視鏡画像を表示する手段であることを特徴とする請求項4から6のいずれか1項記載の観察支援システム。   The said other display means is a means to display the said endoscopic image in the position which acquired the finding to notify, when notification of the said finding is made, The any one of Claim 4 to 6 characterized by the above-mentioned. The observation support system described. 被検体の3次元医用画像を取得するステップと、
前記被検体の体腔内に挿入された内視鏡により撮影した、前記体腔内の内視鏡画像を取得するステップと、
前記内視鏡画像を表示するステップと、
前記3次元医用画像についての少なくとも1つの所見を、該3次元医用画像内における該所見を得た位置を表す所見位置情報と対応づけて記憶するステップと、
前記体腔内の前記内視鏡のリアルタイムの位置を表す内視鏡位置情報を取得するステップと、
前記3次元医用画像内における前記内視鏡位置情報により表される位置が、前記所見位置情報により表される位置を基準とした所定空間範囲内に位置した際に、前記所見を通知するステップとを有することを特徴とする観察支援方法。
Obtaining a three-dimensional medical image of the subject;
Obtaining an endoscopic image in the body cavity imaged by an endoscope inserted into the body cavity of the subject; and
Displaying the endoscopic image;
Storing at least one finding about the three-dimensional medical image in association with finding position information representing a position where the finding is obtained in the three-dimensional medical image;
Obtaining endoscope position information representing a real-time position of the endoscope in the body cavity;
Notifying the observation when the position represented by the endoscope position information in the three-dimensional medical image is located within a predetermined spatial range with reference to the position represented by the finding position information; An observation support method characterized by comprising:
被検体の3次元医用画像を取得するステップと、
前記被検体の体腔内に挿入された内視鏡により撮影した、前記体腔内の内視鏡画像を取得するステップと、
前記内視鏡画像を表示するステップと、
前記体腔内の少なくとも1つの位置についての所見を取得するステップと、
該所見を得た前記体腔内の前記内視鏡の位置を表す内視鏡位置情報を取得するステップと、
前記3次元医用画像内における前記内視鏡位置情報に対応する位置を特定し、該特定された位置を表す特定位置情報と前記所見とを対応づけて記憶するステップとを有することを特徴とする観察支援方法。
Obtaining a three-dimensional medical image of the subject;
Obtaining an endoscopic image in the body cavity imaged by an endoscope inserted into the body cavity of the subject; and
Displaying the endoscopic image;
Obtaining a finding for at least one location within the body cavity;
Obtaining endoscope position information representing the position of the endoscope in the body cavity that obtained the findings;
A step of specifying a position corresponding to the endoscope position information in the three-dimensional medical image, and storing the specific position information representing the specified position and the findings in association with each other. Observation support method.
コンピュータに、被検体の3次元医用画像を取得する手順と、
前記被検体の体腔内に挿入された内視鏡により撮影した、前記体腔内の内視鏡画像を取得する手順と、
前記内視鏡画像を表示する手順と、
前記3次元医用画像についての少なくとも1つの所見を、該3次元医用画像内における該所見を得た位置を表す所見位置情報と対応づけて記憶する手順と、
前記体腔内の前記内視鏡のリアルタイムの位置を表す内視鏡位置情報を取得する手順と、
前記3次元医用画像内における前記内視鏡位置情報により表される位置が、前記所見位置情報により表される位置を基準とした所定空間範囲内に位置した際に、前記所見を通知する手順とを実行させることを特徴とする観察支援プログラム。
A procedure for acquiring a three-dimensional medical image of a subject in a computer;
A procedure for acquiring an endoscopic image in the body cavity, which is taken by an endoscope inserted into the body cavity of the subject;
Displaying the endoscopic image;
Storing at least one finding about the three-dimensional medical image in association with finding position information representing a position where the finding is obtained in the three-dimensional medical image;
Obtaining endoscope position information representing a real-time position of the endoscope in the body cavity;
A procedure for notifying the finding when the position represented by the endoscope position information in the three-dimensional medical image is located within a predetermined spatial range with reference to the position represented by the finding position information; Observation support program characterized by causing
コンピュータに、被検体の3次元医用画像を取得する手順と、
前記被検体の体腔内に挿入された内視鏡により撮影した、前記体腔内の内視鏡画像を取得する手順と、
前記内視鏡画像を表示する手順と、
前記体腔内の少なくとも1つの位置についての所見を取得する手順と、
該所見を得た前記体腔内の前記内視鏡の位置を表す内視鏡位置情報を取得する手順と、
前記3次元医用画像内における前記内視鏡位置情報に対応する位置を特定し、該特定された位置を表す特定位置情報と前記所見とを対応づけて記憶する手順とを実行させることを特徴とする観察支援プログラム。
A procedure for acquiring a three-dimensional medical image of a subject in a computer;
A procedure for acquiring an endoscopic image in the body cavity, which is taken by an endoscope inserted into the body cavity of the subject;
Displaying the endoscopic image;
Obtaining a finding for at least one location within the body cavity;
Obtaining endoscope position information representing the position of the endoscope in the body cavity that obtained the findings;
A step of specifying a position corresponding to the endoscope position information in the three-dimensional medical image and storing the specific position information representing the specified position and the findings in association with each other. Observation support program.
JP2010075201A 2010-03-29 2010-03-29 Observation support system, method and program Active JP5504028B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010075201A JP5504028B2 (en) 2010-03-29 2010-03-29 Observation support system, method and program
PCT/JP2011/001842 WO2011121986A1 (en) 2010-03-29 2011-03-28 Observation support system, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010075201A JP5504028B2 (en) 2010-03-29 2010-03-29 Observation support system, method and program

Publications (2)

Publication Number Publication Date
JP2011206168A true JP2011206168A (en) 2011-10-20
JP5504028B2 JP5504028B2 (en) 2014-05-28

Family

ID=44711748

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010075201A Active JP5504028B2 (en) 2010-03-29 2010-03-29 Observation support system, method and program

Country Status (2)

Country Link
JP (1) JP5504028B2 (en)
WO (1) WO2011121986A1 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014041790A1 (en) 2012-09-13 2014-03-20 富士フイルム株式会社 Device and method for displaying three-dimensional image, and program
WO2014041791A1 (en) 2012-09-13 2014-03-20 富士フイルム株式会社 Device and method for displaying three-dimensional image, and program
JP2015112429A (en) * 2013-12-13 2015-06-22 オリンパスメディカルシステムズ株式会社 Image processor
CN106256310A (en) * 2016-08-18 2016-12-28 中国科学院深圳先进技术研究院 It is automatically adjusted the method and system of nasal endoscopes pose
JP2017047009A (en) * 2015-09-03 2017-03-09 東芝メディカルシステムズ株式会社 Medical image display apparatus
JP2018514340A (en) * 2015-05-11 2018-06-07 シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft Method and system for aligning 2D / 2.5D laparoscopic image data or 2D / 2.5D endoscopic image data with 3D volumetric image data
WO2018211674A1 (en) * 2017-05-18 2018-11-22 オリンパス株式会社 Image processing device, image processing method, and program
JP2020010734A (en) * 2018-07-13 2020-01-23 富士フイルム株式会社 Inspection support device, method, and program
WO2021250951A1 (en) * 2020-06-08 2021-12-16 Hoya株式会社 Program, information processing method, and information processing device

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8907914B2 (en) * 2012-08-31 2014-12-09 General Electric Company Methods and apparatus for documenting a procedure
DK178899B1 (en) * 2015-10-09 2017-05-08 3Dintegrated Aps A depiction system
WO2018235420A1 (en) * 2017-06-19 2018-12-27 オリンパス株式会社 Medical information processing system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004105725A (en) * 2002-08-30 2004-04-08 Olympus Corp Endoscope system and endoscope inserting action program
JP2004180940A (en) * 2002-12-03 2004-07-02 Olympus Corp Endoscope
JP2006020874A (en) * 2004-07-08 2006-01-26 Olympus Corp Endoscope insertion support device
JP2009529951A (en) * 2006-03-13 2009-08-27 ブラッコ イメージング エス.ピー.エー. Method and apparatus for recording and reviewing a surgical navigation process
WO2010032496A1 (en) * 2008-09-19 2010-03-25 コニカミノルタエムジー株式会社 Medical image system, virtual endoscopic viewer apparatus, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004105725A (en) * 2002-08-30 2004-04-08 Olympus Corp Endoscope system and endoscope inserting action program
JP2004180940A (en) * 2002-12-03 2004-07-02 Olympus Corp Endoscope
JP2006020874A (en) * 2004-07-08 2006-01-26 Olympus Corp Endoscope insertion support device
JP2009529951A (en) * 2006-03-13 2009-08-27 ブラッコ イメージング エス.ピー.エー. Method and apparatus for recording and reviewing a surgical navigation process
WO2010032496A1 (en) * 2008-09-19 2010-03-25 コニカミノルタエムジー株式会社 Medical image system, virtual endoscopic viewer apparatus, and program

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10347033B2 (en) 2012-09-13 2019-07-09 Fujifilm Corporation Three-dimensional image display apparatus, method, and program
US9495794B2 (en) 2012-09-13 2016-11-15 Fujifilm Corporation Three-dimensional image display apparatus, method, and program
WO2014041790A1 (en) 2012-09-13 2014-03-20 富士フイルム株式会社 Device and method for displaying three-dimensional image, and program
WO2014041791A1 (en) 2012-09-13 2014-03-20 富士フイルム株式会社 Device and method for displaying three-dimensional image, and program
JP2015112429A (en) * 2013-12-13 2015-06-22 オリンパスメディカルシステムズ株式会社 Image processor
JP2018514340A (en) * 2015-05-11 2018-06-07 シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft Method and system for aligning 2D / 2.5D laparoscopic image data or 2D / 2.5D endoscopic image data with 3D volumetric image data
JP2017047009A (en) * 2015-09-03 2017-03-09 東芝メディカルシステムズ株式会社 Medical image display apparatus
CN106256310B (en) * 2016-08-18 2018-04-13 中国科学院深圳先进技术研究院 Automatically adjust the method and system of nasal endoscopes pose
CN106256310A (en) * 2016-08-18 2016-12-28 中国科学院深圳先进技术研究院 It is automatically adjusted the method and system of nasal endoscopes pose
WO2018211674A1 (en) * 2017-05-18 2018-11-22 オリンパス株式会社 Image processing device, image processing method, and program
JP2020010734A (en) * 2018-07-13 2020-01-23 富士フイルム株式会社 Inspection support device, method, and program
JP7023195B2 (en) 2018-07-13 2022-02-21 富士フイルム株式会社 Inspection support equipment, methods and programs
WO2021250951A1 (en) * 2020-06-08 2021-12-16 Hoya株式会社 Program, information processing method, and information processing device
JP7377769B2 (en) 2020-06-08 2023-11-10 Hoya株式会社 Program, information processing method, and information processing device

Also Published As

Publication number Publication date
JP5504028B2 (en) 2014-05-28
WO2011121986A1 (en) 2011-10-06

Similar Documents

Publication Publication Date Title
JP5504028B2 (en) Observation support system, method and program
CN108324246B (en) Medical diagnosis assisting system and method
CN110769740B (en) Universal apparatus and method for integrating diagnostic tests into real-time therapy
JP5222082B2 (en) Information processing apparatus, control method therefor, and data processing system
JP4875416B2 (en) Medical guide system
JP6510301B2 (en) MEDICAL SUPPORT SYSTEM, MEDICAL SUPPORT METHOD, IMAGE PROCESSING APPARATUS, AND CONTROL METHOD AND CONTROL PROGRAM THEREOF
JP2015186567A (en) Medical image processing apparatus and medical image processing system
JP2008043524A (en) Medical image processing apparatus and medical image processing program
WO2012014438A1 (en) Device, method, and program for assisting endoscopic observation
JP2012115635A (en) Image processing method, image processing apparatus, imaging system, and program code
US20100303330A1 (en) Radiographic image display apparatus, and its method and computer program product
JP5961504B2 (en) Virtual endoscopic image generating apparatus, operating method thereof, and program
JP5934070B2 (en) Virtual endoscopic image generating apparatus, operating method thereof, and program
JP2017164075A (en) Image alignment device, method and program
JP6066197B2 (en) Surgery support apparatus, method and program
JP2013052245A (en) Information processing device and information processing method
JP5363962B2 (en) Diagnosis support system, diagnosis support program, and diagnosis support method
CN113317874B (en) Medical image processing device and medium
US20110242096A1 (en) Anatomy diagram generation method and apparatus, and medium storing program
JP5992853B2 (en) Surgery support apparatus, method and program
JP2017204041A (en) Observation information creation device and system
WO2023275974A1 (en) Image processing device, image processing method, and storage medium
US20230215059A1 (en) Three-dimensional model reconstruction
JP7164877B2 (en) Information sharing system
JP2023166228A (en) Medical support device, medical support method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140317

R150 Certificate of patent or registration of utility model

Ref document number: 5504028

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250