JP2005218584A - Display processor of image information and its display processing method and display processing program - Google Patents

Display processor of image information and its display processing method and display processing program Download PDF

Info

Publication number
JP2005218584A
JP2005218584A JP2004028579A JP2004028579A JP2005218584A JP 2005218584 A JP2005218584 A JP 2005218584A JP 2004028579 A JP2004028579 A JP 2004028579A JP 2004028579 A JP2004028579 A JP 2004028579A JP 2005218584 A JP2005218584 A JP 2005218584A
Authority
JP
Japan
Prior art keywords
position information
image
display
information
image information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004028579A
Other languages
Japanese (ja)
Other versions
JP3984230B2 (en
JP2005218584A5 (en
Inventor
Katsumi Hirakawa
克己 平川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2004028579A priority Critical patent/JP3984230B2/en
Priority to EP04819963A priority patent/EP1690491A4/en
Priority to PCT/JP2004/018170 priority patent/WO2005053518A1/en
Priority to EP13003512.4A priority patent/EP2649931B1/en
Publication of JP2005218584A publication Critical patent/JP2005218584A/en
Priority to US11/418,534 priority patent/US8368746B2/en
Publication of JP2005218584A5 publication Critical patent/JP2005218584A5/ja
Application granted granted Critical
Publication of JP3984230B2 publication Critical patent/JP3984230B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a display processor, a display processing method and display processing program of image information, capable of easily recognizing many pieces of the image information and easily searching the image information in which a desired position or a lesion or the like to be paid attention to is imaged from many pieces of the image information. <P>SOLUTION: An image acquired by continuous imaging according to a time axis by using an encapsulated endoscope is correlated with the imaging position and made into a database. The left side of a display screen 38 of a monitor device 21 displays an in-examiner model 26, a passing track 37 of the encapsulated endoscope 3, and a position mark 39 indicating the imaging position. An image 42 corresponding to the position of the position mark 39 is displayed at an image display area 41 at the right side. When the position mark 39 on the passing track 37 is specified by a mouse, a corresponding image 42 is displayed. It is also possible to specify a section and display the image 42 corresponding to the position mark 39 only for the section or to specify the position mark 39 where a special image is picked up. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、例えばカプセル型内視鏡のように、自律的若しくは他律的に被検体内を移動し、経時的に撮像して得た複数の画像情報を表示処理する画像情報の表示処理装置、その表示処理方法及び表示処理プログラムに関する。   The present invention relates to an image information display processing device that displays a plurality of pieces of image information obtained by moving within a subject autonomously or otherwise and taking images over time, such as a capsule endoscope. The present invention relates to a display processing method and a display processing program.

近年、内視鏡分野においては、飲込みタイプの内視鏡である、所謂カプセル型内視鏡が登場している(例えば、特許文献1参照。)
このカプセル型内視鏡は、撮像機能と無線通信機能とを有しており、観察又は検査のために患者の口から飲込まれた後、人体から自然排出されるまでの観察期間、胃、小腸等の臓器を順次撮像し、撮像による画像情報(画像を表現する電子データ)を順次無線送信するものである。
In recent years, in the field of endoscopes, so-called capsule endoscopes that are swallowing type endoscopes have appeared (for example, see Patent Document 1).
This capsule endoscope has an imaging function and a wireless communication function, and after being swallowed from the patient's mouth for observation or examination, an observation period until it is naturally discharged from the human body, the stomach, An organ such as the small intestine is sequentially imaged, and image information (electronic data representing the image) obtained by the imaging is sequentially wirelessly transmitted.

このようにして無線送信された画像情報は、患者の体外に設けられた受信機により受信され所定のメモリに蓄積されるようになっており、その後、必要に応じて読み出してディスプレイに表示等することにより、医師の診断等に利用することができるようになっている。
米国特許出願公開第2002/0177779A1号明細書
The image information wirelessly transmitted in this manner is received by a receiver provided outside the patient's body and stored in a predetermined memory. Thereafter, the image information is read out as necessary and displayed on a display. Thus, it can be used for doctor's diagnosis and the like.
US Patent Application Publication No. 2002 / 0177779A1

しかしながら、このようなカプセル型内視鏡においては、通常の内視鏡と異なり、患者の口から飲み込まれてから自然排出されるまでの期間が観察や検査期間となることから、観察や検査期間が例えば10時間以上といった具合に長時間に及ぶこともあり、この間の撮像により得られた画像情報の数は膨大である。   However, in such capsule endoscopes, unlike normal endoscopes, the period from swallowing from the patient's mouth to the natural discharge is the observation and examination period. However, it may take a long time such as 10 hours or more, and the number of image information obtained by imaging during this period is enormous.

このことから、診断等の段階において、このような膨大な数の画像情報を短時間で把握することは容易ではなく、また、膨大な数の画像情報の中から注目すべき所望の部位の画像情報、より具体的には診断を所望する臓器の画像情報のみや疾患部位等が撮影された画像に係る画像情報のみを探し出すのは容易な作業ではない。   For this reason, it is not easy to grasp such an enormous amount of image information in a short period of time at the stage of diagnosis or the like, and an image of a desired part to be noted from the enormous amount of image information It is not an easy task to find out only information, more specifically, only image information of an organ desired to be diagnosed or image information related to an image of a diseased part.

本発明は、上記従来の実情に鑑み、多数の画像情報を容易に把握することができると共に、多数の画像情報の中から注目すべき所望の位置や疾患部位等が撮影された画像情報を容易に探し出すことのできる、画像情報の表示処理装置、表示処理方法、及び表示処理プログラムを提供することを目的とする。   In view of the above-described conventional situation, the present invention can easily grasp a large number of pieces of image information, and can easily obtain image information obtained by photographing a desired position to be noticed, a diseased part, etc. from among a large number of pieces of image information. It is an object of the present invention to provide an image information display processing apparatus, a display processing method, and a display processing program that can be searched for.

本発明において、先ず、第1の発明の被検体内に導入された撮像装置によって該被検体内の複数の位置で経時的に撮像して得た複数の画像情報を表示手段に表示させるための表示処理装置であって、上記複数の画像情報を取得する画像情報取得手段と、上記複数の画像情報のそれぞれに関連づけられ、上記撮像装置が経時的に撮像した上記被検体内でのそれぞれの位置に関する複数の位置情報を取得する位置情報取得手段と、上記複数の位置情報に基づいて、上記撮像装置が経時的に撮像した上記被検体内での位置を少なくとも1次元の図式として上記表示手段に表示させる位置情報表示手段と、上記複数の位置情報のうちの少なくとも1つを注目位置情報として指示する注目位置情報指示手段と、上記図式として表示された上記複数の位置情報のうちで、上記注目位置情報として指示された位置情報に関連づけられた画像情報を上記表示手段に表示させる画像表示手段と、を有して構成される。   In the present invention, first, a display unit displays a plurality of pieces of image information obtained by imaging with time at a plurality of positions in the subject by the imaging device introduced into the subject of the first invention. A display processing device, wherein each of the image information acquisition means for acquiring the plurality of pieces of image information, and each position in the subject that is associated with each of the plurality of pieces of image information and is imaged by the imaging device over time Position information acquisition means for acquiring a plurality of position information regarding the position on the subject taken by the imaging device over time based on the plurality of position information on the display means as at least a one-dimensional diagram Position information display means to be displayed; attention position information instruction means for instructing at least one of the plurality of position information as attention position information; and the plurality of positions displayed as the diagram Of distribution configured to have an image display unit for the image information associated with positional information designated as the target position information displayed on the display means.

この画像情報の表示処理装置は、例えば上記位置情報表示手段により上記図式として表示された上記複数の位置情報のうちで、該図式中の上記注目位置情報に対応する位置に所定のマークを表示させる位置マーク表示手段をさらに有して構成される。
また、この画像情報の表示処理装置は、例えば上記複数の画像情報と上記複数の位置情報とを保存する保存手段をさらに有し、上記画像表示手段は、上記注目位置情報として指示された位置情報に関連づけられた画像情報を上記保存手段から読み出して上記表示手段に表示させるように構成される。
The image information display processing device displays a predetermined mark at a position corresponding to the target position information in the diagram among the plurality of position information displayed as the diagram by the position information display unit, for example. It further comprises position mark display means.
The image information display processing device further includes, for example, a storage unit that stores the plurality of pieces of image information and the plurality of pieces of position information, and the image display unit includes the position information designated as the target position information. The image information associated with is read from the storage means and displayed on the display means.

上記注目位置情報指示手段は、例えば上記位置情報表示手段によって上記図式として表示された上記複数の位置情報の中から、該図式上で任意の位置情報を上記注目位置情報として指定する指定位置入力手段を更に有して構成される。
また、この画像情報の表示処理装置は、例えば上記複数の画像特報の中から所定の特徴部分を有する画像情報を抽出する特徴画像検出手段を更に有し、上記注目位置情報指示手段は、上記特徴画像検出手段で抽出された上記所定の特徴を有する画像情報に関連づいている位置情報を上記注目位置情報として指示するように構成される。
The attention position information instruction means is, for example, a designated position input means for designating any position information on the diagram as the attention position information from the plurality of position information displayed as the diagram by the position information display means. And further configured.
The image information display processing apparatus further includes, for example, feature image detection means for extracting image information having a predetermined feature portion from the plurality of image special information, and the attention position information instruction means includes the feature information. Position information related to the image information having the predetermined feature extracted by the image detection means is designated as the attention position information.

次に、本発明において、第2の発明の画像情報の表示処理方法は、被検体内の複数の位置で経時的に撮像して得た複数の画像情報をモニタ装置の表示画面上に表示させるための表示処理方法であって、上記複数の画像情報を取得する画像情報取得工程と、上記複数の画像情報のそれぞれに関連づけられ、上記被検体内で経時的に撮像されたそれぞれの位置に関する複数の位置情報を取得する位置情報取得工程と、上記複数の位置情報に基づいて、上記被検体内で経時的に撮像された位置を少なくとも1次元の図式として表示させる位置情報表示工程と、上記複数の位置情報のうちの少なくとも1つを注目位置情報として指示する注目位置情報指示工程と、上記図式として表示された上記複数の位置情報のうちで、上記注目位置情報として指示された位置情報に関連づけられた画像情報を表示させる画像表示工程と、を含んで構成される。   Next, in the present invention, the image information display processing method of the second invention displays a plurality of pieces of image information obtained by imaging at a plurality of positions in a subject over time on a display screen of a monitor device. A display processing method for acquiring a plurality of image information, and a plurality of image information acquisition steps associated with each of the plurality of image information and related to each position imaged over time in the subject. A position information acquisition step for acquiring the position information of the subject, a position information display step for displaying, as the at least one-dimensional diagram, the positions imaged over time in the subject based on the plurality of position information, Of the position information indicating step of indicating at least one of the position information as the position information of interest, and indicating the position information of interest among the plurality of position information displayed as the diagram Configured to include an image display step, the displaying the image information associated with position information.

この画像情報の表示処理方法は、例えば上記位置情報表示工程により上記図式として表示された上記複数の位置情報のうちで、該図式中の上記注目位置情報に対応する位置に所定のマークを表示させる位置マーク表示工程をさらに有して構成される。
また、この画像情報の表示処理方法は、例えば上記複数の画像情報と上記複数の位置情報とを保存する保存工程をさらに有し、上記画像表示工程は、上記注目位置情報として指示された位置情報に関連づけられた画像情報を上記保存工程から読み出して上記表示工程に表示させるように構成される。
This image information display processing method displays, for example, a predetermined mark at a position corresponding to the target position information in the diagram among the plurality of position information displayed as the diagram in the position information display step. It further includes a position mark display step.
The image information display processing method further includes, for example, a storage step of storing the plurality of image information and the plurality of position information, and the image display step includes the position information instructed as the position-of-interest information. The image information associated with is read from the storage step and displayed on the display step.

上記注目位置情報指示工程は、例えば上記位置情報表示工程によって上記図式として表示された上記複数の位置情報の中から、該図式上で任意の位置情報を上記注目位置情報として指定する指定位置入力工程を更に有して構成される。
また、この画像情報の表示処理方法は、例えば上記複数の画像特報の中から所定の特徴部分を有する画像情報を抽出する特徴画像検出工程を更に有し、上記注目位置情報指示工程は、上記特徴画像検出工程で抽出された上記所定の特徴を有する画像情報に関連づいている位置情報を上記注目位置情報として指示するように構成される。
The attention position information instruction step is, for example, a designated position input step of designating arbitrary position information as the attention position information on the diagram from the plurality of position information displayed as the diagram by the position information display step. And further configured.
The image information display processing method further includes, for example, a feature image detection step of extracting image information having a predetermined feature portion from the plurality of image special information, and the attention position information instruction step includes the feature information Position information related to the image information having the predetermined feature extracted in the image detection step is indicated as the attention position information.

更に、本発明において、第3の発明の画像情報の表示処理プログラムは、被検体内の複数の位置で経時的に撮像して得た複数の画像情報をコンピュータによってモニタ装置の表示画面上に表示させるための表示処理プログラムであって、該表示処理プログラムは、上記複数の画像情報を取得する画像情報取得処理と、上記複数の画像情報のそれぞれに関連づけられ、上記被検体内で経時的に撮像されたそれぞれの位置に関する複数の位置情報を取得する位置情報取得処理と、上記複数の位置情報に基づいて、上記被検体内で経時的に撮像された位置を少なくとも1次元の図式として表示させる位置情報表示処理と、上記複数の位置情報のうちの少なくとも1つを注目位置情報として指示する注目位置情報指示処理と、上記図式として表示された上記複数の位置情報のうちで、上記注目位置情報として指示された位置情報に関連づけられた画像情報を表示させる画像表示処理と、を上記コンピュータに実行させるように構成される。   Furthermore, in the present invention, the image information display processing program of the third invention displays a plurality of image information obtained by imaging at a plurality of positions in a subject over time on a display screen of a monitor device by a computer. The display processing program is associated with each of the image information acquisition processing for acquiring the plurality of image information and the plurality of image information, and is imaged over time in the subject. A position information acquisition process for acquiring a plurality of pieces of position information relating to the respective positions, and a position for displaying at least a one-dimensional diagram of the positions imaged over time in the subject based on the plurality of pieces of position information Information display processing, attention position information instruction processing for instructing at least one of the plurality of position information as attention position information, and the diagram The plurality of among the position information, and an image display processing for displaying the image information associated with positional information designated as the target position information, a so as to execute the computer.

この画像情報の表示処理プログラムは、例えば上記位置情報表示処理により上記図式として表示された上記複数の位置情報のうちで、該図式中の上記注目位置情報に対応する位置に所定のマークを表示させる位置マーク表示処理をさらにを上記コンピュータに実行させるように構成される。   The image information display processing program displays, for example, a predetermined mark at a position corresponding to the position-of-interest information in the diagram among the plurality of pieces of position information displayed as the diagram by the position information display processing. The computer is configured to further execute the position mark display process.

また、この画像情報の表示処理プログラムは、例えば上記複数の画像情報と上記複数の位置情報とを保存する保存処理をさらに有し、上記画像表示処理は、上記注目位置情報として指示された位置情報に関連づけられた画像情報を上記保存処理から読み出して上記表示処理に表示させることを上記コンピュータに実行させるように構成される。   The image information display processing program further includes, for example, a storage process for storing the plurality of image information and the plurality of position information, and the image display process includes the position information designated as the attention position information. The computer is configured to read out the image information associated with the image data from the storage process and display the image information on the display process.

上記注目位置情報指示処理は、例えば上記位置情報表示処理によって上記図式として表示された上記複数の位置情報の中から、該図式上で任意の位置情報を上記注目位置情報として指定する指定位置入力処理を更に含んで構成される。
また、この画像情報の表示処理プログラムは、例えば上記複数の画像特報の中から所定の特徴部分を有する画像情報を抽出する特徴画像検出処理を更に有し、上記注目位置情報指示処理は、上記特徴画像検出処理で抽出された上記所定の特徴を有する画像情報に関連づいている位置情報を上記注目位置情報として指示することを上記コンピュータに実行させるように構成される。
The attention position information instruction processing is, for example, designated position input processing for designating arbitrary position information as the attention position information on the diagram from the plurality of position information displayed as the diagram by the position information display processing. Is further included.
The image information display processing program further includes, for example, a feature image detection process for extracting image information having a predetermined feature portion from the plurality of image special bulletins. The computer is configured to instruct the position information associated with the image information having the predetermined feature extracted by the image detection process as the attention position information.

本発明によれば、多数の画像情報を容易に把握することができると共に、多数の画像情報の中から注目すべき所望の位置や疾患部位等が撮影された画像情報を容易に探し出すことが可能になる。   According to the present invention, it is possible to easily grasp a large amount of image information, and it is possible to easily find out image information obtained by photographing a desired position to be noticed, a diseased part, etc. from among a large number of image information. become.

以下、本発明の実施の形態を図面を参照しながら説明する。
なお、以下の説明で上記の被検体は例えば被検査者4であり、上記の撮像装置は例えばカプセル型内視鏡3であり、上記の表示手段は例えばモニタ装置21であり、上記の表示処理装置は例えばワークステーション7であり、上記の画像情報は例えば画像データであり、上記の画像情報取得手段は例えばアンテナ11であり、上記の位置情報は例えば、通過軌跡37や位置データであり、上記の位置情報取得手段は例えば通過軌跡37を構築するための位置データを取得するアンテナ11であり、上記の位置情報表示手段は例えばモニタ装置21及びそれに表示される被検体モデル27、通過軌跡37、位置マーク39、第2の位置マーク44等であり、上記の注目位置情報は例えば上記の位置情報の中の特定の位置情報であり、上記の注目位置情報指示手段は例えば位置マーク39であり、上記の画像表示手段、上記の位置マーク表示手段は、例えばモニタ装置21であり、上記の保存手段は例えばデータベース9であり、上記の図式は例えば被検体内モデル26であり、上記の指定位置入力手段は例えば、キーボード22、マウス23であり、そして、上記の特徴画像検出手段は例えばワークステーション7である。
Embodiments of the present invention will be described below with reference to the drawings.
In the following description, the subject is, for example, the examinee 4, the imaging device is, for example, the capsule endoscope 3, the display means is, for example, the monitor device 21, and the display processing described above. The apparatus is, for example, a workstation 7, the image information is, for example, image data, the image information acquisition unit is, for example, an antenna 11, and the position information is, for example, a passage locus 37 or position data, The position information acquisition means is, for example, the antenna 11 for acquiring position data for constructing the passage locus 37, and the position information display means is, for example, the monitor device 21, the object model 27 displayed on the monitor device 21, the passage locus 37, and the like. The position mark 39, the second position mark 44, etc., and the attention position information is, for example, specific position information in the position information. The position information instruction means is, for example, the position mark 39, the image display means, the position mark display means is, for example, the monitor device 21, the storage means is, for example, the database 9, and the above diagram is, for example, For example, the specified position input means is the keyboard 22 and the mouse 23, and the characteristic image detection means is the workstation 7, for example.

図1は、本発明に係わるカプセル型内視鏡システムとそれに含まれるカプセル型内視鏡画像ファイリングシステムの概略の構成を示す図である。同図に示すように、本例のカプセル型内視鏡システム1は、パッケージ2に収容されたカプセル型内視鏡3、パッケージ2から取り出したカプセル型内視鏡3を服用する患者すなわち被検査者4、この被検査者4に着用させるジャケット5、ジャケット5に着脱自在の受信機6から成る。   FIG. 1 is a diagram showing a schematic configuration of a capsule endoscope system according to the present invention and a capsule endoscope image filing system included in the capsule endoscope system. As shown in the figure, the capsule endoscope system 1 of the present example includes a capsule endoscope 3 housed in a package 2 and a patient taking a capsule endoscope 3 taken out from the package 2, that is, a subject to be examined. A person 4, a jacket 5 to be worn by the examinee 4, and a receiver 6 detachably attached to the jacket 5.

また、カプセル型内視鏡画像ファイリングシステム20は、上記の受信機6が受信した画像データを保存、編集等の処理をするワークステーション7、このワークステーション7にネットワーク8を介して接続されているデータベース9とで構成される。尚、データベース9はワークステーション7に内蔵されるようにしても良い。   The capsule endoscope image filing system 20 is connected to a workstation 7 that stores and edits image data received by the receiver 6, and is connected to the workstation 7 via a network 8. It consists of a database 9. The database 9 may be built in the workstation 7.

上記のカプセル型内視鏡3の内部には、撮像部と無線部と電源が設けられている。このカプセル型内視鏡3は、観察又は検査のために被検査者4の口から飲み込まれた後、身体から排出されるまでの期間中に、撮像部により食道、胃、小腸、大腸などの消化管内を順次経時的に撮像して得た画像データを無線部から外部に電波として無線発信する。   An imaging unit, a radio unit, and a power source are provided inside the capsule endoscope 3. The capsule endoscope 3 is used for imaging or esophagus, stomach, small intestine, large intestine, etc. during a period until it is swallowed from the mouth of the examinee 4 for observation or examination and discharged from the body. Image data obtained by sequentially imaging the inside of the digestive tract over time is wirelessly transmitted as radio waves from the wireless unit to the outside.

この被検査者4に着用させるジャケット5には、カプセル型内視鏡3の無線部から発信される画像データの発信電波を捕捉する複数(図の例では4個)のアンテナ11(11a、11b、11c、11d)が設けられている。これらのアンテナ11は、受信機6との間で無線又は有線による通信ができるようになっている。なお、アンテナ11の数は特に4個に限定されるものではなく、適宜の数があればよい。要は、カプセル型内視鏡3の移動に伴う位置に応じた発信電波を良好に受信することができる配置数であれば良い。   A plurality of (four in the illustrated example) antennas 11 (11 a and 11 b) that capture transmission waves of image data transmitted from the wireless unit of the capsule endoscope 3 are attached to the jacket 5 worn by the examinee 4. 11c, 11d). These antennas 11 can perform wireless or wired communication with the receiver 6. Note that the number of antennas 11 is not particularly limited to four, and may be any appropriate number. In short, it is sufficient if the number of arrangements is such that the transmitted radio wave according to the position accompanying the movement of the capsule endoscope 3 can be received well.

受信機6には、外部には、上記のジャケット5からアンテナ11を介して電波で画像データを受信する場合に用いられるアンテナ12、観察又は検査に必要な情報を表示する表示部13、及び観察又は検査に必要な情報を入力する入力部14が設けられている。
そして、受信機6の下部には、携帯時にも電源を供給できるように電源部15が設けられている。この電源部15は、たとえば乾電池、Liイオン二次電池、Ni水素電池等で構成される(勿論他の形式の電池であっても良い)。
The receiver 6 is externally provided with an antenna 12 used when receiving image data from the jacket 5 through the antenna 11 via radio waves, a display unit 13 for displaying information necessary for observation or inspection, and observation. Or the input part 14 which inputs information required for a test | inspection is provided.
A power supply unit 15 is provided below the receiver 6 so that power can be supplied even when the receiver 6 is carried. The power supply unit 15 is composed of, for example, a dry battery, a Li ion secondary battery, a Ni hydrogen battery, or the like (of course, other types of batteries may be used).

更に受信機6の内部には、観察又は検査に必要な処理を行う信号処理・制御部16が設けられ、更に受信された画像データを記憶するためのCF(コンパクトフラッシュ(登録商標))メモリ17を図の両方向矢印aで示すように着脱可能に装着する装着部18が設けられている。   Further, a signal processing / control unit 16 for performing processing necessary for observation or inspection is provided inside the receiver 6, and a CF (Compact Flash (registered trademark)) memory 17 for storing received image data. Is attached detachably as shown by a double arrow a in the figure.

ワークステーション7は、本体装置19と、この本体装置19に接続されたモニタ装置21、キーボード22、及びマウス23等で構成されており、更に本体装置19には、特には図示しないが、上述したネットワーク8に接続するためのインタフェースの他に各種のインタフェースを備えており、これらのインタフェースを介して上述した受信機6のほかに、プリンタ24、CFメモリリーダ/ライタ25が接続されている。このワークステーション7は医師又は看護士がカプセル型内視鏡3により撮像された被検査者4の消化管内の画像をモニタ装置21に表示させて診断等を行うための画像処理機能を有している。   The workstation 7 includes a main body device 19, a monitor device 21 connected to the main body device 19, a keyboard 22, a mouse 23, and the like. In addition to the interface for connecting to the network 8, various interfaces are provided. In addition to the receiver 6 described above, a printer 24 and a CF memory reader / writer 25 are connected via these interfaces. The workstation 7 has an image processing function that allows a doctor or nurse to display an image in the digestive tract of the person to be inspected 4 captured by the capsule endoscope 3 on the monitor device 21 for diagnosis and the like. Yes.

医師又は看護士は、ワークステーション7のモニタ装置21に表示されるマン・マシンインタフェースに対し、キーボード22又はマウス23を用いて入力操作を行いながら、カプセル型内視鏡3から発信され受信機6によって受信された被検査者4の身体管腔内の画像データを受信機6から取り込む指示を行うことができる。   The doctor or nurse performs an input operation using the keyboard 22 or the mouse 23 to the man-machine interface displayed on the monitor device 21 of the workstation 7, and is transmitted from the capsule endoscope 3 to the receiver 6. It is possible to instruct to take in the image data in the body lumen of the examinee 4 received from the receiver 6.

この画像データの受信機6からの取り込みでは、受信機6から有線で直接取り込むこともでき、また、CFメモリ17を図の矢印bで示すようにCFメモリリーダ/ライタ25に装着して、このCFメモリ17から画像データを取り込むようにすることもできる。
更に、医師又は看護士は、上記のように受信機6から取り込んだ撮像画面データをデータベース9へ格納する指示、データベース9に格納された画像データを呼び出してモニタ装置21の表示画面上で後述する画像データに係わる画像表示を行う指示、画像の観察に基づく診察結果などをデータベース9へ記録する指示、プリンタ24でカルテ等を印刷する指示などを行うことができる。
When the image data is captured from the receiver 6, the image data can be directly captured from the receiver 6 in a wired manner, and the CF memory 17 is attached to the CF memory reader / writer 25 as indicated by an arrow b in FIG. It is also possible to capture image data from the CF memory 17.
Furthermore, the doctor or nurse calls the image data stored in the database 9 by instructing to store the imaging screen data captured from the receiver 6 as described above on the database 9, and will be described later on the display screen of the monitor device 21. An instruction to display an image related to the image data, an instruction to record a medical examination result based on the observation of the image in the database 9, an instruction to print a medical record or the like by the printer 24, and the like can be given.

なお、本発明の実施の形態では、カプセル型内視鏡システム及びカプセル型内視鏡画像ファイリングシステムに特化して説明するが、必ずしもこれに限るものではないことは言うまでもない。
<第1の実施の形態>
In the embodiment of the present invention, the capsule endoscope system and the capsule endoscope image filing system will be described specifically, but it is needless to say that the present invention is not necessarily limited thereto.
<First Embodiment>

図2(a) 〜(d) は、第1の実施の形態において本発明に係わるカプセル型内視鏡画像ファイリングシステムにおけるワークステーション7のモニタ装置21の同一表示画面38上に表示される被検査者4の被検体内モデル26と画像42の例を示す図であり、同図(a) は、モニタ装置21の表示画面に表示される被検査者4の被検体内モデルを示す図、同図(b) 〜(d) は、その被検体内モデルと共にモニタ装置21の同一表示画面上に表示される画像の例を示す図である。尚、同図(b) 〜(d) には、同図(a) に示す被検体内モデルを説明の便宜上簡略に示している。   2 (a) to 2 (d) show the inspected objects displayed on the same display screen 38 of the monitor device 21 of the workstation 7 in the capsule endoscope image filing system according to the present invention in the first embodiment. FIG. 4A is a diagram showing an example of an in-subject model 26 and an image 42 of the person 4, and FIG. 5A is a diagram showing an in-subject model of the subject 4 displayed on the display screen of the monitor device 21; FIGS. (B) to (d) are diagrams showing examples of images displayed on the same display screen of the monitor device 21 together with the intra-subject model. In FIGS. 4B to 4D, the intra-subject model shown in FIG. 4A is simply shown for convenience of explanation.

同図(a) に示すように、被検査者4の被検体内モデル26として、被検査者4の被検体モデル27と消化管モデル28とが模式的な2次元の図式として表示されている。消化管モデル28は、食道31、胃32、十二指腸33、小腸34、大腸35、直腸36等の消化管が模式図に表示されている。そして、その消化管モデル28内に、カプセル型内視鏡3が通過、撮像した位置に関する位置情報として通過軌跡37が表示されている。ここで、上記の図式は2次元に限るものではない。   As shown in FIG. 5A, the subject model 27 and the digestive tract model 28 of the subject 4 are displayed as a schematic two-dimensional diagram as the in-subject model 26 of the subject 4. . In the digestive tract model 28, digestive tracts such as the esophagus 31, the stomach 32, the duodenum 33, the small intestine 34, the large intestine 35, and the rectum 36 are displayed in a schematic diagram. In the gastrointestinal tract model 28, a passage trajectory 37 is displayed as position information relating to the position where the capsule endoscope 3 passes and is imaged. Here, the above diagram is not limited to two dimensions.

また、同図(b) 〜(d) に示すように、モニタ装置21の表示画面38には、その同一画面上において、左側に上述した被検体内モデル26が表示され、そのカプセル型内視鏡3の通過軌跡37上に、披検体内における撮像位置に相当する位置を示すための所定のマークとして位置マーク39が重畳表示されている。そして、被検体内モデル26が表示されている右側の画像表示領域41には、位置マーク39に対応する又は詳しくは後述する処理に対応する通過軌跡37上の位置に相当する被検体内の位置で撮像された画像42が表示されている。   Further, as shown in FIGS. 7B to 7D, the above-mentioned intra-subject model 26 is displayed on the left side of the display screen 38 of the monitor device 21 on the same screen, and the capsule-type internal view is displayed. A position mark 39 is superimposed and displayed on the passage locus 37 of the mirror 3 as a predetermined mark for indicating a position corresponding to the imaging position in the specimen. In the image display area 41 on the right side where the in-subject model 26 is displayed, a position in the subject corresponding to a position mark 39 or a position on the passage locus 37 corresponding to processing to be described later in detail. The image 42 imaged in is displayed.

同図(b) は、位置マーク39をポインティングしている指定位置入カ手段としてのマウス23の操作によるポインティング矢印43が表示されている例を示し、同図(c) は、同じくマウス23の操作による区間を指定する最初と次の2つのポインティング矢印43(43−1、43−2)が表示されている例を示している。   FIG. 7B shows an example in which a pointing arrow 43 is displayed by operating the mouse 23 as a designated position input means for pointing the position mark 39. FIG. An example is shown in which the first and next two pointing arrows 43 (43-1, 43-2) for designating a section by operation are displayed.

続いて上記のカプセル型内視鏡画像ファイリングシステムにおける画像処理についての第1の実施形態における処理動作を説明する。
図3は、第1の実施形態における画像処理の動作を説明するフローチャートである。尚、この画像処理は、医師又は看護士による図1に示したワークステーション7のキーボード22又はマウス23からの指示入力に基づいて、本体装置19に内蔵されている制御装置(以下、単にCPUという)によって行われる処理である。
Next, the processing operation in the first embodiment regarding the image processing in the capsule endoscope image filing system will be described.
FIG. 3 is a flowchart for explaining the image processing operation in the first embodiment. This image processing is performed by a control device (hereinafter simply referred to as a CPU) built in the main body device 19 based on an instruction input from the keyboard 22 or mouse 23 of the workstation 7 shown in FIG. 1 by a doctor or nurse. ).

また、この処理に先立って次のような作業が行われている。すなわち、被検査者4によりカプセル型内視鏡3がパッケージ2から取り出され、カプセル型内視鏡3に内蔵の電源のスイッチがオンになる。そして、このカプセル型内視鏡3が被検査者4に飲み込まれてから消化管の蠕動運動によって移動し、体外に排出されるまでの間に、カプセル型内視鏡3の撮像部により被検査者4の消化管内が連続的に撮像され、経時的に連続した複数の画像データが得られる。   Prior to this process, the following work is performed. That is, the capsule endoscope 3 is taken out of the package 2 by the examinee 4, and the power supply built in the capsule endoscope 3 is turned on. The capsule endoscope 3 is inspected by the imaging unit of the capsule endoscope 3 during the period from when the capsule endoscope 3 is swallowed by the examinee 4 until the capsule endoscope 3 is moved by the peristaltic movement of the digestive tract and discharged from the body. The inside of the digestive tract of the person 4 is continuously imaged, and a plurality of image data continuous over time is obtained.

この撮像された画像データが電波信号に載せてカプセル型内視鏡3の無線部から発信され、この信号がジャケット5のアンテナ11(11a、11b、11c、11d)により受信される。この受信信号は受信機6に転送される。
受信機6では、各アンテナ11からの受信を所定時間間隔で順次巡回して切り替えながら、各アンテナ11での受信信号の信号強度と信号内容(画像データ)とを1組として1フレーム分の信号を順次生成する。つまり1枚の画像データに対してアンテナが4つの場合4フレーム分の信号が生成される。この生成された4フレーム分の信号は、順次CFメモリ17に格納される。この受信機6側での処理は、カプセル型内視鏡3による撮像期間の間、1回の撮像ごとに繰り返される。
The captured image data is transmitted on a radio signal and transmitted from the wireless unit of the capsule endoscope 3, and this signal is received by the antenna 11 (11a, 11b, 11c, 11d) of the jacket 5. This received signal is transferred to the receiver 6.
The receiver 6 circulates and switches the reception from each antenna 11 sequentially at a predetermined time interval, and sets the signal intensity of the received signal and the signal content (image data) at each antenna 11 as a set of signals for one frame. Are generated sequentially. That is, when there are four antennas for one piece of image data, signals for four frames are generated. The generated signals for four frames are sequentially stored in the CF memory 17. The processing on the receiver 6 side is repeated for each imaging operation during the imaging period of the capsule endoscope 3.

図3において、CPUは、先ず、画像データと位置データを読み込む(S1)。
この処理では、CPUは、受信機6から有線で直接に、又は受信機6から取り出されてCFメモリリーダ/ライタ25に装着されたCFメモリ17から、CFメモリ17に記録されている信号を4フレーム分毎に読み出す。そして、これら4フレーム分の受信信号から画像データを読み出し、更に各アンテナにおける信号強度から上記画像データを含む電波の発信位置を算出して、この算出した撮像位置に関する位置データを取得する。ここで、発信位置を算出せずに、最も受信信号の信号強度が高かったアンテナを位置データとみなしてもよい。
In FIG. 3, the CPU first reads image data and position data (S1).
In this process, the CPU directly outputs a signal recorded in the CF memory 17 directly from the receiver 6 by wire or from the CF memory 17 taken out from the receiver 6 and attached to the CF memory reader / writer 25. Read every frame. Then, the image data is read from the received signals for these four frames, and further, the transmission position of the radio wave including the image data is calculated from the signal intensity at each antenna, and the position data relating to the calculated imaging position is acquired. Here, the antenna having the highest signal strength of the received signal may be regarded as the position data without calculating the transmission position.

続いて、CPUは、上記のように取得した画像データと位置データとを関連付けて保存する(S2)。
この処理は、相互に関連する画像データと位置データを1組としたレコードとして、データベース9に登録する処理である。
Subsequently, the CPU associates and stores the image data and the position data acquired as described above (S2).
This process is a process of registering in the database 9 as a record in which image data and position data related to each other are made one set.

次に、CPUは、位置情報を表示する(S3)。
この処理は、ワークステーション7のモニタ装置21の表示画面上に、図2(a) 〜(d) に示したような被検体内モデル26の消化管モデル28上に、処理S1で得た位置データから、被検体内においてカプセル型内視鏡3が通過した被検体内の位置に対応する位置情報、即ち通過軌跡37を表示する処理である。つまり、位置情報の経時的変化が、被検体内モデル26におけるカプセル型内視鏡3の通過軌跡37を指している。
Next, the CPU displays position information (S3).
This process is performed on the display screen of the monitor device 21 of the workstation 7 on the digestive tract model 28 of the intra-subject model 26 as shown in FIGS. 2 (a) to 2 (d). This is a process of displaying position information corresponding to the position in the subject through which the capsule endoscope 3 has passed, that is, the passage trajectory 37, from the data. That is, the temporal change in the position information indicates the passage locus 37 of the capsule endoscope 3 in the intra-subject model 26.

上記に続いて、CPUは、注目位置情報を表示する(S4)。
この処理は、上記モニタ装置21の表示画面上の位置情報上に、つまり通過軌跡37の表示の上に重畳させて医師又は看護士による診断時に注目すべき部位である旨、即ち注目位置情報である旨を表す位置マーク39(図2(b) 〜(d) 参照)を表示する処理である。なお、この処理の初期設定では、この位置マーク39はカプセル型内視鏡3が撮像を開始して以降最初に撮像した時点の位置情報を示す通過軌跡37の表示上の位置に位置マーク39が表示されるようになっている。
Following the above, the CPU displays attention position information (S4).
This processing is performed by superimposing the position information on the display screen of the monitor device 21, that is, on the display of the passage trajectory 37, so that it is a site to be noticed at the time of diagnosis by the doctor or nurse, that is, the position information of interest. This is processing for displaying a position mark 39 (see FIGS. 2B to 2D) indicating that there is. In the initial setting of this process, the position mark 39 is positioned at a position on the display of the passage locus 37 indicating the position information at the time when the capsule endoscope 3 starts imaging after the capsule endoscope 3 starts imaging. It is displayed.

続いてCPUは、注目位置情報に対応する画像を表示する(S5)。
この処理では、CPUは、上記の注目位置情報として指定された通過軌跡37上の位置での位置情報に対応する位置データと一組となっている画像データも1レコード内のデータとしてデータベース9から読み出しており、この1レコードのデータに基づいて、例えば図2(b) に示したように、位置マーク39を表示させた通過軌跡37上の位置に対応した画像データから得た画像42を表示画面38の右側の画像表示領域41に表示する。
Subsequently, the CPU displays an image corresponding to the attention position information (S5).
In this process, the CPU also stores image data that is paired with position data corresponding to position information at a position on the passage locus 37 specified as the position-of-interest information from the database 9 as data in one record. Based on the data of this one record, an image 42 obtained from the image data corresponding to the position on the passage locus 37 on which the position mark 39 is displayed is displayed, for example, as shown in FIG. The image is displayed in the image display area 41 on the right side of the screen 38.

続いてCPUは、新たな注目位置が指定されているか否かを判別する(S6)。
この処理は、表示中の被検体内モデル26上に表示された通過軌跡37上において、医師又は看護士によりワークステーション7のマウス23が操作されて、図2(c) に示したように、ポインティング矢印43によって、診断等に際して注目すべき所望の位置の指定がなされているか否かを判別する処理である。
Subsequently, the CPU determines whether or not a new attention position is designated (S6).
In this process, as shown in FIG. 2 (c), the mouse 23 of the workstation 7 is operated by a doctor or a nurse on the passing locus 37 displayed on the in-subject model 26 being displayed. This is a process for determining whether or not a desired position to be noted in the diagnosis or the like is designated by the pointing arrow 43.

そして、ポインティング矢印43による位置の指定がなされていれば(S6がYes)、処理S4に戻って、処理S4の処理を実行する。すなわち、ポインティング矢印43によって注目すべき位置の指定がなされている通過軌跡37上の位置に、注目位置情報として指示されたことを示す位置マーク39を重畳表示する。   If the position is specified by the pointing arrow 43 (S6 is Yes), the process returns to the process S4 and the process of the process S4 is executed. In other words, the position mark 39 indicating that it has been instructed as attention position information is superimposed and displayed at a position on the passing locus 37 where the position to be noticed is designated by the pointing arrow 43.

この処理では、CPUは、データベース9を検索し、ポインティング矢印43によって注目位置の指定がなされている通過軌跡37上の位置に対応する位置データを有するレコードをデータベース9から読み出して、その注目位置情報が示す通過軌跡37上の位置つまりポインティング矢印43によって指定されている通過軌跡37上の位置に、図2(c) に示したように位置マーク39を重畳表示する。   In this process, the CPU searches the database 9, reads a record having position data corresponding to the position on the passage locus 37 for which the attention position is designated by the pointing arrow 43 from the database 9, and receives the attention position information. As shown in FIG. 2C, a position mark 39 is superimposed and displayed on the position on the passage locus 37 indicated by (1), that is, the position on the passage locus 37 designated by the pointing arrow 43.

そして、その後に続く処理S5及びS6の処理を繰り返す。
また、上記の処理S6で、ポインティング矢印43による位置の指定がなされていないときは(S6がNo)、続いて当該アプリケーションが終了しているか否かを判別し(S7)、当該アプリケーションが終了していれば(S7がYes)、処理を終了するが、当該アプリケーションが終了していないときは(S7がNo)、処理S6に戻って処理S6の判別処理を繰り返す。
Then, the subsequent processes S5 and S6 are repeated.
In addition, when the position is not specified by the pointing arrow 43 in the processing S6 (S6 is No), it is determined whether or not the application is terminated (S7), and the application is terminated. If so (S7 is Yes), the process is terminated. If the application is not terminated (S7 is No), the process returns to the process S6 and the determination process of the process S6 is repeated.

尚、上記の医師又は看護士による位置を指定する処理では、例えば医師又は看護士がポインティング矢印43で通過軌跡37上の任意の位置を指示してマウス23を左クリックすることで位置マーク39が通過軌跡37上に表示される。
この通過軌跡37上に表示され位置マーク39に対して、対応する画像を直ちに自動的に表示するか、又は再度マウス23を左クリックすることによって表示するようにするかは、いずれの方法で行うかを、処理開始前に予め処理モードを設定しておけばよい。
In the above-described process of designating the position by the doctor or nurse, for example, the doctor or nurse designates an arbitrary position on the passage locus 37 with the pointing arrow 43 and left-clicks the mouse 23, whereby the position mark 39 is displayed. It is displayed on the passage locus 37.
For the position mark 39 displayed on the passing trajectory 37, a corresponding image is automatically displayed immediately, or is displayed by left-clicking the mouse 23 again. The processing mode may be set in advance before starting the processing.

また、上記の当該アプリケーションの終了をする処理は、例えば、表示画面38上に図示しないメニュー項目を用意し、このメニュー項目中の「終了」項目をマウス23により選択することにより実行される。
これにより、ワークステーション7のモニタ装置21に向かって表示画面をみながら医師又は看護士が、マウス23の操作によってポインティング矢印43を動かしながら被検体内モデル26の通過軌跡37上の所望する任意の位置を指定すると、その指定された位置に位置マーク39が重畳表示されるとともに、その位置に対応する画像が同一表示画面上の左側領域に表示される。
<第2〜第5の実施の形態>
図4(a) 〜(d) は、第2〜第5の実施の形態において本発明に係わるカプセル型内視鏡画像ファイリングシステムにおけるワークステーション7のモニタ装置21の同一表示画面38上に表示される被検査者4の被検体内モデル26と画像42の例を示す図である。
Further, the process for terminating the application is executed by, for example, preparing a menu item (not shown) on the display screen 38 and selecting the “end” item in the menu item with the mouse 23.
As a result, the doctor or the nurse moves the pointing arrow 43 by operating the mouse 23 while looking at the display screen toward the monitor device 21 of the workstation 7, and makes any desired desired on the passage locus 37 of the intra-subject model 26. When a position is designated, a position mark 39 is superimposed and displayed at the designated position, and an image corresponding to the position is displayed in the left area on the same display screen.
<Second to fifth embodiments>
4 (a) to 4 (d) are displayed on the same display screen 38 of the monitor device 21 of the workstation 7 in the capsule endoscope image filing system according to the present invention in the second to fifth embodiments. It is a figure which shows the example of the model 26 and the image 42 of the to-be-inspected person 4 to be examined.

同図(a) は、医師又は看護士によって指定された或る症状を示す所定の特徴部分(例えば出血部位やポリープ等を示す部分)を有する画像である特殊画像があれば、その特殊画像を表示するように指示入力されたことによって、その所定の特徴部分を有する特殊画像をなす画像データがデータベース9上で検索されて抽出され、その抽出された画像データが撮像された被検体内の位置に対応する通過軌跡37の表示上の位置に、所定の特徴部分を有する画像データに関連付けられた位置データを示す旨の画像処理結果として第2の位置マーク44が表示されている例を示している。   If there is a special image that has a predetermined characteristic part indicating a certain symptom specified by a doctor or a nurse (for example, a part showing a bleeding site, a polyp, etc.), FIG. The image data forming the special image having the predetermined characteristic portion is searched and extracted on the database 9 by the instruction input to be displayed, and the position in the subject where the extracted image data is imaged An example is shown in which a second position mark 44 is displayed as an image processing result indicating position data associated with image data having a predetermined characteristic portion at a display position of the passage locus 37 corresponding to Yes.

尚、右側の画像表示領域41に表示されている画像42は、最初の画像がそのまま表示されているものである。
また、この第2の位置マーク44の表示は、図4(a) では1箇所にしか表示していないが、実際の表示では、上記検索によって抽出された全ての画像データについて、その画像が撮像された通過軌跡37上の位置に第2の位置マーク44が表示される。
The image 42 displayed in the image display area 41 on the right side is the first image displayed as it is.
In addition, the second position mark 44 is displayed only at one place in FIG. 4A, but in the actual display, images of all the image data extracted by the search are captured. A second position mark 44 is displayed at a position on the passing trajectory 37.

次に、同図(b) は、上記通過軌跡37上に表示されている指定された特殊画像を含む全ての画像データの第2の位置マーク44の中から或る位置の第2の位置マーク44がポインティング矢印43によって指定され、その指定された第2の位置マーク44が表示されている位置(通過軌跡37の表示上の位置、以下同様)に対応する画像データに基づく画像42が、右側の画像表示領域41に表示されている例を示している。   Next, FIG. 5B shows a second position mark at a certain position among the second position marks 44 of all image data including the designated special image displayed on the passage locus 37. 44 is designated by the pointing arrow 43, and the image 42 based on the image data corresponding to the position where the designated second position mark 44 is displayed (the position on the display of the passage locus 37, the same applies hereinafter) is displayed on the right side. The example displayed in the image display area 41 is shown.

なお、同図(b) も第2の位置マーク44の表示を1箇所のみに表示しているが、必ずしも1箇所のみに限られるものでないことは言うまでもない。
また、同図(c) は、上記指定された第2の位置マーク44に対応して右側の画像表示領域41に表示された画像42に重畳して、この画像42がデータベース9から抽出された要因となった特徴部分45が表示されている例を示している。
In FIG. 5B, the second position mark 44 is displayed only at one place, but it is needless to say that the display is not necessarily limited to only one place.
Further, FIG. 4C shows that the image 42 is extracted from the database 9 so as to be superimposed on the image 42 displayed in the right image display area 41 corresponding to the designated second position mark 44. The example in which the characteristic part 45 which became a factor is displayed is shown.

そして、同図(d) は、上記全ての第2の位置マーク44が表示されている中から、任意の区間を指定する最初と次の2つのポインティング矢印43(43−1、43−2)が表示されている例(区間モードと呼ぶ)を示している。ここで区間とは、通過軌跡37の表示上の異なる2つの位置それぞれに対応した位置情報間を指すものである。   FIG. 4D shows that all the second position marks 44 are displayed, and the first and next two pointing arrows 43 (43-1, 43-2) for designating an arbitrary section. Shows an example (referred to as section mode). Here, the section refers to the position information corresponding to each of two different positions on the display of the passage locus 37.

この場合も、図4(a) 〜(d) のモニタ装置21の表示画面38の表示には、特には図示しないが、タスクバーに表示されているメニューボタンからプルダウン表示されるメニューの中に、「次へ」、「戻る」、「区間指定」、「終了」などのタスクメニューが表示されている。勿論、メニュー表示に限ることなく、表示画面内の適宜に表示領域に常に表示される「次へ」、「戻る」、「区間指定」、「終了」ボタンとしてもよい。   Also in this case, in the display of the display screen 38 of the monitor device 21 of FIGS. 4A to 4D, although not particularly shown, the menu button displayed on the task bar includes a pull-down menu. Task menus such as “next”, “return”, “section designation”, and “end” are displayed. Needless to say, the display is not limited to the menu display, and “next”, “return”, “section designation”, and “end” buttons that are always displayed in an appropriate display area in the display screen may be used.

続いて、このカプセル型内視鏡画像ファイリングシステムにおける画像処理についての第2の実施形態における処理動作を説明する。
図5は、第2の実施形態における画像処理の動作を説明するフローチャートである。尚、この画像処理も、医師又は看護士による図1に示したワークステーション7のキーボード22又はマウス23からの指示入力に基づいて、本体装置19のCPUによって行われる処理である。また、この場合も、この処理に先立って第1の実施形態において述べたような作業が行われている。
Next, processing operations in the second embodiment regarding image processing in the capsule endoscope image filing system will be described.
FIG. 5 is a flowchart for explaining the operation of image processing in the second embodiment. This image processing is also processing performed by the CPU of the main body device 19 based on an instruction input from the keyboard 22 or mouse 23 of the workstation 7 shown in FIG. 1 by a doctor or nurse. Also in this case, the work described in the first embodiment is performed prior to this processing.

図5において、処理S1〜S3、S4、S5の処理は、第1の実施形態において図3のフローチャートで説明した処理S1〜S3、S4、S5の処理とそれぞれ同一である。本例では、処理S3と処理S4の間で、処理S31の処理が行われる。
すなわち、位置情報の表示(S3)の処理に続いて、この処理に先立って予め医師又は看護士が特殊画像をなす画像データの抽出の指定を行う。この指定の入力に基づいて、例えば図4(a) に示したような第2の位置マーク44が通過軌跡37上に順次表示される(S31)。
In FIG. 5, the processes S1 to S3, S4, and S5 are the same as the processes S1 to S3, S4, and S5 described in the flowchart of FIG. 3 in the first embodiment. In this example, the process S31 is performed between the process S3 and the process S4.
That is, following the process of displaying the position information (S3), prior to this process, the doctor or nurse designates extraction of image data forming a special image in advance. Based on this designation input, for example, the second position mark 44 as shown in FIG. 4A is sequentially displayed on the passage locus 37 (S31).

続いて、注目位置情報の表示(S4)と注目位置情報に対応する画像表示(S5)に続いて、本例では、区間モードが指示されているか否かが判別される(S21)。
この区間モードが指示されているか否かの判別処理では、例えば、医師又は看護士が各モデルを表示するための表示領域46上の通過軌跡37の表示以外の位置をポインティング矢印43で指示してマウス23を左クリックすることで区間モードの設定を指示することができる。上記の判別処理は、このような所定の位置でのマウス23の左クリック操作が行われているか否かを判別する処理である。ここで区間モードとは、任意の区間に含まれる位置情報の全てを注目位置情報であるとみなすモードである。
Subsequently, following the display of the attention position information (S4) and the image display corresponding to the attention position information (S5), in this example, it is determined whether or not the section mode is instructed (S21).
In the determination process of whether or not the section mode is instructed, for example, the pointing arrow 43 indicates a position other than the display of the passage locus 37 on the display area 46 for the doctor or nurse to display each model. The section mode setting can be instructed by left-clicking the mouse 23. The determination process is a process for determining whether or not the left click operation of the mouse 23 is performed at such a predetermined position. Here, the section mode is a mode in which all position information included in an arbitrary section is regarded as position information of interest.

そして、区間モードの設定の指示が入力されていれば(S21がY)、続いて、CPUは、被検体内モデル26の第1の位置が指定されるまで待機する(S22、及び判別がNO)。
この処理は、例えば図4(d) に示した区間を指定する最初のポインティング矢印43−1のように、被検体内モデル26の通過軌跡37の表示上において区間を指定する最初の位置がポインティング矢印43によって指定されているか否かを判別し、指定されていなければ指定されるまで判別を繰り返す処理である。
If the section mode setting instruction is input (Y in S21), the CPU then waits until the first position of the in-subject model 26 is designated (S22, and the determination is NO). ).
In this process, for example, as indicated by the first pointing arrow 43-1 for designating the section shown in FIG. 4D, the first position for designating the section on the display of the passage locus 37 of the intra-subject model 26 is the pointing. In this process, it is determined whether or not it is designated by an arrow 43, and if not designated, the discrimination is repeated until designated.

そして、最初の位置が指定されたときは(S22がY)、CPUは、指定された被検体内モデル26の第1の位置の情報を内蔵のメモリの所定の記憶領域に記憶して、次に、被検体内モデル26上の第2の位置が指定されるまで待機する(S23、及び判別がNO)。   When the first position is designated (S22 is Y), the CPU stores the information of the designated first position of the in-subject model 26 in a predetermined storage area of the built-in memory, and next Then, the process waits until the second position on the intra-subject model 26 is designated (S23 and determination is NO).

この処理は、例えば図2(d) に示した区間を指定する2つ目のポインティング矢印43−2のように、被検体内モデル26の通過軌跡37の表示上において区間を指定する2つ目の位置として被検体内モデル26上の第2の位置がポインティング矢印43によって指定されているか否かを判別、指定されていなければ指定されるまで判別を繰り返す処理である。   This process is performed by, for example, specifying a section on the display of the passage locus 37 of the intra-subject model 26 as indicated by a second pointing arrow 43-2 that specifies the section shown in FIG. This is a process of determining whether or not the second position on the in-subject model 26 is designated by the pointing arrow 43 as the position, and if not designated, the discrimination is repeated until it is designated.

そして、被検体内モデル26上の第2の位置が2つ目の位置が指定されたときは(S23がY)、CPUは、指定された被検体内モデル26上の第2の位置の情報を内蔵のメモリの他の所定の記憶領域に記憶した後、上述した処理31に続く処理S4及びS5と同一の処理S4及びS5を行って、次に、指定区間が終了しているか否かを判別する(S24)。   When the second position on the in-subject model 26 is designated as the second position (Y in S23), the CPU stores information on the second position on the designated in-subject model 26. Is stored in another predetermined storage area of the built-in memory, and then the processes S4 and S5 that are the same as the processes S4 and S5 following the above-described process 31 are performed, and then whether or not the designated section has ended is determined. A determination is made (S24).

この処理は、上記内蔵のメモリの他の所定の記憶領域に記憶した指定された被検体内モデル26上の第2の位置の情報に対応する位置まで、上記の処理S4及びS5の処理が行われたか否かを判別する処理である。
そして、指定区間が終了していないときは(S24がN)、更に続いて処理中断が指示されているか否かを判別する(S25)。
In this process, the processes of the above-described processes S4 and S5 are performed up to the position corresponding to the second position information on the designated in-subject model 26 stored in another predetermined storage area of the built-in memory. This is a process for determining whether or not it has been received.
If the designated section has not ended (N in S24), it is further determined whether or not a process interruption is instructed (S25).

この処理は、例えば医師又は看護士がモデル表示領域46上の通過軌跡37の表示以外の位置をポインティング矢印43で指示してマウス23を右クリックすることで処理の中断が指示される。上記の判別処理は、このような位置でのマウス23の右クリック操作が行われているか否かを判別する処理である。   In this process, for example, a doctor or a nurse indicates a position other than the display of the passage locus 37 on the model display area 46 with the pointing arrow 43 and right-clicks the mouse 23 to instruct to interrupt the process. The above determination processing is processing for determining whether or not a right click operation of the mouse 23 is performed at such a position.

そして、処理の中断が指示されていなければ(S25がNO)、処理S4に戻って、処理S4、S5、S24、S25を繰り返す。
他方、処理の中断が指示されていれば(S25がYES)、区間モードをぬける処理を行って(S26)、処理S7の処理に移行する。
If no interruption of the process is instructed (NO in S25), the process returns to the process S4, and the processes S4, S5, S24, and S25 are repeated.
On the other hand, if the interruption of the process is instructed (S25 is YES), the process of exiting the section mode is performed (S26), and the process proceeds to the process S7.

上記の処理S26の処理は、上記内蔵のメモリの所定の記憶領域及び他の所定の記憶領域に記憶した指定された被検体内モデル26上の第1の位置及び第2の位置の情報を消去して区間モードの設定を解除する処理である。
また、上記の処理S24の判別処理で指定区間が終了しているときは(S24がYES)、直ちに上記の処理S26の処理に移行する。
In the process S26, the information on the first position and the second position on the designated in-subject model 26 stored in the predetermined storage area and the other predetermined storage area of the built-in memory is deleted. This is the process of canceling the section mode setting.
Further, when the specified section is completed in the determination process of the above process S24 (S24 is YES), the process immediately proceeds to the process of the above process S26.

また、処理S21の区間モード判別処理で、区間モードの設定が指示されていないときは(S21がNO)、CPUは、続いて図3に示した処理S6と同様の処理S6の判別処理を行う。そして、この場合も、位置の指定がなされていれば(S6がYES)、処理S4に戻って、処理S4以降の処理を実行する。   In the section mode determination process of process S21, when the setting of the section mode is not instructed (S21 is NO), the CPU subsequently performs the determination process of process S6 similar to the process S6 shown in FIG. . Also in this case, if the position is designated (S6 is YES), the process returns to the process S4, and the processes after the process S4 are executed.

他方、処理S6の判別処理で位置の指定がなされていないときは(S6がNO)、図3に示した処理S7と同様の処理S7の当該アプリケーションの終了判別処理に移る。そして、アプリケーションの終了が指示されていなときは処理S21に戻って、処理S21以降の処理を行い、アプリケーションの終了が指示されているときは、当該アプリケーションを終了する。   On the other hand, when the position is not designated in the determination process of process S6 (S6 is NO), the process proceeds to the end determination process of the application in the same process S7 as the process S7 shown in FIG. Then, when the end of the application is not instructed, the process returns to step S21, and the processes after the step S21 are performed. When the end of the application is instructed, the application is ended.

これにより、ワークステーション7のモニタ装置21に向かって表示画面をみながら医師又は看護士が、マウス23の操作によってポインティング矢印43を動かしながら被検体内モデル26の通過軌跡37上の任意の2つの位置を指定すると、処理の中断を指示しない限り、その指定された2つの位置で示される区間の最初から最終まで、画像が撮像された位置に順次位置マーク39が重畳表示され、その位置に対応する画像が同一表示画面上の左側領域に表示される。   As a result, the doctor or the nurse moves the pointing arrow 43 by operating the mouse 23 while viewing the display screen toward the monitor device 21 of the workstation 7, and performs arbitrary two on the passage locus 37 of the intra-subject model 26. When a position is specified, unless the process is instructed to be interrupted, the position mark 39 is sequentially superimposed on the position where the image is captured from the beginning to the end of the section indicated by the two specified positions, and the position is corresponded. The image to be displayed is displayed in the left area on the same display screen.

また、このとき、画像表示領域41には、画像42として特徴部分45を伴った特殊画像を確認することができる。   At this time, a special image with a characteristic portion 45 can be confirmed as an image 42 in the image display area 41.

図6は、第3の実施形態における本発明に係わるカプセル型内視鏡画像ファイリングシステムの画像処理の動作を説明するフローチャートである。尚、この画像処理も、医師又は看護士による図1に示したワークステーション7のキーボード22又はマウス23からの指示入力に基づいて、本体装置19のCPUによって行われる処理である。また、この場合もこの処理に先立って第1の実施形態において述べたような作業が行われている。   FIG. 6 is a flowchart for explaining the image processing operation of the capsule endoscope image filing system according to the present invention in the third embodiment. This image processing is also processing performed by the CPU of the main body device 19 based on an instruction input from the keyboard 22 or mouse 23 of the workstation 7 shown in FIG. 1 by a doctor or nurse. Also in this case, the work described in the first embodiment is performed prior to this processing.

図6において、処理S1〜S3及び処理S4〜S7までの処理は、第1の実施形態において図3のフローチャートで説明した処理S1〜S7の処理とそれぞれ同一である。本例では、図3のフローチャートの処理S3と処理S4の処理の間で、図5に示したと同様の処理S31の処理が行われる。   In FIG. 6, processes S1 to S3 and S4 to S7 are the same as the processes S1 to S7 described in the flowchart of FIG. 3 in the first embodiment. In this example, the process S31 similar to that shown in FIG. 5 is performed between the processes S3 and S4 in the flowchart of FIG.

すなわち、位置情報の表示(S3)の処理に続いて、この処理に先立って予め医師又は看護士によって、特徴部分を有する画像である特殊画像をなす画像データの抽出が指定されたことに基づいて、例えば図4(a) に示したような第2の位置マーク44が通過軌跡37上に順次表示される(S31)。   That is, on the basis of the designation of the extraction of image data forming a special image, which is an image having a characteristic part, by the doctor or nurse prior to this processing, following the processing of displaying position information (S3). For example, the second position mark 44 as shown in FIG. 4A is sequentially displayed on the passage locus 37 (S31).

これにより、表示画面を操作中の医師又は看護士は、位置マーク39を順次指定して画像表示領域41に表示される画像42を変化させながら、第2の位置マーク44の前後の位置マーク39を指定して、第2の位置マーク44の前後の位置の画像42を観察することができる。   Thereby, the doctor or nurse who is operating the display screen sequentially specifies the position mark 39 and changes the image 42 displayed in the image display area 41, while the position mark 39 before and after the second position mark 44 is changed. Can be designated to observe the image 42 at positions before and after the second position mark 44.

図7は、第3の実施形態における画像処理の動作の他の例を説明するフローチャートである。この処理では、図6に示す処理S6の処理に代わって処理S32、S33の処理が行われる。
すなわち、初回の注目位置情報の表示(S4)と注目位置情報に対応する画像表示(S5)に続いて、注目位置情報の第1の位置の指定が行われているか否かが判別される(S32)。
FIG. 7 is a flowchart illustrating another example of the image processing operation according to the third embodiment. In this process, processes S32 and S33 are performed instead of the process S6 shown in FIG.
That is, it is determined whether or not the first position of the attention position information is designated following the initial display of the attention position information (S4) and the image display corresponding to the attention position information (S5). S32).

この処理は、医師又は看護士によるマウス23の操作で事前に「区間指定」メニュー又は「区間指定」ボタンが入力操作されたことに対応して、続くマウス23の操作で、被検体内モデル26の通過軌跡37の表示上のいずれかの位置が上記の区間指定における最初に注目すべき位置、即ち第1の位置として指定されているか否かを判別する処理である。   This process corresponds to the fact that the “section designation” menu or “section designation” button is input in advance by the operation of the mouse 23 by the doctor or nurse, and the intra-subject model 26 is operated by the subsequent operation of the mouse 23. This is a process for determining whether or not any position on the display of the passage trajectory 37 is designated as the first position to be noted in the section designation, that is, the first position.

そして、区間の最初に注目すべき位置である第1の位置が指定されていなときは(S32がN)、処理S7の判別で処理S4に戻って処理S4、S5、S32の処理を繰り返す。
そして、区間の最初に注目すべき位置である第1の位置が指定されたときは(S32がY)、次に、CPUは、注目位置情報の第2の位置が指定されているか否かを判別する(S33)。
If the first position, which is the position to be noted at the beginning of the section, is not designated (S32 is N), the process returns to the process S4 in the determination of the process S7, and the processes of the processes S4, S5, and S32 are repeated.
When the first position, which is the position to be noticed at the beginning of the section, is designated (S32 is Y), the CPU next determines whether the second position of the noticed position information is designated. A determination is made (S33).

この処理も、例えば図2(d) に示した区間を指定する2つ目のポインティング矢印43−2のように、被検体内モデル26の通過軌跡37の表示上において区間の最後を指定する2つ目の位置がポインティング矢印43によって指定されているか否かを判別する処理である。   In this process as well, for example, as shown by the second pointing arrow 43-2 for designating the section shown in FIG. This is processing for determining whether or not the third position is designated by the pointing arrow 43.

そして、区間の最終位置である注目位置情報の第2の位置が指定されていないときは(S33がN)、指定されるまで待機して、注目位置情報の第2の位置が指定されたときは(S33がY)、処理S4に戻って、第1の位置として指定されている最初の位置に位置マーク39の表示(注目位置情報表示)を行って、更に処理S5で、上記通過軌跡37の表示上の指定区間の最初の位置に対応した画像データによる画像42の表示を行ったのち、処理S32、S33の判別によって指定された区間内であるかを判断し 区間内であれば順次処理S4に戻って、処理S4及び処理S5によって、位置マーク39の表示と画像42の表示を行う。   And when the 2nd position of attention position information which is the last position of a section is not specified (S33 is N), it waits until it is specified, and when the 2nd position of attention position information is specified (S33 is Y), the process returns to step S4 to display the position mark 39 (attention position information display) at the first position designated as the first position, and in step S5, the passage locus 37 is displayed. After the image 42 is displayed with the image data corresponding to the first position of the designated section on the display, it is determined whether or not it is within the designated section by the determination in steps S32 and S33. Returning to S4, the position mark 39 and the image 42 are displayed by processing S4 and processing S5.

尚、最初に処理S4に戻ったとき、指定区間内の全ての位置マーク39を表示し、処理S5では、それら全ての位置マーク39に対応する画像42を一定時間間隔で順次表示する又はポインティング矢印43による指定に応じて、その指定された位置マーク39に対応する位置の画像42を表示するようにしても良い。   When returning to the process S4 for the first time, all the position marks 39 in the designated section are displayed, and in the process S5, the images 42 corresponding to all the position marks 39 are sequentially displayed at regular time intervals or pointing arrows. In accordance with the designation by 43, an image 42 at a position corresponding to the designated position mark 39 may be displayed.

これにより、医師又は看護士は、被検体内モデル26の通過軌跡37の表示上の所望の任意の区間内の目的とする特徴部分を有する特殊画像の存在位置を知ることができ、その特殊画像も含めてその前後の画像を任意の区間内で観察することができる。   Thereby, the doctor or the nurse can know the position of the special image having the target characteristic portion in the desired arbitrary section on the display of the trajectory 37 of the intra-subject model 26, and the special image. The images before and after the image can be observed within an arbitrary section.

続いて、このカプセル型内視鏡画像ファイリングシステムにおける画像処理についての第4の実施形態における処理動作を説明する。
図8は、第4の実施形態における画像処理の動作を説明するフローチャートである。尚、この画像処理も、医師又は看護士による図1に示したワークステーション7のキーボード22又はマウス23からの指示入力に基づいて、本体装置19のCPUによって行われる処理である。また、この場合も、この処理に先立って第1の実施形態において述べたような作業が行われている。
Next, the processing operation in the fourth embodiment regarding image processing in this capsule endoscope image filing system will be described.
FIG. 8 is a flowchart for explaining the operation of image processing in the fourth embodiment. This image processing is also processing performed by the CPU of the main body device 19 based on an instruction input from the keyboard 22 or mouse 23 of the workstation 7 shown in FIG. 1 by a doctor or nurse. Also in this case, the work described in the first embodiment is performed prior to this processing.

図8において、処理S1〜S3、S31、S4、S5、S6、S7の処理は、第3の実施形態において図6のフローチャートで説明した処理S1〜S3、S31、S4〜S7の処理とそれぞれ同一である。本例では、図6のフローチャートの処理S5と処理S6の処理の間で、処理S41、S42の処理が行われる。   In FIG. 8, the processes S1 to S3, S31, S4, S5, S6, and S7 are the same as the processes S1 to S3, S31, and S4 to S7 described in the flowchart of FIG. 6 in the third embodiment. It is. In this example, processes S41 and S42 are performed between the processes S5 and S6 in the flowchart of FIG.

すなわち、初回の注目位置情報の表示(S4)の段階で、処理S31で表示された第2の位置マーク44の全ての表示と、処理S4における位置マーク39の表示とが、被検体内モデル26の通過軌跡37の表示上に重畳して表示されており、処理S5で、上記の位置マーク39に対応する画像42が右側の画像表示領域41に表示される。   In other words, at the stage of initial attention position information display (S4), all the display of the second position mark 44 displayed in the process S31 and the display of the position mark 39 in the process S4 are the intra-subject model 26. The image 42 corresponding to the position mark 39 is displayed in the right image display area 41 in step S5.

ここで、CPUは、位置マーク39の表示位置が被検体内モデル26上の第2のマークの表示位置と一致するか否かを判別する(S41)。
この処理は、上記の位置マーク39を表示すべき表示位置が、処理S31においてモデル上に表示されている第2の位置マーク44(図4(a),(b) で説明したように第2の位置マーク44の表示は図のように1箇所のみでなく通常は複数の場合が予想され実際の表示ではそれら複数の全ての第2の位置マーク44が通過軌跡37の表示上に表示されている)の中のいずれかの表示位置に重畳するか否かを判別する処理である。
Here, the CPU determines whether or not the display position of the position mark 39 matches the display position of the second mark on the intra-subject model 26 (S41).
In this process, the display position where the position mark 39 is to be displayed is the second position mark 44 displayed on the model in the process S31 (as described with reference to FIGS. 4A and 4B). As shown in the figure, the display of the position mark 44 is not limited to a single place, and usually a plurality of cases are expected. In actual display, all of the plurality of second position marks 44 are displayed on the display of the passage locus 37. Is a process of determining whether or not to superimpose on any display position.

そして、第2の位置マーク44の表示位置と重畳していなければ(S41がNO)、処理S6の処理に移るが、いずれかの第2の位置マーク44の表示位置に重畳していれば(S41がYES)、特徴部分を有する画像42の表示を行ってから(S42)、処理S6の処理に移る。   If it is not superimposed on the display position of the second position mark 44 (NO in S41), the process proceeds to the process S6, but if it is superimposed on the display position of any of the second position marks 44 ( After the display of the image 42 having the characteristic portion (S42), the process proceeds to the process S6.

上記の処理42では、位置マーク39の表示位置と重畳する第2の位置マーク44が示す位置の画像42が、例えば図4(b) に示したように、画像表示領域41に表示される。そして、更に図4(c) に示したように、上記表示された画像42に重畳して、この画像42がデータベース9から抽出された要因となった特徴部分45が表示される。   In the processing 42 described above, the image 42 at the position indicated by the second position mark 44 superimposed on the display position of the position mark 39 is displayed in the image display area 41, for example, as shown in FIG. Further, as shown in FIG. 4C, the feature portion 45 that causes the image 42 to be extracted from the database 9 is displayed so as to be superimposed on the displayed image 42.

続く、処理S6及びS7の処理は、図3、図5、及び図6の場合と同様である。
これにより、医師又は看護士は、通過軌跡37の表示上に全て表示されている特殊画像の撮像位置を示す第2の位置マーク44の中から任意の位置の第2の位置マーク44を指定して、特殊画像全体(図4(b) の画像42)及び特殊状態となっている位置(図4(c) の特徴部分45)を迅速に知って観察することができる。
Subsequent processes S6 and S7 are the same as those in FIGS. 3, 5, and 6.
As a result, the doctor or nurse designates the second position mark 44 at an arbitrary position from the second position marks 44 indicating the imaging positions of the special images displayed on the display of the passage locus 37. Thus, the entire special image (image 42 in FIG. 4B) and the position in the special state (characteristic portion 45 in FIG. 4C) can be quickly known and observed.

続いて、このカプセル型内視鏡画像ファイリングシステムにおける画像処理についての第5の実施形態における処理動作を説明する。
図9は、第5の実施形態における画像処理の動作を説明するフローチャートである。尚、この画像処理も、医師又は看護士による図1に示したワークステーション7のキーボード22又はマウス23からの指示入力に基づいて、本体装置19のCPUによって行われる処理である。また、この場合も、この処理に先立って第1の実施形態において述べたような作業が行われている。
Next, processing operations in the fifth embodiment regarding image processing in the capsule endoscope image filing system will be described.
FIG. 9 is a flowchart for explaining the image processing operation in the fifth embodiment. This image processing is also processing performed by the CPU of the main body device 19 based on an instruction input from the keyboard 22 or mouse 23 of the workstation 7 shown in FIG. 1 by a doctor or nurse. Also in this case, the work described in the first embodiment is performed prior to this processing.

図9において、処理S1〜S3、S31、S4、S5、S41、S42、S6,S7の処理は、第4の実施形態において図8のフローチャートで説明した処理S1〜S3、S31、S4、S5、S41,S42、S6、S7の処理とそれぞれ同一である。本例では、図8の場合と異なり、処理S6の直前に、処理S21〜S26(途中に処理S4、S5、S41、S42が含まれる)までの処理が行われる。   9, the processes S1 to S3, S31, S4, S5, S41, S42, S6, and S7 are the same as the processes S1 to S3, S31, S4, S5, described in the flowchart of FIG. 8 in the fourth embodiment. The processes of S41, S42, S6, and S7 are the same. In this example, unlike the case of FIG. 8, the processes from S21 to S26 (including processes S4, S5, S41, and S42 in the middle) are performed immediately before the process S6.

そして、この処理S21〜S26の処理おいて、処理の順に説明すれば、処理S21〜S23、S4、S5の処理は、図5に示した処理S21〜S23、S4、S5の処理と同一であり、続く処理S41、S42の処理は図8に示した処理S41、S42の処理と同一であり、更に続く処理S24、S25、S26の処理は、図5に示した処理S24、S25、S26の処理と同一である。   In the processes of S21 to S26, the processes in S21 to S23, S4, and S5 are the same as the processes of S21 to S23, S4, and S5 shown in FIG. The subsequent processes S41 and S42 are the same as the processes S41 and S42 shown in FIG. 8, and the subsequent processes S24, S25 and S26 are the processes S24, S25 and S26 shown in FIG. Is the same.

これにより、医師又は看護士は、症状に応じて知られている病変の状態(例えば出血部位の状態やポリープの状態など)を指定し、且つ被検体内モデル26の通過軌跡37の表示上の所望の任意の区間を指定して、その区間内における第2の位置マーク44の位置に対応する画像である特殊画像をなす画像42を表示させ、その画像上の特殊状態となっている特徴部分45を観察し、症状の広がり具合や症状の軽重の度合い等を迅速に判断することができる。   As a result, the doctor or nurse designates the state of the known lesion according to the symptom (for example, the state of the bleeding site or the state of the polyp), and on the display of the passage locus 37 of the intra-subject model 26. A desired arbitrary section is designated, and an image 42 forming a special image, which is an image corresponding to the position of the second position mark 44 in the section, is displayed, and a characteristic portion in a special state on the image 45 can be observed and the extent of the symptom spread, the severity of the symptom, and the like can be quickly determined.

このように、本発明のカプセル型内視鏡画像ファイリングシステムによる画像処理装置及び画像処理方法によれば、画像とその撮像位置とを関連付けながら同一表示画面上で画像と撮像位置の両方を観察でき、更に、マウスによる簡単な操作で所望の任意の位置の画像を迅速に観察することができる。   Thus, according to the image processing apparatus and the image processing method of the capsule endoscope image filing system of the present invention, it is possible to observe both the image and the imaging position on the same display screen while associating the image with the imaging position. Furthermore, it is possible to quickly observe an image at a desired arbitrary position by a simple operation with a mouse.

更に、気掛かりな症状については、予め知られているその症状に特有の消化管内の観察上の色の状態を予め用意してある色情報等で指定して、その色の状態に同一又は近似の状態となっている画像のみを検出して、その画像と撮像位置とを観察できるので、正確かつ迅速な判断を下すことができるようになる。   Furthermore, for the symptom that is noticeable, the color state on observation in the digestive tract that is specific to the symptom that is known in advance is designated by color information that has been prepared in advance, and is the same or similar to the color state. Since only the image in the state can be detected and the image and the imaging position can be observed, an accurate and quick judgment can be made.

尚、上述した例では、位置情報としてのカプセル型内視鏡3の通過軌跡37の表示を、実際の消化管の形状に合わせて3次元的に表示しているが(図では2次元に見えるが実際の表示画面上では消化管の形状に合わせて3次元表示となっている)、これに限ることなく、位置情報としては、平面的に2次元で表示しても良く、また例えば1次元つまり直線で表現してもよい。1次元の場合はその直線上に、図21(a) に示した食道31、胃32、十二指腸33、小腸34、大腸35、直腸36等に対応する区間を設けて、位置の表示を行えば良い。   In the above-described example, the display of the passage trajectory 37 of the capsule endoscope 3 as the position information is displayed three-dimensionally according to the actual shape of the digestive tract (it looks two-dimensional in the figure). However, the position information is not limited to this and may be displayed in a two-dimensional plane, for example, a one-dimensional display. That is, it may be expressed by a straight line. In the case of a one-dimensional case, if a section corresponding to the esophagus 31, stomach 32, duodenum 33, small intestine 34, large intestine 35, rectum 36, etc. shown in FIG. good.

本発明に係わるカプセル型内視鏡画像ファイリングシステムの概略の構成を示す図である。1 is a diagram showing a schematic configuration of a capsule endoscope image filing system according to the present invention. (a) 〜(d) は第1、第2の実施の形態において本発明のカプセル型内視鏡画像ファイリングシステムにおけるワークステーションのモニタ装置の同一表示画面上に表示される被検査者の被検体内モデルと画像の例を示す図である。(a) to (d) are subjects to be examined displayed on the same display screen of the monitor device of the workstation in the capsule endoscope image filing system of the present invention in the first and second embodiments. It is a figure which shows the example of an inner model and an image. 第1の実施形態における本発明に係わるカプセル型内視鏡画像ファイリングシステムの画像処理の動作を説明するフローチャートである。It is a flowchart explaining the operation | movement of the image processing of the capsule type endoscope image filing system concerning this invention in 1st Embodiment. (a) 〜(d) は第2〜第5の実施の形態において本発明に係わるカプセル型内視鏡画像ファイリングシステムにおけるワークステーションのモニタ装置の同一表示画面上に表示される被検査者の消化管内モデルと画像の例を示す図である。(a) to (d) are the digests of the examinee displayed on the same display screen of the monitor device of the workstation in the capsule endoscope image filing system according to the present invention in the second to fifth embodiments. It is a figure which shows the example of a pipe model and an image. 第2の実施形態における本発明に係わるカプセル型内視鏡画像ファイリングシステムの画像処理の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the image processing of the capsule type endoscope image filing system concerning 2nd Embodiment in this invention. 第3の実施形態における本発明に係わるカプセル型内視鏡画像ファイリングシステムの画像処理の動作を説明するフローチャートである。It is a flowchart explaining the operation | movement of the image processing of the capsule type endoscope image filing system concerning this invention in 3rd Embodiment. 第3の実施形態における画像処理の動作の他の例を説明するフローチャートである。14 is a flowchart for explaining another example of the image processing operation in the third embodiment. 第4の実施形態における本発明に係わるカプセル型内視鏡画像ファイリングシステムの画像処理の動作を説明するフローチャートである。It is a flowchart explaining the operation | movement of the image processing of the capsule type endoscope image filing system concerning this invention in 4th Embodiment. 第5の実施形態における本発明に係わるカプセル型内視鏡画像ファイリングシステムの画像処理の動作を説明するフローチャートである。It is a flowchart explaining the operation | movement of the image processing of the capsule type endoscope image filing system concerning this invention in 5th Embodiment.

符号の説明Explanation of symbols

1 カプセル型内視鏡システム
2 パッケージ
3 カプセル型内視鏡
4 被検査者
5 ジャケット
6 受信機
7 ワークステーション
8 ネットワーク
9 データベース
11(11a、11b、11c、11d) アンテナ
12 アンテナ
13 表示部
14 入力部
15 電源部
16 信号処理・制御部
17 CF(コンパクトフラッシュ(登録商標))メモリ
18 装着部
19 本体装置
20 カプセル型内視鏡画像ファイリングシステム
21 モニタ装置
22 キーボード
23 マウス
24 プリンタ
25 CFメモリリーダ/ライタ
26 被検体内モデル
27 被検体モデル
28 消化管モデル
31 食道
32 胃
33 十二指腸
34 小腸
35 大腸
36 直腸
37 通過軌跡
38 表示画面
39 位置マーク
41 画像表示領域
42 画像
43(43、43−1、43−2) ポインティング矢印
44 第2の位置マーク
45 特徴部分
46 モデル表示領域
DESCRIPTION OF SYMBOLS 1 Capsule type | mold endoscope system 2 Package 3 Capsule type | mold endoscope 4 Inspected person 5 Jacket 6 Receiver 7 Workstation 8 Network 9 Database 11 (11a, 11b, 11c, 11d) Antenna 12 Antenna 13 Display part 14 Input part DESCRIPTION OF SYMBOLS 15 Power supply part 16 Signal processing / control part 17 CF (compact flash (registered trademark)) memory 18 Mounting part 19 Main body apparatus 20 Capsule type endoscope image filing system 21 Monitor apparatus 22 Keyboard 23 Mouse 24 Printer 25 CF memory reader / writer 26 In-subject model 27 Subject model 28 Gastrointestinal model 31 Esophagus 32 Stomach 33 Duodenum 34 Small intestine 35 Large intestine 36 Rectal 37 Passing track 38 Display screen 39 Position mark 41 Image display area 42 Image 43 (43, 43- 1, 43-2) Pointing arrow 44 Second position mark 45 Characteristic portion 46 Model display area

Claims (15)

被検体内に導入された撮像装置によって該被検体内の複数の位置で経時的に撮像して得た複数の画像情報を表示手段に表示させるための表示処理装置であって、
前記複数の画像情報を取得する画像情報取得手段と、
前記複数の画像情報のそれぞれに関連づけられ、前記撮像装置が経時的に撮像した前記被検体内でのそれぞれの位置に関する複数の位置情報を取得する位置情報取得手段と、
前記複数の位置情報に基づいて、前記撮像装置が経時的に撮像した前記被検体内での位置を少なくとも1次元の図式として前記表示手段に表示させる位置情報表示手段と、
前記複数の位置情報のうちの少なくとも1つを注目位置情報として指示する注目位置情報指示手段と、
前記図式として表示された前記複数の位置情報のうちで、前記注目位置情報として指示された位置情報に関連づけられた画像情報を前記表示手段に表示させる画像表示手段と、
を有することを特徴とする画像情報の表示処理装置。
A display processing device for causing a display means to display a plurality of pieces of image information obtained by imaging over time at a plurality of positions in the subject by an imaging device introduced into the subject,
Image information acquisition means for acquiring the plurality of image information;
Position information acquisition means associated with each of the plurality of pieces of image information, for acquiring a plurality of pieces of position information relating to respective positions in the subject imaged by the imaging device over time;
Position information display means for causing the display means to display the position in the subject imaged by the imaging device over time based on the plurality of position information as an at least one-dimensional diagram;
Attention position information instruction means for instructing at least one of the plurality of position information as attention position information;
Image display means for causing the display means to display image information associated with position information instructed as the position information of interest among the plurality of position information displayed as the diagram;
A display processing apparatus for image information, comprising:
前記位置情報表示手段により前記図式として表示された前記複数の位置情報のうちで、該図式中の前記注目位置情報に対応する位置に所定のマークを表示させる位置マーク表示手段をさらに有することを特徴とする請求額1に記載の画像情報の表示処理装置。   It further comprises position mark display means for displaying a predetermined mark at a position corresponding to the target position information in the diagram among the plurality of position information displayed as the diagram by the position information display means. The image information display processing apparatus according to claim 1. 前記複数の画像情報と前記複数の位置情報とを保存する保存手段をさらに有し、
前記画像表示手段は、前記注目位置情報として指示された位置情報に関連づけられた画像情報を前記保存手段から読み出して前記表示手段に表示させることを特徴とする請求項1又は2に記載の画像情報の表示処理装置。
A storage unit for storing the plurality of image information and the plurality of position information;
3. The image information according to claim 1, wherein the image display unit reads image information associated with the position information designated as the attention position information from the storage unit and displays the image information on the display unit. Display processing device.
前記注目位置情報指示手段は、前記位置情報表示手段によって前記図式として表示された前記複数の位置情報の中から、該図式上で任意の位置情報を前記注目位置情報として指定する指定位置入力手段を更に有することを特徴とする請求項1、2又は3に記載の画像情報の表示処理装置。   The attention position information instruction means includes designated position input means for designating arbitrary position information as the attention position information on the diagram out of the plurality of position information displayed as the diagram by the position information display means. The image information display processing device according to claim 1, further comprising: 前記複数の画像特報の中から所定の特徴部分を有する画像情報を抽出する特徴画像検出手段を更に有し、
前記注目位置情報指示手段は、前記特徴画像検出手段で抽出された前記所定の特徴を有する画像情報に関連づいている位置情報を前記注目位置情報として指示することを特徴とする請求項1、2又は3に記載の画像情報の表示処理装置。
A feature image detecting means for extracting image information having a predetermined feature portion from the plurality of image special information;
The point-of-interest position information instruction unit instructs position information associated with image information having the predetermined feature extracted by the feature image detection unit as the point-of-interest information. Or a display processing apparatus for image information according to 3.
被検体内の複数の位置で経時的に撮像して得た複数の画像情報をモニタ装置の表示画面上に表示させるための表示処理方法であって、
前記複数の画像情報を取得する画像情報取得工程と、
前記複数の画像情報のそれぞれに関連づけられ、前記被検体内で経時的に撮像されたそれぞれの位置に関する複数の位置情報を取得する位置情報取得工程と、
前記複数の位置情報に基づいて、前記被検体内で経時的に撮像された位置を少なくとも1次元の図式として表示させる位置情報表示工程と、
前記複数の位置情報のうちの少なくとも1つを注目位置情報として指示する注目位置情報指示工程と、
前記図式として表示された前記複数の位置情報のうちで、前記注目位置情報として指示された位置情報に関連づけられた画像情報を表示させる画像表示工程と、
を含むことを特徴とする画像情報の表示処理方法。
A display processing method for displaying a plurality of pieces of image information obtained by imaging at a plurality of positions in a subject over time on a display screen of a monitor device,
An image information acquisition step of acquiring the plurality of image information;
A position information acquisition step for acquiring a plurality of position information associated with each of the plurality of image information and related to each position imaged in the subject over time;
A position information display step of displaying, as at least a one-dimensional diagram, positions imaged over time in the subject based on the plurality of position information;
Attention position information instruction step for instructing at least one of the plurality of position information as attention position information;
An image display step for displaying image information associated with the position information instructed as the position information of interest among the plurality of position information displayed as the diagram;
A display processing method for image information, comprising:
前記位置情報表示工程により前記図式として表示された前記複数の位置情報のうちで、該図式中の前記注目位置情報に対応する位置に所定のマークを表示させる位置マーク表示工程をさらに有することを特徴とする請求額6に記載の画像情報の表示処理方法。   A position mark display step of displaying a predetermined mark at a position corresponding to the target position information in the diagram among the plurality of position information displayed as the diagram by the position information display step. The image information display processing method according to claim 6. 前記複数の画像情報と前記複数の位置情報とを保存する保存工程をさらに有し、
前記画像表示工程は、前記注目位置情報として指示された位置情報に関連づけられた画像情報を前記保存工程から読み出して前記表示工程に表示させることを特徴とする請求項6又は7に記載の画像情報の表示処理方法。
A storage step of storing the plurality of image information and the plurality of position information;
8. The image information according to claim 6, wherein the image display step reads image information associated with the position information designated as the attention position information from the storage step and displays the image information on the display step. Display processing method.
前記注目位置情報指示工程は、前記位置情報表示工程によって前記図式として表示された前記複数の位置情報の中から、該図式上で任意の位置情報を前記注目位置情報として指定する指定位置入力工程を更に有することを特徴とする請求項6、7又は8に記載の画像情報の表示処理方法。   The attention position information instruction step includes a designated position input step for designating arbitrary position information as the attention position information on the diagram from among the plurality of position information displayed as the diagram by the position information display step. The image information display processing method according to claim 6, 7 or 8, further comprising: 前記複数の画像特報の中から所定の特徴部分を有する画像情報を抽出する特徴画像検出工程を更に有し、
前記注目位置情報指示工程は、前記特徴画像検出工程で抽出された前記所定の特徴を有する画像情報に関連づいている位置情報を前記注目位置情報として指示することを特徴とする請求項6、7又は8に記載の画像情報の表示処理方法。
A feature image detecting step of extracting image information having a predetermined feature portion from the plurality of image special bulletins,
8. The attention position information instruction step indicates position information associated with image information having the predetermined feature extracted in the feature image detection step as the attention position information. Or the display processing method of the image information of 8.
被検体内の複数の位置で経時的に撮像して得た複数の画像情報をコンピュータによってモニタ装置の表示画面上に表示させるための表示処理プログラムであって、
該表示処理プログラムは、
前記複数の画像情報を取得する画像情報取得処理と、
前記複数の画像情報のそれぞれに関連づけられ、前記被検体内で経時的に撮像されたそれぞれの位置に関する複数の位置情報を取得する位置情報取得処理と、
前記複数の位置情報に基づいて、前記被検体内で経時的に撮像された位置を少なくとも1次元の図式として表示させる位置情報表示処理と、
前記複数の位置情報のうちの少なくとも1つを注目位置情報として指示する注目位置情報指示処理と、
前記図式として表示された前記複数の位置情報のうちで、前記注目位置情報として指示された位置情報に関連づけられた画像情報を表示させる画像表示処理と、
を前記コンピュータに実行させることを特徴とする画像情報の表示処理プログラム。
A display processing program for causing a computer to display a plurality of image information obtained by imaging over time at a plurality of positions in a subject on a display screen of a monitor device,
The display processing program
Image information acquisition processing for acquiring the plurality of image information;
A positional information acquisition process for acquiring a plurality of positional information related to each of the plurality of pieces of image information and associated with the respective positions imaged in the subject over time;
A position information display process for displaying a position imaged in the subject over time based on the plurality of position information as at least a one-dimensional diagram;
Attention position information instruction processing for instructing at least one of the plurality of position information as attention position information;
Image display processing for displaying image information associated with the position information instructed as the position information of interest among the plurality of position information displayed as the diagram;
The computer program executes an image information display processing program.
前記位置情報表示処理により前記図式として表示された前記複数の位置情報のうちで、該図式中の前記注目位置情報に対応する位置に所定のマークを表示させる位置マーク表示処理をさらに有することを特徴とする請求額11に記載の画像情報の表示処理プログラム。   A position mark display process for displaying a predetermined mark at a position corresponding to the target position information in the diagram among the plurality of position information displayed as the diagram by the position information display process. The image information display processing program according to claim 11. 前記複数の画像情報と前記複数の位置情報とを保存する保存処理をさらに有し、
前記画像表示処理は、前記注目位置情報として指示された位置情報に関連づけられた画像情報を前記保存処理から読み出して前記表示処理に表示させることを特徴とする請求項11又は12に記載の画像情報の表示処理プログラム。
A storage process for storing the plurality of pieces of image information and the plurality of pieces of position information;
The image information according to claim 11 or 12, wherein the image display process reads image information associated with position information designated as the position information of interest from the storage process and displays the image information on the display process. Display processing program.
前記注目位置情報指示処理は、前記位置情報表示処理によって前記図式として表示された前記複数の位置情報の中から、該図式上で任意の位置情報を前記注目位置情報として指定する指定位置入力処理を更に有することを特徴とする請求項11、12又は13に記載の画像情報の表示処理プログラム。   The attention position information instruction processing includes designated position input processing for designating arbitrary position information as the attention position information on the diagram from the plurality of position information displayed as the diagram by the position information display processing. 14. The image information display processing program according to claim 11, 12 or 13, further comprising: 前記複数の画像特報の中から所定の特徴部分を有する画像情報を抽出する特徴画像検出処理を更に有し、
前記注目位置情報指示処理は、前記特徴画像検出処理で抽出された前記所定の特徴を有する画像情報に関連づいている位置情報を前記注目位置情報として指示することを特徴とする請求項11、12又は13に記載の画像情報の表示処理プログラム。
A feature image detection process for extracting image information having a predetermined feature portion from the plurality of image special information;
13. The attention position information instruction process instructs position information associated with image information having the predetermined feature extracted in the feature image detection process as the attention position information. Or the display processing program of the image information of 13.
JP2004028579A 2003-12-05 2004-02-04 Display processing apparatus for image information, display processing method and display processing program Expired - Fee Related JP3984230B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2004028579A JP3984230B2 (en) 2004-02-04 2004-02-04 Display processing apparatus for image information, display processing method and display processing program
EP04819963A EP1690491A4 (en) 2003-12-05 2004-12-06 Display processing device
PCT/JP2004/018170 WO2005053518A1 (en) 2003-12-05 2004-12-06 Display processing device
EP13003512.4A EP2649931B1 (en) 2003-12-05 2004-12-06 Display processing device
US11/418,534 US8368746B2 (en) 2003-12-05 2006-05-04 Apparatus and method for processing image information captured over time at plurality of positions in subject body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004028579A JP3984230B2 (en) 2004-02-04 2004-02-04 Display processing apparatus for image information, display processing method and display processing program

Publications (3)

Publication Number Publication Date
JP2005218584A true JP2005218584A (en) 2005-08-18
JP2005218584A5 JP2005218584A5 (en) 2007-03-22
JP3984230B2 JP3984230B2 (en) 2007-10-03

Family

ID=34994693

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004028579A Expired - Fee Related JP3984230B2 (en) 2003-12-05 2004-02-04 Display processing apparatus for image information, display processing method and display processing program

Country Status (1)

Country Link
JP (1) JP3984230B2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007026890A1 (en) * 2005-09-02 2007-03-08 Olympus Medical Systems Corp. Portable simplified image display device and receiving system
WO2007029815A1 (en) * 2005-09-09 2007-03-15 Olympus Corporation Intra-lumen image viewer
WO2007123130A1 (en) * 2006-04-19 2007-11-01 Olympus Medical Systems Corp. Capsule medical device
JP2007319478A (en) * 2006-06-01 2007-12-13 Fujifilm Corp Medical image displaying unit and method, and endoscope device
JP2007325742A (en) * 2006-06-07 2007-12-20 Olympus Medical Systems Corp Medical image management method, medical image management system using the same, and report preparation method
WO2008142831A1 (en) 2007-05-17 2008-11-27 Olympus Medical Systems Corp. Image information display processing device and display processing method
JP2010069018A (en) * 2008-09-18 2010-04-02 Olympus Medical Systems Corp Medical guide system
JPWO2008096744A1 (en) * 2007-02-05 2010-05-20 オリンパスメディカルシステムズ株式会社 Display device and in-subject information acquisition system using the same
US8038608B2 (en) 2005-09-09 2011-10-18 Olympus Corporation Body-cavity image observation apparatus
WO2012063623A1 (en) * 2010-11-08 2012-05-18 オリンパスメディカルシステムズ株式会社 Image display apparatus and capsule endoscopy system
US8225209B2 (en) 2007-05-29 2012-07-17 Olympus Medical Systems Corp. Capsule endoscope image display device
JP2012139456A (en) * 2011-01-05 2012-07-26 Olympus Corp Endoscopic image reproducing apparatus
JP2012170751A (en) * 2011-02-23 2012-09-10 Olympus Medical Systems Corp Image display device, method and program, and capsule type endoscope system
US8413079B2 (en) 2007-06-27 2013-04-02 Olympus Medical Systems Corp. Display processing apparatus for image information
WO2023228659A1 (en) * 2022-05-24 2023-11-30 富士フイルム株式会社 Image processing device and endoscope system

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8036615B2 (en) 2005-09-02 2011-10-11 Olympus Corporation Portable simplified image display apparatus and receiving system
WO2007026890A1 (en) * 2005-09-02 2007-03-08 Olympus Medical Systems Corp. Portable simplified image display device and receiving system
WO2007029815A1 (en) * 2005-09-09 2007-03-15 Olympus Corporation Intra-lumen image viewer
JP2007075159A (en) * 2005-09-09 2007-03-29 Olympus Medical Systems Corp Device for observing image of inside of body cavity
US8038608B2 (en) 2005-09-09 2011-10-18 Olympus Corporation Body-cavity image observation apparatus
WO2007123130A1 (en) * 2006-04-19 2007-11-01 Olympus Medical Systems Corp. Capsule medical device
JP2007283001A (en) * 2006-04-19 2007-11-01 Olympus Medical Systems Corp Capsule type medical apparatus
US8974373B2 (en) 2006-04-19 2015-03-10 Olympus Medical Systems Corp. Capsule-type medical device
US8465418B2 (en) 2006-04-19 2013-06-18 Olympus Medical Systems Corp. Capsule-type medical device
KR101050908B1 (en) 2006-04-19 2011-07-20 올림푸스 메디칼 시스템즈 가부시키가이샤 Capsule Type Medical Device
JP2007319478A (en) * 2006-06-01 2007-12-13 Fujifilm Corp Medical image displaying unit and method, and endoscope device
JP2007325742A (en) * 2006-06-07 2007-12-20 Olympus Medical Systems Corp Medical image management method, medical image management system using the same, and report preparation method
JP5064416B2 (en) * 2007-02-05 2012-10-31 オリンパスメディカルシステムズ株式会社 Display device and in-subject information acquisition system using the same
JPWO2008096744A1 (en) * 2007-02-05 2010-05-20 オリンパスメディカルシステムズ株式会社 Display device and in-subject information acquisition system using the same
US8419618B2 (en) 2007-02-05 2013-04-16 Olympus Medical Systems Corp. Display device and in-vivo information acquiring system using the same
WO2008142831A1 (en) 2007-05-17 2008-11-27 Olympus Medical Systems Corp. Image information display processing device and display processing method
US8225209B2 (en) 2007-05-29 2012-07-17 Olympus Medical Systems Corp. Capsule endoscope image display device
US8413079B2 (en) 2007-06-27 2013-04-02 Olympus Medical Systems Corp. Display processing apparatus for image information
JP2010069018A (en) * 2008-09-18 2010-04-02 Olympus Medical Systems Corp Medical guide system
JP5044066B2 (en) * 2010-11-08 2012-10-10 オリンパスメディカルシステムズ株式会社 Image display device and capsule endoscope system
US8711205B2 (en) 2010-11-08 2014-04-29 Olympus Medical Systems Corp. Image display device and capsule endoscope system
WO2012063623A1 (en) * 2010-11-08 2012-05-18 オリンパスメディカルシステムズ株式会社 Image display apparatus and capsule endoscopy system
JP2012139456A (en) * 2011-01-05 2012-07-26 Olympus Corp Endoscopic image reproducing apparatus
JP2012170751A (en) * 2011-02-23 2012-09-10 Olympus Medical Systems Corp Image display device, method and program, and capsule type endoscope system
WO2023228659A1 (en) * 2022-05-24 2023-11-30 富士フイルム株式会社 Image processing device and endoscope system

Also Published As

Publication number Publication date
JP3984230B2 (en) 2007-10-03

Similar Documents

Publication Publication Date Title
US8368746B2 (en) Apparatus and method for processing image information captured over time at plurality of positions in subject body
JP4493386B2 (en) Image display device, image display method, and image display program
JP5568196B1 (en) Image processing apparatus and image processing method
JP5403880B2 (en) Image information display processing device
JP3984230B2 (en) Display processing apparatus for image information, display processing method and display processing program
US8353816B2 (en) Endoscopy system and method therefor
JP5327641B2 (en) Image information display processing device
JP4823659B2 (en) In vivo image display device
JP6027960B2 (en) Image display apparatus, image display method, and image display program
JP2007125373A (en) System and method for in vivo feature detection
US20090027486A1 (en) Image display apparatus
JP2008295490A (en) Capsule endoscope image display device
JP4139319B2 (en) Capsule-type endoscope image filing device
JP4554647B2 (en) Image display device, image display method, and image display program
JP4574983B2 (en) Image display apparatus, image display method, and image display program
JP4472602B2 (en) Image display device
US20080172255A1 (en) Image display apparatus
JP4547401B2 (en) Image display device, image display method, and image display program
JP5231160B2 (en) Image display device, image display method, and image display program
JP4547402B2 (en) Image display device, image display method, and image display program
JP4445742B2 (en) Image display apparatus, image display method, and image display program
JP2006345929A (en) Image display device
JP5684300B2 (en) Image display device, image display method, and image display program
JP4923096B2 (en) Image display device
JP2012249956A (en) Capsule endoscope image processing apparatus and capsule endoscope system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070201

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070705

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100713

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 3984230

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100713

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100713

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110713

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120713

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130713

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees