JP2010158308A - Image processing apparatus, image processing method and image processing program - Google Patents

Image processing apparatus, image processing method and image processing program Download PDF

Info

Publication number
JP2010158308A
JP2010158308A JP2009001135A JP2009001135A JP2010158308A JP 2010158308 A JP2010158308 A JP 2010158308A JP 2009001135 A JP2009001135 A JP 2009001135A JP 2009001135 A JP2009001135 A JP 2009001135A JP 2010158308 A JP2010158308 A JP 2010158308A
Authority
JP
Japan
Prior art keywords
image
body cavity
images
series
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009001135A
Other languages
Japanese (ja)
Inventor
Makoto Kitamura
誠 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2009001135A priority Critical patent/JP2010158308A/en
Publication of JP2010158308A publication Critical patent/JP2010158308A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Endoscopes (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To appropriately extract an abstractive intracavitary image from a series of intracavitary images. <P>SOLUTION: In this embodiment, a section setting part 16 sets a similar image appearing section in which a similar intracavitary image appears in time-series sections of the series of intracavitary images. A first abstractive image extracting part 17 extracts a first abstractive intracavitary image from the series of intracavitary images based on the change of the scene of the respective intracavitary images constituting the series of intracavitary images. A second abstractive image extracting part 18 extracts a second abstractive intracavitary image based on the similarity among the first abstractive intracavitary images belonging to the same similarity image appearing section. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、体腔内を連続的に撮像した一連の体腔内画像の中から要約体腔内画像を抽出する画像処理装置、画像処理方法および画像処理プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program for extracting a summary body cavity image from a series of body cavity images obtained by continuously imaging the body cavity.

近年、被検者の体腔内を撮像する医用機器として、カプセル内視鏡が開発されている。カプセル内視鏡は、口から飲み込まれた後、消化管内を蠕動運動等により移動しながら所定の撮像レートで体腔内画像を撮像して体外受信機に送信し、最終的に体外に排出される。撮像される体腔内画像の枚数は、撮像レート(2〜4frame/sec)×カプセル内視鏡の体内滞在時間(8hours=8×60×60sec)で概ね示され、数万枚以上という大量の枚数になる。医師等の観察者は、これら体外受信機に送信された大量の体腔内画像を診断用のワークステーション等で確認し、病変部を特定するために多くの時間を費やしている。このため、体腔内画像の観察作業を効率化する技術が強く望まれている。   In recent years, capsule endoscopes have been developed as medical devices for imaging the body cavity of a subject. After being swallowed from the mouth, the capsule endoscope captures an image of the body cavity at a predetermined imaging rate while moving in the digestive tract by a peristaltic motion and the like, transmits it to the external receiver, and is finally discharged out of the body. . The number of images in the body cavity to be imaged is generally indicated by the imaging rate (2 to 4 frames / sec) × the stay time in the capsule endoscope (8 hours = 8 × 60 × 60 sec). become. An observer such as a doctor spends a lot of time to confirm a large amount of in-vivo images transmitted to these extracorporeal receivers on a diagnostic workstation or the like and to identify a lesioned part. For this reason, there is a strong demand for a technique for improving the efficiency of observing a body cavity image.

一方で、動画映像のような時系列に並ぶ一連の画像の中から、その内容を把握するためのダイジェストを作成する技術が知られている。例えば、特許文献1には、直前のフレームとの間で色ヒストグラムによる相違度を算出し、相違度が閾値を超えているフレームをダイジェスト画像とする技術が開示されている。この種の技術を適用すれば、カプセル内視鏡によって撮像された体腔内画像の中から要約体腔内画像を抽出することができるので、体腔内画像の観察効率を向上させることができる。   On the other hand, a technique for creating a digest for grasping the content from a series of images arranged in a time series such as a moving image is known. For example, Patent Document 1 discloses a technique for calculating a degree of difference based on a color histogram from the immediately preceding frame and setting a frame whose difference exceeds a threshold as a digest image. By applying this type of technique, it is possible to extract a summary in-vivo image from an in-vivo image captured by a capsule endoscope, so that it is possible to improve the observation efficiency of the in-vivo image.

特開平8−294083号公報JP-A-8-294083

ところで、カプセル内視鏡は、蠕動運動等により体腔内を移動するため、その移動速度は一定ではなく、消化管内の同一箇所に停滞したり前進や後進を繰り返すといった場合も生じる。この結果、同じような内容の体腔内画像が連続的にあるいは不連続で撮像される場合が発生し得る。このため、上記した特許文献1のように、単に隣接する画像間の変化(特許文献1では、「相違度」に該当)を求める手法では、時系列順が離れた位置に存在する画像間の類似性を適正に判断できない場合があった。   By the way, since the capsule endoscope moves in the body cavity by a peristaltic motion or the like, the moving speed is not constant, and the capsule endoscope may stay in the same place in the digestive tract or repeat forward and backward movements. As a result, there may occur a case where the in-vivo images having the same contents are captured continuously or discontinuously. For this reason, as in the above-described Patent Document 1, in a method of simply obtaining a change between adjacent images (corresponding to “difference” in Patent Document 1), between images existing in positions separated in time series order. In some cases, similarities could not be judged properly.

また、カプセル内視鏡は、消化管内を移動しながら画像を撮像するため、得られた一連の体腔内画像には食道、胃、小腸、大腸等の内部がこの順に映る。このため、特許文献1の手法では、異なる臓器区間を跨いで隣接する画像間の変化をもとに、異なる臓器区間に属する明らかに類似性が低い画像間で類似性の判断を行ってしまう場合があった。   In addition, since the capsule endoscope captures an image while moving in the digestive tract, the inside of the esophagus, stomach, small intestine, large intestine, and the like is shown in this order in the series of images in the body cavity obtained. For this reason, in the method of Patent Literature 1, similarity determination is performed between images that clearly belong to different organ sections and based on a change between adjacent images across different organ sections. was there.

本発明は、上記に鑑み為されたものであって、一連の体腔内画像の中から要約体腔内画像を適切に抽出することができる画像処理装置、画像処理方法および画像処理プログラムを提供することを目的とする。   The present invention has been made in view of the above, and provides an image processing apparatus, an image processing method, and an image processing program capable of appropriately extracting a summary body cavity image from a series of body cavity images. With the goal.

上記した課題を解決し、目的を達成するための、本発明のある態様にかかる画像処理装置は、体腔内を連続的に撮像した一連の体腔内画像の中から要約体腔内画像を抽出する画像処理装置であって、前記一連の体腔内画像の時系列区間内に、類似する体腔内画像が出現する類似画像出現区間を設定する区間設定部と、前記一連の体腔内画像を構成する各体腔内画像のシーン変化をもとに、前記一連の体腔内画像の中から第1の要約体腔内画像を抽出する第1の要約画像抽出部と、同一の類似画像出現区間に属する前記第1の要約体腔内画像間の類似度をもとに、第2の要約体腔内画像を抽出する第2の要約画像抽出部と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, an image processing apparatus according to an aspect of the present invention is an image that extracts a summary body cavity image from a series of body cavity images obtained by continuously imaging the body cavity. A processing device, a section setting unit for setting a similar image appearance section in which a similar in-vivo image appears in a time-series section of the series of in-vivo images, and each of the body cavities constituting the in-body-cavity image A first summary image extraction unit that extracts a first summary body cavity image from the series of body cavity images based on a scene change of the inner image; and the first summary image extraction unit that belongs to the same similar image appearance section And a second summary image extraction unit for extracting a second summary body cavity image based on the similarity between the summary body cavity images.

この態様にかかる画像処理装置によれば、一連の体腔内画像の時系列区間内に、類似する体腔内画像が出現する類似画像出現区間を設定するとともに、各体腔内画像のシーン変化をもとに一連の体腔内画像の中から第1の要約体腔内画像を抽出することができる。そして、同一の類似画像出現区間に属する第1の要約体腔内画像間の類似度をもとに第2の要約体腔内画像を抽出することができる。これによれば、要約体腔内画像の抽出に際し、類似画像出現区間毎に要約体腔内画像間の類似性を加味することができるので、一連の体腔内画像の中から、その内容を把握するための要約体腔内画像を適切に抽出することができる。   According to the image processing apparatus according to this aspect, a similar image appearance section in which a similar in-vivo image appears is set in a time-series section of a series of in-vivo images, and a scene change of each in-vivo image is performed. In addition, the first summary body cavity image can be extracted from the series of body cavity images. The second summary body cavity image can be extracted based on the similarity between the first summary body cavity images belonging to the same similar image appearance section. According to this, when extracting the summary body cavity image, the similarity between the summary body cavity images can be taken into account for each similar image appearance section, so that the contents can be grasped from the series of body cavity images. It is possible to appropriately extract the summary body cavity image.

また、本発明の別の態様にかかる画像処理方法は、体腔内を連続的に撮像した一連の体腔内画像の中から要約体腔内画像を抽出する画像処理方法であって、前記一連の体腔内画像の時系列区間内に、類似する体腔内画像が出現する類似画像出現区間を設定する区間設定工程と、前記一連の体腔内画像を構成する各体腔内画像のシーン変化をもとに、前記一連の体腔内画像の中から第1の要約体腔内画像を抽出する第1の要約画像抽出工程と、同一の類似画像出現区間に属する前記第1の要約体腔内画像間の類似度をもとに、第2の要約体腔内画像を抽出する第2の要約画像抽出工程と、を含むことを特徴とする。   An image processing method according to another aspect of the present invention is an image processing method for extracting a summary body cavity image from a series of body cavity images obtained by continuously imaging the inside of the body cavity. Based on the section setting step of setting a similar image appearance section in which a similar in-vivo image appears in the time-series section of the image, and the scene change of each in-body cavity image constituting the series of in-vivo images, A first summary image extraction step of extracting a first summary body cavity image from a series of body cavity images, and a similarity between the first summary body cavity images belonging to the same similar image appearance section And a second summary image extraction step of extracting a second summary body cavity image.

また、本発明の別の態様にかかる画像処理プログラムは、コンピュータに、体腔内を連続的に撮像した一連の体腔内画像の中から要約体腔内画像を抽出させるための画像処理プログラムであって、前記一連の体腔内画像の時系列区間内に、類似する体腔内画像が出現する類似画像出現区間を設定する区間設定ステップと、前記一連の体腔内画像を構成する各体腔内画像のシーン変化をもとに、前記一連の体腔内画像の中から第1の要約体腔内画像を抽出する第1の要約画像抽出ステップと、同一の類似画像出現区間に属する前記第1の要約体腔内画像間の類似度をもとに、第2の要約体腔内画像を抽出する第2の要約画像抽出ステップと、を前記コンピュータに実行させることを特徴とする。   An image processing program according to another aspect of the present invention is an image processing program for causing a computer to extract a summary body cavity image from a series of body cavity images obtained by continuously imaging the body cavity. A section setting step for setting a similar image appearance section in which a similar in-vivo image appears in a time-series section of the series of in-vivo images, and a scene change of each in-body cavity image forming the series of in-vivo images. Based on the first summary image extraction step of extracting a first summary body cavity image from the series of body cavity images, and between the first summary body cavity images belonging to the same similar image appearance section A second summary image extraction step of extracting a second summary body cavity image based on the degree of similarity is executed by the computer.

本発明によれば、一連の体腔内画像の中から要約体腔内画像を適切に抽出することができる。   According to the present invention, it is possible to appropriately extract a summary body cavity image from a series of body cavity images.

以下、図面を参照し、本発明の好適な実施の形態について詳細に説明する。本実施の形態では、撮像機の一例として消化管内を移動するカプセル内視鏡を用い、このカプセル内視鏡が被検者の消化管内を移動しながら連続的に撮像した一連の体腔内画像を処理する画像処理装置について説明する。なお、この実施の形態によって本発明が限定されるものではない。また、各図面の記載において、同一部分には同一の符号を付して示している。   DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. In this embodiment, a capsule endoscope that moves in the digestive tract is used as an example of an imaging device, and a series of images of body cavities that are continuously captured while the capsule endoscope moves in the digestive tract of a subject. An image processing apparatus to be processed will be described. Note that the present invention is not limited to the embodiments. Moreover, in description of each drawing, the same code | symbol is attached | subjected and shown to the same part.

(実施の形態1)
図1は、実施の形態1の画像処理装置10を含む画像処理システムの全体構成を示す概略模式図である。図1に示すように、画像処理システムは、被検者1内部の画像(体腔内画像)を撮像するカプセル内視鏡3、カプセル内視鏡3から無線送信される体腔内画像を受信する受信装置5、受信装置5によって受信された体腔内画像をもとに、カプセル内視鏡3によって撮像された体腔内画像を処理して表示する画像処理装置10等で構成される。受信装置5と画像処理装置10との間の画像データの受け渡しには、例えば可搬型の記録媒体(可搬型記録媒体)7が使用される。
(Embodiment 1)
FIG. 1 is a schematic diagram showing an overall configuration of an image processing system including an image processing apparatus 10 according to the first embodiment. As shown in FIG. 1, the image processing system receives a capsule endoscope 3 that captures an image (intrabody cavity image) inside the subject 1, and a body cavity image that is wirelessly transmitted from the capsule endoscope 3. The apparatus 5 includes an image processing apparatus 10 that processes and displays the in-vivo image captured by the capsule endoscope 3 based on the in-vivo image received by the receiving apparatus 5. For example, a portable recording medium (portable recording medium) 7 is used for transferring image data between the receiving device 5 and the image processing device 10.

カプセル内視鏡3は、撮像機能や無線機能等を具備するものであって、被検者1の口から飲み込まれて被検者1内部に導入され、消化管内を移動しながら逐次体腔内画像を撮像する。そして、撮像した体腔内画像を体外に無線送信する。ここで、カプセル内視鏡3によって撮像される体腔内画像は、画像内の各画素位置において、例えばR(赤),G(緑),B(青)の各色成分に対応する画素値(RGB値)を持つカラー画像である。   The capsule endoscope 3 has an imaging function, a wireless function, and the like. The capsule endoscope 3 is swallowed from the mouth of the subject 1 and introduced into the subject 1 and sequentially moves through the digestive tract. Image. The captured in-vivo image is wirelessly transmitted outside the body. Here, the in-vivo image captured by the capsule endoscope 3 has pixel values (RGB) corresponding to, for example, R (red), G (green), and B (blue) color components at each pixel position in the image. Value).

受信装置5は、被検者1内におけるカプセル内視鏡3の通過経路に対応する体表上の位置に分散配置される受信用アンテナA1〜Anを備える。そして、受信装置5は、各受信用アンテナA1〜Anを介してカプセル内視鏡3から無線送信される画像データを受信する。この受信装置5は、可搬型記録媒体7の着脱が自在に構成されており、受信した画像データを可搬型記録媒体7に逐次保存する。このようにして、カプセル内視鏡3が被検者1内部を撮像した一連の体腔内画像は、受信装置5によって時系列順に可搬型記録媒体7に蓄積され、保存される。   The receiving device 5 includes receiving antennas A <b> 1 to An distributed at positions on the body surface corresponding to the passage route of the capsule endoscope 3 in the subject 1. The receiving device 5 receives the image data wirelessly transmitted from the capsule endoscope 3 via the receiving antennas A1 to An. The receiving device 5 is configured so that the portable recording medium 7 can be freely attached and detached, and sequentially stores the received image data in the portable recording medium 7. In this way, a series of in-vivo images captured by the capsule endoscope 3 inside the subject 1 is accumulated and stored in the portable recording medium 7 in time series by the receiving device 5.

画像処理装置10は、カプセル内視鏡3によって撮像された一連の体腔内画像を医師等が観察・診断するためのものであり、ワークステーションやパソコン等の汎用コンピュータで実現される。この画像処理装置10は、可搬型記録媒体7の着脱が自在に構成されており、可搬型記録媒体7に保存された一連の体腔内画像を処理し、例えばLCDやELディスプレイ等のディスプレイに時系列順に順次表示する。   The image processing apparatus 10 is for a doctor or the like to observe and diagnose a series of in-vivo images captured by the capsule endoscope 3, and is realized by a general-purpose computer such as a workstation or a personal computer. The image processing apparatus 10 is configured so that the portable recording medium 7 can be freely attached and detached. The image processing apparatus 10 processes a series of in-vivo images stored in the portable recording medium 7, and displays the image on a display such as an LCD or an EL display. Display sequentially in sequence order.

図2は、実施の形態1の画像処理装置10の機能構成を説明するブロック図である。本実施の形態では、画像処理装置10は、画像取得部11と、入力部12と、表示部13と、記録部14と、演算部15と、装置各部を制御する制御部20とを備える。   FIG. 2 is a block diagram illustrating a functional configuration of the image processing apparatus 10 according to the first embodiment. In the present embodiment, the image processing apparatus 10 includes an image acquisition unit 11, an input unit 12, a display unit 13, a recording unit 14, a calculation unit 15, and a control unit 20 that controls each unit of the apparatus.

画像取得部11は、カプセル内視鏡3によって撮像されて受信装置5によって可搬型記録媒体7に保存された一連の体腔内画像を取得するものであり、例えば、可搬型記録媒体7を着脱自在に装着し、装着した可搬型記録媒体7に蓄積された体腔内画像の画像データを読み出して取得する。この画像取得部11は、例えば、可搬型記録媒体7の種類に応じた読み書き装置によって実現される。なお、カプセル内視鏡3によって撮像された一連の体腔内画像の取得は、可搬型記録媒体7を用いた構成に限定されるものではなく、例えば、画像取得部11の代わりにハードディスクを備える構成とし、ハードディスク内にカプセル内視鏡3によって撮像された一連の体腔内画像を予め保存しておく構成としてもよい。あるいは、可搬型記録媒体7の代わりに別途サーバを設置し、このサーバに一連の体腔内画像を予め保存しておく構成としてもよい。この場合には、画像取得部11を、サーバと接続するための通信装置等で構成し、この画像取得部11を介してサーバに接続して、サーバから体腔内画像を取得する。   The image acquisition unit 11 acquires a series of in-vivo images captured by the capsule endoscope 3 and stored in the portable recording medium 7 by the receiving device 5. For example, the portable recording medium 7 is detachable. The image data of the in-vivo image stored in the mounted portable recording medium 7 is read out and acquired. The image acquisition unit 11 is realized by, for example, a read / write device corresponding to the type of the portable recording medium 7. Note that acquisition of a series of in-vivo images captured by the capsule endoscope 3 is not limited to the configuration using the portable recording medium 7, and includes, for example, a hard disk instead of the image acquisition unit 11. A series of in-vivo images captured by the capsule endoscope 3 may be stored in advance in the hard disk. Or it is good also as a structure which installs a server separately instead of the portable recording medium 7, and preserve | saves a series of body cavity images in this server beforehand. In this case, the image acquisition unit 11 is configured by a communication device or the like for connecting to the server, and is connected to the server via the image acquisition unit 11 to acquire the in-vivo image from the server.

入力部12は、例えば、キーボードやマウス、タッチパネル、各種スイッチ等によって実現されるものであり、操作入力に応じた操作信号を制御部20に出力する。表示部13は、LCDやELディスプレイ等の表示装置によって実現されるものであり、制御部20の制御によって、体腔内画像の表示画面を含む各種画面を表示する。   The input unit 12 is realized by, for example, a keyboard, a mouse, a touch panel, various switches, and the like, and outputs an operation signal corresponding to the operation input to the control unit 20. The display unit 13 is realized by a display device such as an LCD or an EL display, and displays various screens including a display screen of an in-vivo image under the control of the control unit 20.

記録部14は、更新記憶可能なフラッシュメモリ等のROMやRAMといった各種ICメモリ、内蔵あるいはデータ通信端子で接続されたハードディスク、CD−ROM等の記録媒体およびその読取装置等によって実現されるものである。この記録部14には、画像処理装置10を動作させ、この画像処理装置10が備える種々の機能を実現するためのプログラムや、このプログラムの実行中に使用されるデータ等が記録される。また、一連の体腔内画像から要約体腔内画像を抽出するための画像処理プログラム141が記録される。   The recording unit 14 is realized by various IC memories such as ROM and RAM such as flash memory that can be updated and stored, a hard disk connected by a built-in or data communication terminal, a recording medium such as a CD-ROM, and a reading device thereof. is there. The recording unit 14 records a program for operating the image processing apparatus 10 and realizing various functions provided in the image processing apparatus 10, data used during execution of the program, and the like. Further, an image processing program 141 for extracting a summary body cavity image from a series of body cavity images is recorded.

演算部15は、CPU等のハードウェアによって実現され、画像取得部11によって取得される複数の体腔内画像を処理し、一連の体腔内画像から要約体腔内画像を抽出するための種々の演算処理を行う。この演算部15は、区間設定部16と、第1の要約画像抽出部17と、第2の要約画像抽出部18とを含む。   The calculation unit 15 is realized by hardware such as a CPU, processes a plurality of in-vivo images acquired by the image acquisition unit 11, and performs various calculation processes for extracting a summary in-vivo image from a series of in-vivo images. I do. The calculation unit 15 includes a section setting unit 16, a first summary image extraction unit 17, and a second summary image extraction unit 18.

区間設定部16は、一連の体腔内画像の時系列区間を、同一の臓器種類が映る区間(臓器区間)毎に分割し、類似画像出現区間を設定する。この区間設定部16は、各体腔内画像に映る臓器種類を判別する臓器種類判別部161を含む。第1の要約画像抽出部17は、画像間変化量算出部171と、シーン変化検出部173とを含み、第1の要約体腔内画像を抽出する。画像間変化量算出部171は、各体腔内画像の画像間変化量を算出する。シーン変化検出部173は、画像間変化量をもとにシーン変化が発生した体腔内画像を検出する。第2の要約画像抽出部18は、要約画像間変化量算出部181と、類似度算出部183とを含み、第1の要約体腔内画像の中から第2の要約体腔内画像を抽出する。要約画像間変化量算出部181は、類似画像出現区間毎に各第1の要約体腔内画像の要約画像間変化量を算出する。類似度算出部183は、要約画像間変化量をもとに各第1の要約体腔内画像の類似度を算出する。   The section setting unit 16 divides a time series section of a series of in-vivo images into sections (organ sections) in which the same organ type is shown, and sets similar image appearance sections. The section setting unit 16 includes an organ type discriminating unit 161 that discriminates the organ type reflected in each body cavity image. The first summary image extraction unit 17 includes an inter-image change amount calculation unit 171 and a scene change detection unit 173, and extracts a first summary body cavity image. The inter-image change amount calculation unit 171 calculates the inter-image change amount of each in-vivo image. The scene change detection unit 173 detects an in-vivo image in which a scene change has occurred based on the amount of change between images. The second summary image extraction unit 18 includes a summary image change amount calculation unit 181 and a similarity calculation unit 183, and extracts a second summary body cavity image from the first summary body cavity image. The inter-summary image change amount calculation unit 181 calculates the inter-summary image change amount of each first summary body cavity image for each similar image appearance section. The similarity calculation unit 183 calculates the similarity of each first summary body cavity image based on the amount of change between summary images.

制御部20は、CPU等のハードウェアによって実現される。この制御部20は、画像取得部11から入力される画像データや入力部12から入力される操作信号、記録部14に記録されるプログラムやデータ等に基づいて画像処理装置10を構成する各部への指示やデータの転送等を行い、画像処理装置10全体の動作を統括的に制御する。   The control unit 20 is realized by hardware such as a CPU. The control unit 20 is connected to each unit constituting the image processing apparatus 10 based on image data input from the image acquisition unit 11, operation signals input from the input unit 12, programs and data recorded in the recording unit 14, and the like. Instruction, data transfer, and the like, and overall operation of the image processing apparatus 10 is controlled.

図3は、実施の形態1の画像処理装置10が行う処理手順を示す全体フローチャートである。ここで説明する処理は、演算部15が記録部14に記録された画像処理プログラム141を実行することにより実現される。また、図4〜図6は、図3に示すステップa3〜ステップa17の処理手順を説明する説明図である。   FIG. 3 is an overall flowchart illustrating a processing procedure performed by the image processing apparatus 10 according to the first embodiment. The processing described here is realized by the calculation unit 15 executing the image processing program 141 recorded in the recording unit 14. 4-6 is explanatory drawing explaining the process sequence of step a3-step a17 shown in FIG.

図3に示すように、演算部15は先ず、一連の体腔内画像を取得する(ステップa1)。ここで、演算部15は、制御部20を介し、画像取得部11によって可搬型記録媒体7から読み出された一連の体腔内画像の画像データを取得する。取得した各体腔内画像の画像データは、その時系列順を示す画像番号とともに記録部14に記録され、任意の画像番号の画像データを読み込み可能な状態となる。   As shown in FIG. 3, first, the calculation unit 15 acquires a series of in-vivo images (step a1). Here, the calculation unit 15 acquires image data of a series of in-vivo images read from the portable recording medium 7 by the image acquisition unit 11 via the control unit 20. The acquired image data of each in-vivo image is recorded in the recording unit 14 together with the image numbers indicating the chronological order, and the image data of an arbitrary image number can be read.

続いて、臓器種類判別部161が臓器種類判別処理を行い、取得した一連の体腔内画像を構成する各体腔内画像に映る臓器種類を判別する(ステップa3)。実施の形態1では、各体腔内画像に映る臓器種類として、例えば食道、胃、小腸および大腸の4種類を判別する。   Subsequently, the organ type discriminating unit 161 performs an organ type discriminating process, and discriminates organ types appearing in each body cavity image constituting the series of acquired body cavity images (step a3). In Embodiment 1, for example, four types of esophagus, stomach, small intestine, and large intestine are discriminated as organ types reflected in each body cavity image.

続いて、区間設定部16が、一連の体腔内画像の時系列区間を同一の臓器種類が映る臓器区間毎に分割し、各臓器区間を類似した体腔内画像が出現する区間(類似画像出現区間)として設定する(ステップa5)。具体的には、区間設定部16は、ステップa3の臓器種類判別処理で各体腔内画像について判別された臓器種類をもとに、一連の体腔内画像の時系列区間を臓器種類が変化する位置で分割する。これによって、図4(a)に示すように、一連の体腔内画像8の時系列区間が、食道が映る区間、胃が映る区間、小腸が映る区間および大腸が映る区間の各臓器区間に分割される。そして、区間設定部16は、食道、胃、小腸および大腸の各臓器が映る臓器区間の先頭および後尾を検出し、検出した各臓器区間の先頭および後尾の画像番号を記録部14に記録する。   Subsequently, the section setting unit 16 divides a time series section of a series of in-vivo images into organ sections in which the same organ type is reflected, and a section in which similar in-vivo images appear in each organ section (similar image appearance section ) (Step a5). Specifically, the section setting unit 16 determines the position where the organ type changes in the time series section of the series of in-vivo images based on the organ type determined for each in-vivo image in the organ type determining process in step a3. Divide by. As a result, as shown in FIG. 4 (a), the time-series section of the series of in-vivo images 8 is divided into each organ section including a section where the esophagus is reflected, a section where the stomach is reflected, a section where the small intestine is reflected and a section where the large intestine is reflected. Is done. Then, the section setting unit 16 detects the head and tail of an organ section in which each organ of the esophagus, stomach, small intestine, and large intestine is reflected, and records the detected image numbers of the head and tail of each organ section in the recording unit 14.

続いて図3に示すように、画像間変化量算出部171が、画像間変化量算出処理を行って各体腔内画像の画像間変化量を算出する(ステップa7)。続いて、シーン変化検出部173が、ステップa7の画像間変化量算出処理で各体腔内画像について算出された画像間変化量をもとに、シーン変化が発生した体腔内画像を検出する(ステップa9)。例えば、シーン変化検出部173は、各体腔内画像の画像間変化量を閾値処理し、画像間変化量が予め設定されている閾値以上である体腔内画像をシーン変化として検出する。そして、第1の要約画像抽出部17が、ステップa9でシーン変化として検出された体腔内画像を第1の要約体腔内画像として抽出する(ステップa11)。抽出結果は、記録部14に保持される。   Subsequently, as shown in FIG. 3, the inter-image change amount calculation unit 171 performs an inter-image change amount calculation process to calculate the inter-image change amount of each intra-body cavity image (step a7). Subsequently, the scene change detection unit 173 detects an in-vivo image in which a scene change has occurred based on the inter-image change amount calculated for each in-vivo image in the inter-image change amount calculation processing in Step a7 (Step S7). a9). For example, the scene change detection unit 173 performs threshold processing on the inter-image change amount of each intra-body cavity image, and detects an intra-body image whose inter-image change amount is equal to or greater than a preset threshold value as a scene change. Then, the first summary image extraction unit 17 extracts the body cavity image detected as the scene change in step a9 as the first summary body cavity image (step a11). The extraction result is held in the recording unit 14.

例えば、図4(b)では、類似画像出現区間の1つとして設定される胃の臓器区間に着目し、この類似画像出現区間から抽出された9枚の体腔内画像(第1の要約体腔内画像)I11〜I19をその画像間変化量D11〜D19と併せて示している。以下、第1の要約体腔内画像を「1次要約画像」と呼ぶ。   For example, in FIG. 4B, attention is paid to a stomach organ section set as one of the similar image appearance sections, and nine in-vivo images (first summary body cavity inside) extracted from the similar image appearance section. Image) I11 to I19 are shown together with the inter-image variation amounts D11 to D19. Hereinafter, the first summary body cavity image is referred to as a “primary summary image”.

続いて、図3に示すように、要約画像間変化量算出部181が、要約画像間変化量算出処理を行って類似画像出現区間毎に各1次要約画像の要約画像間変化量を算出する(ステップa13)。図5では、図4に示した胃の臓器区間である類似画像出現区間から抽出された1枚の1次要約画像I11に着目し、その要約画像間変化量を示している。この要約画像間変化量算出処理では、各1次要約画像それぞれについて、同一の類似画像出現区間に属する他の1次要約画像との間の変化量をそれぞれ算出し、要約画像間変化量とする。例えば、図5の1次要約画像I11であれば、他の全ての1次要約画像I12〜I19との間の変化量D21〜D28をそれぞれ算出し、算出した各変化量D21〜D28を1次要約画像I11の要約画像間変化量とする。   Subsequently, as shown in FIG. 3, the inter-summary image change amount calculation unit 181 performs the inter-summary image change amount calculation process to calculate the inter-summary image change amount of each primary summary image for each similar image appearance section. (Step a13). In FIG. 5, attention is paid to one primary summary image I11 extracted from the similar image appearance section which is the organ section of the stomach shown in FIG. 4, and the amount of change between the summary images is shown. In this inter-summary image change amount calculation process, for each primary summary image, the change amount between each primary summary image and another primary summary image belonging to the same similar image appearance section is calculated, and is used as the inter-summary image change amount. . For example, in the case of the primary summary image I11 of FIG. 5, the change amounts D21 to D28 between all the other primary summary images I12 to I19 are calculated, and the calculated change amounts D21 to D28 are calculated as the primary. The amount of change between the summary images of the summary image I11 is set.

続いて、図3に示すように、類似度算出部183が、類似度算出処理を行って各1次要約画像の類似度を算出する(ステップa15)。上記したように、ステップa13の要約画像間変化量算出処理では、各1次要約画像それぞれについて、同一の類似画像出現区間に属する他の全ての1次要約画像との間の変化量が要約画像間変化量として算出される。類似度算出処理では、各1次要約画像を順次処理対象とし、処理対象の1次要約画像の要約画像間変化量の中から値が最も小さい要約画像間変化量を選出して類似度の値とする。またこのとき、類似度とした要約画像間変化量を算出した他の1次要約画像を処理対象の1次要約画像の類似要約画像とする。そして、類似度と類似要約画像とを処理対象の1次要約画像の画像番号と対応付けて記録部14に記録しておく。例えば、図5に示した1次要約画像I11の要約画像間変化量である変化量D21〜D28のうち、他の1次要約画像I13との間の変化量D22の値が最も小さかったとする。この場合には、この変化量D22を1次要約画像I11の類似度とする。また、類似度とした変化量D22を算出した他の1次要約画像I13を1次要約画像I11の類似要約画像とする。   Subsequently, as shown in FIG. 3, the similarity calculation unit 183 performs similarity calculation processing to calculate the similarity of each primary summary image (step a15). As described above, in the summary image change amount calculation process in step a13, the change amount between each primary summary image and all other primary summary images belonging to the same similar image appearance section is the summary image. It is calculated as the amount of change between In the similarity calculation process, each primary summary image is sequentially processed, and the change amount between summary images having the smallest value is selected from the change amounts between summary images of the primary summary image to be processed. And At this time, another primary summary image for which the amount of change between summary images as the similarity is calculated is set as a similar summary image of the primary summary image to be processed. Then, the similarity and the similar summary image are recorded in the recording unit 14 in association with the image number of the primary summary image to be processed. For example, it is assumed that the change amount D22 between the primary summary image I13 and the other primary summary image I13 is the smallest among the change amounts D21 to D28 which are the change amounts between the summary images of the primary summary image I11 shown in FIG. In this case, the amount of change D22 is set as the similarity of the primary summary image I11. Further, another primary summary image I13 for which the change amount D22 as the similarity is calculated is set as a similar summary image of the primary summary image I11.

そして、図3に示すように、第2の要約画像抽出部18が、要約画像再抽出処理を行って1次要約画像の中から第2の要約体腔内画像を抽出し、最終的な要約体腔内画像を得る(ステップa17)。図6では、第2の要約体腔内画像を抽出する様子を、図4に示した胃の臓器区間である類似画像出現区間から抽出された1次要約画像I11〜I19に着目して示している。なお、図6中において、各1次要約画像I11〜I19それぞれの類似度および類似要約画像を表記している。例えば、1次要約画像I11の類似度はD22であり、類似要約画像はI13である。この要約画像再抽出処理では、先ず、類似度の高低を判定する。実施の形態1では、画像間の変化量を類似度としているため、類似度の値が小さければその類似要約画像との類似度が高い。逆に、類似度の値が大きければその類似要約画像との類似度が低い。ここでは、例えば、所定の閾値以下の場合に類似度が高く、閾値よりも大きければ類似度が低いと判定する。   Then, as shown in FIG. 3, the second summary image extraction unit 18 performs the summary image re-extraction process to extract the second summary body cavity image from the primary summary image, and the final summary body cavity An inner image is obtained (step a17). FIG. 6 shows how the second summary body cavity image is extracted, focusing on the primary summary images I11 to I19 extracted from the similar image appearance section which is the stomach organ section shown in FIG. . In FIG. 6, the similarities and similar summary images of the primary summary images I11 to I19 are shown. For example, the similarity of the primary summary image I11 is D22, and the similar summary image is I13. In this summary image re-extraction process, first, the level of similarity is determined. In Embodiment 1, since the amount of change between images is set as the similarity, the similarity to the similar summary image is high if the value of the similarity is small. Conversely, if the similarity value is large, the similarity with the similar summary image is low. Here, for example, it is determined that the similarity is high when it is equal to or less than a predetermined threshold, and the similarity is low when it is greater than the threshold.

そして、類似度が高い1次要約画像と、その類似要約画像とをグループ化して同一の類似要約画像群に割り当てる。例えば図6において、1次要約画像I11の類似度D22が閾値以下とする。この場合、1次要約画像I11は、その類似要約画像I13とグループ化され、同一の類似要約画像群に割り当てられる。さらに、1次要約画像I13の類似度D43が閾値以下とすると、1次要約画像I13は、その類似要約画像I14とグループ化され、同一の類似要約画像群に割り当てられる。結果的に、1次要約画像I11,I12,I14が1つにグループ化されて同一の類似要約画像群G11に割り当てられる。そして、グループ化された類似要約画像群の中から、例えば時系列順が先頭の1次要約画像を第2の要約体腔内画像として抽出する。例えば、図示の例では、類似要約画像群G11からは1次要約画像I11が、類似要約画像群G12からは1次要約画像I15がそれぞれ第2の要約体腔内画像として抽出される。   Then, the primary summary image having a high similarity and the similar summary image are grouped and assigned to the same similar summary image group. For example, in FIG. 6, it is assumed that the similarity D22 of the primary summary image I11 is equal to or less than a threshold value. In this case, the primary summary image I11 is grouped with the similar summary image I13 and assigned to the same similar summary image group. Further, if the similarity D43 of the primary summary image I13 is equal to or less than the threshold value, the primary summary image I13 is grouped with the similar summary image I14 and assigned to the same similar summary image group. As a result, the primary summary images I11, I12, and I14 are grouped together and assigned to the same similar summary image group G11. Then, from the grouped similar summary image group, for example, a primary summary image with the head in time series order is extracted as a second summary body cavity image. For example, in the illustrated example, the primary summary image I11 is extracted from the similar summary image group G11, and the primary summary image I15 is extracted from the similar summary image group G12 as the second summary body cavity image.

一方で、類似度が閾値よりも大きく類似度が低い全ての1次要約画像を第2の要約体腔内画像として抽出する。例えば、図示の例では、胃の臓器区間である類似画像出現区間から、1次要約画像I12,I16,I18,I19がそれぞれ第2の要約体腔内画像として抽出されている。   On the other hand, all the primary summary images whose similarity is larger than the threshold value and low in similarity are extracted as second summary body cavity images. For example, in the illustrated example, primary summary images I12, I16, I18, and I19 are extracted as second summary body cavity images from similar image appearance intervals that are stomach organ sections, respectively.

その後、演算部15が、得られた最終的な要約体腔内画像を出力する(ステップa19)。例えば、演算部15は、第2の要約体腔内画像を構成する各体腔内画像を制御部20を介して順次表示部13に表示出力させる。   Thereafter, the calculation unit 15 outputs the obtained final summary body cavity image (step a19). For example, the calculation unit 15 causes the display unit 13 to sequentially display and output the in-vivo images constituting the second summary in-vivo image via the control unit 20.

次に、図3のステップa3,a7,a13,a15,a17の各処理について、順次説明する。先ず、図3のステップa3で臓器種類判別部161が行う臓器種類判別処理について説明する。図7は、臓器種類判別処理の詳細な処理手順を示すフローチャートである。   Next, each process of steps a3, a7, a13, a15, and a17 of FIG. 3 will be described sequentially. First, the organ type determination process performed by the organ type determination unit 161 in step a3 of FIG. 3 will be described. FIG. 7 is a flowchart showing a detailed processing procedure of the organ type determination processing.

図7に示すように、臓器種類判別処理では、臓器種類判別部161は先ず、図3のステップa3で取得されて記録部14に記録された一連の体腔内画像の中から順次処理対象とする体腔内画像を1枚ずつ読み出す(ステップb1)。続いて、臓器種類判別部161は、処理対象の体腔内画像に映る臓器種類を判別する(ステップb3)。判別結果は、記録部14に保持される。   As shown in FIG. 7, in the organ type discriminating process, the organ type discriminating unit 161 first sets the target to be processed sequentially from a series of in-vivo images acquired in step a3 of FIG. 3 and recorded in the recording unit 14. The body cavity images are read one by one (step b1). Subsequently, the organ type discriminating unit 161 discriminates the organ type shown in the in-vivo image to be processed (step b3). The determination result is held in the recording unit 14.

具体的な臓器種類の判別方法としては、適宜公知の技術を用いることができる。例えば、特開2006−288612号公報に開示されている技術を用い、体腔内画像の平均R値,G値,B値をもとに判別する。具体的には、事前に臓器種類毎の平均R値,G値,B値の数値範囲を設定しておく。実施の形態1では、判別対象とする臓器は食道、胃、小腸および大腸の4種類であるので、食道、胃、小腸および大腸の平均R値,G値,B値の数値範囲をそれぞれ設定しておく。そして、処理対象の体腔内画像の平均R値,G値,B値が食道の平均R値,G値,B値の数値範囲内であれば、その体腔内画像に映る観察部位の臓器種類を食道と判別する。処理対象の体腔内画像の平均R値,G値,B値が胃の平均R値,G値,B値の数値範囲内であれば、その体腔内画像に映る観察部位の臓器種類を胃と判別する。処理対象の体腔内画像の平均R値,G値,B値が小腸の平均R値,G値,B値の数値範囲内であれば、その体腔内画像に映る観察部位の臓器種類を小腸と判別する。処理対象の体腔内画像の平均R値,G値,B値が大腸の平均R値,G値,B値の数値範囲内であれば、その体腔内画像に映る観察部位の臓器種類を大腸と判別する。なお、画像中に映る臓器種類を判別できれば、いずれの方法を用いてもよい。   As a specific organ type discrimination method, a known technique can be used as appropriate. For example, using the technique disclosed in Japanese Patent Application Laid-Open No. 2006-288612, the determination is made based on the average R value, G value, and B value of the in-vivo image. Specifically, the numerical ranges of the average R value, G value, and B value for each organ type are set in advance. In Embodiment 1, there are four types of organs to be discriminated: esophagus, stomach, small intestine, and large intestine. Therefore, numerical ranges for the average R value, G value, and B value of the esophagus, stomach, small intestine, and large intestine are set. Keep it. If the average R value, G value, and B value of the in-vivo image to be processed are within the numerical range of the average R value, G value, and B value of the esophagus, the organ type of the observation site reflected in the in-vivo image is determined. Distinguish from the esophagus. If the average R value, G value, and B value of the in-vivo image to be processed are within the numerical range of the average R value, G value, and B value of the stomach, the organ type of the observation site shown in the in-vivo image is defined as the stomach. Determine. If the average R value, G value, and B value of the in-vivo image to be processed are within the numerical range of the average R value, G value, and B value of the small intestine, the organ type of the observation site reflected in the in-vivo image is defined as the small intestine. Determine. If the average R value, G value, and B value of the in-vivo image to be processed are within the range of the average R value, G value, and B value of the large intestine, the organ type of the observation site that appears in the in-vivo image is the large intestine. Determine. It should be noted that any method may be used as long as the organ type appearing in the image can be discriminated.

続いて、臓器種類判別部161は、全ての体腔内画像についてその臓器種類の判別を行ったか否かを判定し、未処理の体腔内画像があれば(ステップb5:No)、ステップb1に戻り、未処理の体腔内画像を処理対象として読み出し、ステップb3の処理を行って臓器種類を判別する。一方、全ての体腔内画像を処理した場合には(ステップb5:Yes)、図3のステップa3にリターンし、その後ステップa5に移行する。   Subsequently, the organ type discriminating unit 161 determines whether or not the organ type has been discriminated for all the in-vivo images, and if there is an unprocessed in-vivo image (step b5: No), the process returns to step b1. Then, an unprocessed in-vivo image is read out as a processing target, and the processing in step b3 is performed to determine the organ type. On the other hand, when all the in-vivo images have been processed (step b5: Yes), the process returns to step a3 in FIG. 3 and then proceeds to step a5.

次に、図3のステップa7で画像間変化量算出部171が行う画像間変化量算出処理について説明する。図8は、画像間変化量算出処理の詳細な処理手順を示すフローチャートである。   Next, the inter-image change amount calculation process performed by the inter-image change amount calculation unit 171 in step a7 in FIG. 3 will be described. FIG. 8 is a flowchart showing a detailed processing procedure of the inter-image change amount calculation processing.

図8に示すように、画像間変化量算出処理では、画像間変化量算出部171は先ず、一連の体腔内画像を構成する体腔内画像の枚数を計数し、変数maxとして設定する(ステップc1)。続いて、画像間変化量算出部171は、時系列順が先頭の体腔内画像の画像間変化量を、予め設定される画像間変化量の最大値とする(ステップc3)。時系列順が先頭の画像については、直前の画像が存在しないためである。   As shown in FIG. 8, in the inter-image change amount calculation processing, the inter-image change amount calculation unit 171 first counts the number of in-vivo images constituting a series of in-vivo images and sets it as a variable max (step c1). ). Subsequently, the inter-image change amount calculation unit 171 sets the inter-image change amount of the in-vivo image having the first time-series order as the maximum value of the inter-image change amount set in advance (step c3). This is because the immediately preceding image does not exist for the first image in time series order.

続いて、画像間変化量算出部171は、処理対象とする画像の時系列順を示す変数i=2として初期化する(ステップc5)。そして、画像間変化量算出部171は、i−1番目の体腔内画像I(i−1)とi番目の体腔内画像I(i)とを記録部14から読み出す(ステップc7)。そして、画像間変化量算出部171は、体腔内画像I(i−1)と体腔内画像I(i)との間の変化量を算出し、体腔内画像I(i)の画像間変化量とする(ステップc9)。算出された画像間変化量は、記録部14に保持される。変化量の算出の方法には、様々な方法があるが、ここでは、画素値の差に基づく方法と画像の統計量変化に基づく方法とを示す。   Subsequently, the inter-image variation calculation unit 171 initializes the variable i = 2 indicating the time-series order of the images to be processed (step c5). Then, the inter-image change amount calculation unit 171 reads the i-1 th body cavity image I (i-1) and the i th body cavity image I (i) from the recording unit 14 (step c7). Then, the inter-image change amount calculation unit 171 calculates the change amount between the intra-body-cavity image I (i-1) and the intra-body-cavity image I (i), and the inter-image change amount of the intra-body-cavity image I (i). (Step c9). The calculated inter-image change amount is held in the recording unit 14. There are various methods for calculating the amount of change. Here, a method based on a difference in pixel values and a method based on a change in image statistic are shown.

先ず、画素値の差に基づく方法について説明する。本方法では先ず、体腔内画像I(i−1)と体腔内画像I(i)との間の画素値の差の2乗和SSDを次式(1)に従って算出する。ここで、各画像は、R(赤),G(緑),B(青)の各色成分に対する画素値を持つため、SSDの値も各色成分で算出される。そこで、各色成分のSSDの合計値または平均値を求め、この値を体腔内画像I(i)の画像間変化量とする。

Figure 2010158308
First, a method based on the difference in pixel values will be described. In this method, first, a sum of squares SSD of pixel value differences between the in-vivo image I (i-1) and the in-vivo image I (i) is calculated according to the following equation (1). Here, since each image has a pixel value for each color component of R (red), G (green), and B (blue), an SSD value is also calculated for each color component. Therefore, the total value or average value of the SSDs of the respective color components is obtained, and this value is used as the inter-image change amount of the in-vivo image I (i).
Figure 2010158308

また、SSDの代わりに、次式(2)に示す画素値の差の絶対値和SAD等を用いてもよい。

Figure 2010158308
Further, instead of SSD, an absolute value sum SAD of pixel value differences shown in the following equation (2) may be used.
Figure 2010158308

次に、統計量変化に基づく方法について説明する。画像の統計量としては、例えば、画像内の画素値の平均、分散、ヒストグラム等が挙げられる。例えば、体腔内画像I(i−1)および体腔内画像I(i)内でこれらの統計量をそれぞれ求める。そして、得られた数値Statの差D_Euclidを次式(3)に従って算出し、この値を体腔内画像I(i)の画像間変化量とする。

Figure 2010158308
Next, a method based on statistic change will be described. Examples of the image statistic include an average, variance, and histogram of pixel values in the image. For example, these statistics are obtained in the body cavity image I (i-1) and the body cavity image I (i), respectively. Then, a difference D_Euclide of the obtained numerical value Stat is calculated according to the following equation (3), and this value is set as an inter-image variation amount of the in-vivo image I (i).
Figure 2010158308

ここで、画像内の画素値の平均や分散を統計量として用いる場合、数値StatはR(赤),G(緑),B(青)の各色成分で1つずつ算出されるため、合わせると3つの統計量となる。また、ヒストグラムの場合、数値Statは、R(赤),G(緑),B(青)の各色成分でのヒストグラム分割数n_edgeずつ算出されるため、3×n_edgeの統計量となる。上記した式(3)では、次元数をd(1〜D)で示している。   Here, when the average or variance of the pixel values in the image is used as a statistic, the numerical value Stat is calculated for each color component of R (red), G (green), and B (blue). There are three statistics. Further, in the case of a histogram, the numerical value Stat is a statistical quantity of 3 × n_edge because the number of histogram divisions n_edge for each color component of R (red), G (green), and B (blue) is calculated. In the above equation (3), the number of dimensions is indicated by d (1 to D).

なお、平均、分散、ヒストグラム等の統計量を複数組み合わせて多次元特徴ベクトルとし、この多次元特徴ベクトルを用いて画像間変化量を算出してもよい。またこの際、各統計量の取り得る範囲が互いに合うように正規化することとしてもよいし、各統計量に重み係数を乗じて計算することとしてもよい。   It should be noted that a plurality of statistics such as average, variance, and histogram may be combined into a multidimensional feature vector, and the inter-image change amount may be calculated using this multidimensional feature vector. Further, at this time, normalization may be performed so that ranges that each statistic can take, or calculation may be performed by multiplying each statistic by a weighting coefficient.

以上、画像間の変化量を算出する手法として2つの手法を示したが、体腔内画像I(i−1)と体腔内画像I(i)との間の変化に応じた値が得られればよく、本例以外の方法で算出してもよい。また、ここでは、体腔内画像I(i)の画像間変化量として、時系列順が直前の体腔内画像I(i−1)との間の変化量を算出することとしたが、必ずしも時系列順が連続している体腔内画像との間で変化量を算出する必要はない。例えば、時系列順は連続しないが近傍する他の体腔内画像との間の変化量を算出することとしてもよい。   As described above, two methods have been shown as a method for calculating the amount of change between images. However, if a value corresponding to a change between the in-vivo image I (i-1) and the in-body-cavity image I (i) is obtained. It may be calculated by a method other than this example. Here, the amount of change between the intra-body-cavity image I (i) and the intra-body-cavity image I (i-1) immediately before in time series is calculated as the inter-image change amount of the intra-body-cavity image I (i). It is not necessary to calculate the amount of change between the images in the body cavity where the sequence order is continuous. For example, it is possible to calculate the amount of change between other images in the body cavity that are not in chronological order but are close to each other.

そして、画像間変化量算出部171は、図8に示すように、処理対象とする画像の時系列順を示す変数iをインクリメントして更新し、変数maxと比較することで次に処理対象とする画像の有無を判定する。i≦maxであれば(ステップc11:No)、ステップc7に戻って次の処理対象の体腔内画像についてステップc7,c9の処理を行い、画像間変化量を算出する。一方、i>maxの場合には(ステップc11:Yes)、図3のステップa7にリターンし、その後ステップa9に移行する。   Then, as shown in FIG. 8, the inter-image change amount calculation unit 171 increments and updates the variable i indicating the time series order of the image to be processed, and compares it with the variable max. The presence or absence of an image to be determined is determined. If i ≦ max (step c11: No), the process returns to step c7, and the processes in steps c7 and c9 are performed on the next in-vivo image to be processed to calculate the inter-image change amount. On the other hand, if i> max (step c11: Yes), the process returns to step a7 in FIG. 3, and then proceeds to step a9.

次に、図3のステップa13で要約画像間変化量算出部181が行う要約画像間変化量算出処理について説明する。図9は、要約画像間変化量算出処理の詳細な処理手順を示すフローチャートである。   Next, the inter-summary image change amount calculation process performed by the inter-summary image change amount calculation unit 181 in step a13 in FIG. 3 will be described. FIG. 9 is a flowchart illustrating a detailed processing procedure of the inter-summary image variation calculation processing.

図9に示すように、要約画像間変化量算出処理では、要約画像間変化量算出部181は先ず、図3のステップa5で類似画像出現区間として設定された同一の臓器が映る区間を順次処理対象として選出する(ステップd1)。そして、要約画像間変化量算出部181は、図3のステップa11で抽出された1次要約画像のうち、処理対象の類似画像出現区間に属する1次要約画像(以下、要約画像間変化量算出処理において「区間内1次要約画像」と呼ぶ。)を記録部14から読み出す(ステップd3)。   As shown in FIG. 9, in the inter-summary image variation calculation process, first, the inter-summary image variation calculation unit 181 sequentially processes the section where the same organ set as the similar image appearance section in step a5 in FIG. Selected as a target (step d1). Then, the inter-summary image variation calculation unit 181 calculates the primary summary image belonging to the processing target similar image appearance section (hereinafter referred to as inter-summary image variation calculation) from the primary summary images extracted in step a11 of FIG. In the processing, “in-section primary summary image” is read from the recording unit 14 (step d3).

続いて、要約画像間変化量算出部181は、ステップd1で読み出した各区間内1次要約画像について、他の全ての区間内1次要約画像との間の変化量を要約画像間変化量として算出する(ステップd5)。例えば、図5に例示したように、処理対象の類似画像出現区間が胃の区間であって、この胃の区間の区間内1次要約画像が9枚の1次要約画像I11〜I19で構成されている場合であれば、各1次要約画像I11〜I19を順次処理対象とし、他の8枚の区間内1次要約画像との間の変化量をそれぞれ算出して要約画像間変化量とする。算出された要約画像間変化量は、記録部14に保持される。なお、他の区間内1次要約画像との間の変化量の算出方法としては、図8のステップc9で説明した画像間変化量の算出方法を用いることができる。   Subsequently, the inter-summary image change amount calculation unit 181 uses, as the inter-summary image change amount, the change amount between each of the other primary summary images in each section for the primary summary image in each section read in step d1. Calculate (step d5). For example, as illustrated in FIG. 5, the similar image appearance section to be processed is a stomach section, and the primary summary images in the stomach section are configured by nine primary summary images I11 to I19. If this is the case, each of the primary summary images I11 to I19 is sequentially processed, and the amount of change between the other eight primary summary images in the section is calculated as the amount of change between summary images. . The calculated inter-summary image change amount is held in the recording unit 14. Note that, as a method for calculating the amount of change between the first summary images in other sections, the method for calculating the amount of change between images described in step c9 of FIG. 8 can be used.

続いて、要約画像間変化量算出部181は、図9に示すように、全ての類似画像出現区間について要約画像間変化量の算出を行ったか否かを判定し、未処理の類似画像出現区間があれば(ステップd7:No)、ステップd1に戻る。そして、未処理の類似画像出現区間を処理対象としてステップd1〜ステップd5の処理を行い、要約画像間変化量を算出する。一方、全ての類似画像出現区間を処理した場合には(ステップd7:Yes)、図3のステップa13にリターンし、その後ステップa15に移行する。   Subsequently, as shown in FIG. 9, the inter-summary image change amount calculation unit 181 determines whether or not the inter-summary image change amount has been calculated for all similar image appearance sections, and an unprocessed similar image appearance section. If there is (step d7: No), the process returns to step d1. Then, the processing from step d1 to step d5 is performed on an unprocessed similar image appearance section as a processing target, and a change amount between summary images is calculated. On the other hand, when all the similar image appearance sections have been processed (step d7: Yes), the process returns to step a13 in FIG. 3 and then proceeds to step a15.

次に、図3のステップa15で類似度算出部183が行う類似度算出処理について説明する。図10は、類似度算出処理の詳細な処理手順を示すフローチャートである。   Next, the similarity calculation process performed by the similarity calculation unit 183 in step a15 in FIG. 3 will be described. FIG. 10 is a flowchart showing a detailed processing procedure of the similarity calculation processing.

図10に示すように、類似度算出処理では、類似度算出部183は先ず、1次要約画像を順次処理対象として選出する(ステップe1)。続いて類似度算出部183は、処理対象の1次要約画像の要約画像間変化量を記録部14から読み出す(ステップe3)。そして、類似度算出部183は、読み出した要約画像間変化量をもとに、処理対象の1次要約画像の類似度を算出する(ステップe5)。すなわち、上記したように、処理対象の1次要約画像の要約画像間変化量の中から値が最も小さい変化量を選出して類似度の値とし、その変化量を算出した他の1次要約画像を処理対象の1次要約画像の類似要約画像とする。   As shown in FIG. 10, in the similarity calculation process, the similarity calculation unit 183 first selects a primary summary image as a processing target sequentially (step e1). Subsequently, the similarity calculation unit 183 reads the amount of change between summary images of the primary summary image to be processed from the recording unit 14 (step e3). Then, the similarity calculation unit 183 calculates the similarity of the primary summary image to be processed based on the read change amount between summary images (step e5). That is, as described above, the change amount having the smallest value among the change amounts between summary images of the primary summary image to be processed is selected as the similarity value, and the other primary summaries for which the change amount is calculated. The image is a similar summary image of the primary summary image to be processed.

続いて、類似度算出部183は、全ての1次要約画像について類似度の算出を行ったか否かを判定し、未処理の1次要約画像があれば(ステップe7:No)、ステップe1に戻る。そして、未処理の1次要約画像を処理対象としてステップe1〜ステップe5の処理を行い、類似度を算出する。一方、全ての1次要約画像を処理した場合には(ステップe7:Yes)、図3のステップa15にリターンし、その後ステップa17に移行する。   Subsequently, the similarity calculation unit 183 determines whether or not the similarity is calculated for all the primary summary images. If there is an unprocessed primary summary image (step e7: No), the similarity calculation unit 183 determines in step e1. Return. Then, the processing of step e1 to step e5 is performed on the unprocessed primary summary image as the processing target, and the similarity is calculated. On the other hand, when all the primary summary images have been processed (step e7: Yes), the process returns to step a15 in FIG. 3 and then proceeds to step a17.

次に、図3のステップa17で第2の要約画像抽出部18が行う要約画像再抽出処理について説明する。図11は、要約画像再抽出処理の詳細な処理手順を示すフローチャートである。   Next, the summary image re-extraction process performed by the second summary image extraction unit 18 in step a17 of FIG. 3 will be described. FIG. 11 is a flowchart showing a detailed processing procedure of the summary image re-extraction process.

図11に示すように、要約画像再抽出処理では、第2の要約画像抽出部18は先ず、1次要約画像を順次処理対象として選出する(ステップf1)。続いて第2の要約画像抽出部18は、処理対象の1次要約画像の類似度を記録部14から読み出す(ステップf3)。続いて第2の要約画像抽出部18は、読み出した類似度を閾値処理し、類似度が予め設定される所定の閾値以下であり、類似度が高い場合には(ステップf5:Yes)、処理対象の1次要約画像と、その画像に類似した類似要約画像とをグループ化して同一の類似要約画像群に割り当てる(ステップf7)。一方、類似度が閾値より大きく、類似度が低い場合には(ステップf5:No)、ステップf9に移行する。   As shown in FIG. 11, in the summary image re-extraction process, the second summary image extraction unit 18 first selects a primary summary image as a processing target sequentially (step f1). Subsequently, the second summary image extraction unit 18 reads the similarity of the primary summary image to be processed from the recording unit 14 (step f3). Subsequently, the second summary image extraction unit 18 performs threshold processing on the read similarity, and if the similarity is equal to or lower than a predetermined threshold set in advance and the similarity is high (step f5: Yes), processing is performed. The target primary summary image and a similar summary image similar to the image are grouped and assigned to the same similar summary image group (step f7). On the other hand, when the similarity is larger than the threshold and the similarity is low (step f5: No), the process proceeds to step f9.

そして、ステップf9では、第2の要約画像抽出部18は、全ての1次要約画像について類似度を判定したか否かを判定し、未処理の1次要約画像があれば(ステップf9:No)、ステップf1に戻る。そして、未処理の1次要約画像を処理対象としてステップf1〜ステップf7の処理を行い、類似度が高い1次要約画像を類似要約画像と同一の類似要約画像群に割り当てる。   In step f9, the second summary image extraction unit 18 determines whether or not the similarity is determined for all the primary summary images, and if there is an unprocessed primary summary image (step f9: No). ), And returns to step f1. Then, the processing of step f1 to step f7 is performed on the unprocessed primary summary image as a processing target, and the primary summary image having a high similarity is assigned to the same summary image group as the similar summary image.

一方、全ての1次要約画像を処理した場合には(ステップf9:Yes)、第2の要約画像抽出部18は、グループ化された類似要約画像群の中から時系列順が先頭の1次要約画像を選出する(ステップf11)。類似要約画像群が複数あれば、それぞれについて時系列順が先頭の1次要約画像を選出する。そして、第2の要約画像抽出部18は、選出した1次要約画像と、ステップf9で類似度が閾値より大きく類似度が低いと判定された全ての1次要約画像とを、第2の要約体腔内画像として抽出する(ステップf13)。抽出結果は、記録部14に保持される。その後、図3のステップa17にリターンし、その後ステップa19に移行する。   On the other hand, when all the primary summary images have been processed (step f9: Yes), the second summary image extraction unit 18 selects the first primary image in time series order from among the grouped similar summary image groups. A summary image is selected (step f11). If there are a plurality of similar summary image groups, the first primary summary image in the time-series order is selected for each group. Then, the second summary image extraction unit 18 converts the selected primary summary image and all the primary summary images whose similarity is determined to be greater than the threshold and low in step f9 to the second summary. Extracted as a body cavity image (step f13). The extraction result is held in the recording unit 14. Thereafter, the process returns to step a17 in FIG. 3, and then the process proceeds to step a19.

なお、ここでは、グループ化された類似要約画像群の中から時系列順が先頭の1次要約画像を第2の要約体腔内画像として抽出することとした。これに対し、類似要約画像群の中から観察に適した1次要約画像を選出する構成としてもよい。   Here, the primary summary image with the head in time series order is extracted from the group of grouped similar summary images as the second summary body cavity image. In contrast, a primary summary image suitable for observation may be selected from a group of similar summary images.

例えば、類似要約画像群を構成する1次要約画像の中から、ノイズの最も少ない1次要約画像を観察に適した1次要約画像として選出することとしてもよい。この場合には、例えば、体内を撮像した体腔内画像には出現しない色の色情報として、G/RやB/G等の値(判定値)を予め設定しておく。そして、類似要約画像群の各1次要約画像を順次処理対象とし、処理対象の1次要約画像を構成する各画素のG/RやB/Gの値を算出する。そして、算出した値と予め設定しておいた判定値との差が小さいほどノイズの量が多い画像と判定する。そして、ノイズの量が最も少ない1次要約画像を観察に適した1次要約画像として選出する。   For example, the primary summary image with the least noise may be selected as the primary summary image suitable for observation from the primary summary images constituting the similar summary image group. In this case, for example, values (determination values) such as G / R and B / G are set in advance as color information of a color that does not appear in the body cavity image obtained by imaging the inside of the body. Then, each primary summary image of the similar summary image group is sequentially processed, and the G / R and B / G values of each pixel constituting the primary summary image to be processed are calculated. Then, the smaller the difference between the calculated value and the preset determination value, the more the amount of noise is determined. Then, the primary summary image with the least amount of noise is selected as the primary summary image suitable for observation.

また、類似要約画像群を構成する1次要約画像のうち、ハレーションが発生していない1次要約画像を1次要約画像を観察に適した1次要約画像として選出することとしてもよい。この場合には、例えば、類似要約画像群の各1次要約画像を順次処理対象とし、処理対象の1次要約画像を構成する全ての画素のG値の平均値、あるいはY値の平均値を算出する。そして、算出した平均値を閾値処理し、予め設定される所定の閾値以上の場合にハレーションが発生している画像と判定する。そして、類似要約画像群を構成する1次要約画像の中から、ハレーションが発生していない画像を観察に適した1次要約画像として選出する。   Moreover, it is good also as selecting the primary summary image in which the halation does not generate | occur | produce as a primary summary image suitable for observation among primary summary images which comprise a similar summary image group. In this case, for example, each primary summary image of the similar summary image group is sequentially processed, and an average value of G values or an average value of Y values of all the pixels constituting the primary summary image to be processed is calculated. calculate. Then, the calculated average value is subjected to threshold processing, and is determined to be an image in which halation occurs when the average value is equal to or greater than a predetermined threshold value. Then, an image in which no halation has occurred is selected as a primary summary image suitable for observation from primary summary images constituting the similar summary image group.

あるいは、予め観察に適した明るさの閾値範囲を設定しておき、類似要約画像群を構成する1次要約画像の中からその明るさが閾値範囲内である1次要約画像を観察に適した1次要約画像として選出することとしてもよい。これによれば、明るすぎず暗すぎない1次要約画像を観察に適した1次要約画像として選出できる。   Alternatively, a brightness threshold range suitable for observation is set in advance, and a primary summary image whose brightness is within the threshold range among primary summary images constituting a similar summary image group is suitable for observation. It is good also as selecting as a primary summary image. According to this, a primary summary image that is neither too bright nor too dark can be selected as a primary summary image suitable for observation.

また、グループ化された類似要約画像群の中から第2の要約体腔内画像として抽出する画像の枚数は1枚に限らず、複数枚抽出することとしてもよい。   Further, the number of images to be extracted as the second summary body cavity image from the group of similar summary images grouped is not limited to one, and a plurality of images may be extracted.

以上説明したように、実施の形態1によれば、一連の体腔内画像の時系列区間を各体腔内画像に映る臓器種類をもとに臓器区間に分割し、各臓器区間を類似する体腔内画像が出現する可能性が高い類似画像出現区間として設定することができる。そして、この類似画像出現区間毎に、各類似画像出現区間に属する第1の要約体腔内画像(1次要約画像)間の変化量を算出することによって、各第1の要約体腔内画像の類似度を算出することができる。そして、算出した類似度をもとに、第1の要約体腔内画像の中から最終的な第2の要約体腔内画像を抽出することができる。したがって、一連の体腔内画像の中から、その内容を把握するための要約体腔内画像を適切に抽出することができる。   As described above, according to the first embodiment, a time-series section of a series of in-vivo images is divided into organ sections based on organ types reflected in each in-vivo image, and each organ section is similar to a similar intra-body cavity. It can be set as a similar image appearance section where an image is likely to appear. Then, for each similar image appearance section, by calculating the amount of change between the first summary body cavity images (primary summary images) belonging to each similar image appearance section, the similarity of each first summary body cavity image The degree can be calculated. Based on the calculated similarity, a final second summary body cavity image can be extracted from the first summary body cavity image. Therefore, it is possible to appropriately extract a summary in-vivo image for grasping the contents from a series of in-vivo images.

(実施の形態2)
次に、実施の形態2について説明する。図12は、実施の形態2の画像処理装置10bの機能構成を説明するブロック図である。なお、実施の形態1で説明した画像処理装置10と同一の構成については、同一の符号を付する。図12に示すように、画像処理装置10bは、画像取得部11と、入力部12と、表示部13と、記録部14bと、演算部15bと、画像処理装置10b全体の動作を制御する制御部20bとを備える。
(Embodiment 2)
Next, a second embodiment will be described. FIG. 12 is a block diagram illustrating a functional configuration of the image processing apparatus 10b according to the second embodiment. In addition, the same code | symbol is attached | subjected about the structure same as the image processing apparatus 10 demonstrated in Embodiment 1. FIG. As shown in FIG. 12, the image processing apparatus 10b controls the operation of the image acquisition unit 11, the input unit 12, the display unit 13, the recording unit 14b, the calculation unit 15b, and the entire image processing apparatus 10b. Part 20b.

記録部14bには、一連の体腔内画像の時系列区間において、同一の臓器種類が映る臓器区間をユーザ操作に従って設定し、この臓器区間をもとに一連の体腔内画像から要約体腔内画像を抽出するための画像処理プログラム141bが記録される。   In the recording unit 14b, in the time series section of the series of body cavity images, an organ section in which the same organ type is reflected is set according to the user operation, and a summary body cavity image is obtained from the series of body cavity images based on the organ section. An image processing program 141b for extraction is recorded.

また、演算部15bは、区間設定部16bと、第1の要約画像抽出部17と、第2の要約画像抽出部18とを含む。一方、制御部20bは、臓器区間の指定を依頼し、入力部12を介してユーザによる臓器区間の指定操作を受け付ける臓器区間指定依頼部201bを含む。演算部15bの区間設定部16bは、ここで指定された臓器区間に従って、類似画像出現区間を設定する。   The calculation unit 15b includes a section setting unit 16b, a first summary image extraction unit 17, and a second summary image extraction unit 18. On the other hand, the control unit 20b includes an organ section designation request unit 201b that requests designation of an organ section and receives an organ section designation operation by the user via the input unit 12. The section setting unit 16b of the calculation unit 15b sets a similar image appearance section according to the organ section specified here.

図13は、実施の形態2の画像処理装置10bが行う処理手順を示す全体フローチャートである。なお、ここで説明する処理は、記録部14bに格納された画像処理プログラム141bに従って画像処理装置10bの各部が動作することによって実現される。また、図13において、実施の形態1と同様の処理工程については、同一の符号を付する。   FIG. 13 is an overall flowchart illustrating a processing procedure performed by the image processing apparatus 10b according to the second embodiment. Note that the processing described here is realized by the operation of each unit of the image processing apparatus 10b according to the image processing program 141b stored in the recording unit 14b. Moreover, in FIG. 13, the same code | symbol is attached | subjected about the process process similar to Embodiment 1. FIG.

図13に示すように、実施の形態2では、ステップa1で演算部15bが一連の体腔内画像を取得した後、続いて、制御部20bの臓器区間指定依頼部201bが、臓器区間指定画面を表示部13に表示して臓器区間の指定依頼を通知する処理を行う(ステップg3)。なお、臓器区間指定依頼部201bは、この指定依頼の通知に応答して指定された臓器区間を演算部15bの区間設定部16bに出力する。   As shown in FIG. 13, in the second embodiment, after the calculation unit 15b acquires a series of in-vivo images in step a1, the organ segment designation request unit 201b of the control unit 20b subsequently displays the organ segment designation screen. A process of displaying on the display unit 13 and notifying an organ segment designation request is performed (step g3). The organ section designation request unit 201b outputs the organ section designated in response to the designation request notification to the section setting unit 16b of the calculation unit 15b.

図14は、臓器区間指定画面の一例を示す図である。図14に示すように、臓器区間指定画面は、その画面中央において一連の体腔内画像を構成する各体腔内画像を1枚ずつ表示する画像表示部91を備える。この画像表示部91の下方には、観察者が画像表示部91に表示する体腔内画像を切り換えるための逆送りボタン92や順送りボタン93、スライダーバー94が配置されている。ユーザは、これらの逆送りボタン92や順送りボタン93を押下し、あるいはスライダーバー94をスライド操作することによって、画像表示部91の体腔内画像を切り換えることができる。   FIG. 14 is a diagram illustrating an example of an organ section designation screen. As shown in FIG. 14, the organ section designation screen includes an image display unit 91 that displays each in-vivo image constituting a series of in-vivo images at the center of the screen. Below the image display unit 91, a reverse button 92, a forward button 93, and a slider bar 94 are arranged for the observer to switch the in-vivo image displayed on the image display unit 91. The user can switch the in-vivo image of the image display unit 91 by pressing the reverse button 92 or the forward button 93 or by sliding the slider bar 94.

また、臓器区間指定画面には、臓器区間を指定するための臓器選択リストボックス95や、臓器区間の指定操作を確定するためのOKボタン96や、指定操作を終了する終了ボタン97が配置されている。臓器選択リストボックス95には、臓器区間の先頭および後尾を選択するための選択肢が一覧で提示される。なお、図14では、食道、胃、小腸および大腸の先頭および後尾を選択するための選択肢を示しているが、臓器選択リストボックス95に提示される選択肢は、類似画像出現区間として設定する臓器区間に応じて適宜設定できる。   The organ section designation screen includes an organ selection list box 95 for designating an organ section, an OK button 96 for confirming an organ section designation operation, and an end button 97 for ending the designation operation. Yes. The organ selection list box 95 presents a list of options for selecting the head and tail of the organ section. 14 shows options for selecting the head and tail of the esophagus, stomach, small intestine, and large intestine, the options presented in the organ selection list box 95 are organ sections set as similar image appearance sections. It can be set appropriately according to.

この臓器区間指定画面においてユーザが臓器区間を指定する際には、先ず、逆送りボタン92や順送りボタン93、スライダーバー94を操作し、画像表示部91に一連の体腔内画像を順次表示させて閲覧しながら、臓器区間の先頭や後尾となる体腔内画像を探す。そして、これらの体腔内画像を画像表示部91に表示させた状態で、該当する選択肢を臓器選択リストボックス95から選択し、OKボタン96を押下する。また、ユーザは、臓器区間の指定操作を終える場合には終了ボタン97を押下する。内部処理としては、臓器区間指定依頼部201bは、OKボタン96が押下された際に画像表示部91に表示されていた体腔内画像の画像番号と臓器選択リストボックス95で選択されていた選択肢とを対応付けて記録部14bに保持しておく。そして、終了ボタン97の押下操作に応じて、臓器区間指定依頼部201bは、記録部14bに保持しておいた体腔内画像と各選択肢との関連付け(すなわち、各臓器区間の先頭および後尾の体腔内画像の画像番号)を区間設定部16bに出力する。   When the user designates an organ section on the organ section designation screen, first, the backward button 92, the forward button 93, and the slider bar 94 are operated to display a series of body cavity images in sequence on the image display unit 91. While browsing, search for an in-vivo image that is the head or tail of an organ section. Then, in a state where these in-vivo images are displayed on the image display unit 91, the corresponding option is selected from the organ selection list box 95, and the OK button 96 is pressed. Further, the user presses an end button 97 when finishing the organ segment designation operation. As internal processing, the organ section designation requesting unit 201b includes the image number of the in-vivo image displayed on the image display unit 91 when the OK button 96 is pressed and the option selected in the organ selection list box 95. Are associated and held in the recording unit 14b. Then, in response to the pressing operation of the end button 97, the organ section designation requesting unit 201b associates the body cavity image held in the recording unit 14b with each option (that is, the body cavity at the head and tail of each organ section). The image number of the inner image) is output to the section setting unit 16b.

続いて、図13に示すように、区間設定部16bが、一連の体腔内画像の時系列区間を、臓器区間指定依頼部201bから入力された臓器区間毎に分割し、各臓器区間を類似した体腔内画像が出現する区間(類似画像出現区間)として設定する(ステップg5)。その後、ステップa7に移行する。   Subsequently, as shown in FIG. 13, the section setting unit 16b divides the time series section of the series of in-vivo images into the organ sections input from the organ section designation requesting section 201b, and each organ section is similar. It is set as a section where a body cavity image appears (similar image appearance section) (step g5). Thereafter, the process proceeds to step a7.

以上説明したように、実施の形態2によれば、実施の形態1と同様の効果を奏するとともに、ユーザが指定した臓器区間に従って時系列区間内に類似画像出現区間を設定することができる。   As described above, according to the second embodiment, the same effect as that of the first embodiment can be obtained, and the similar image appearance section can be set in the time-series section according to the organ section specified by the user.

なお、上記した各実施の形態では、カプセル内視鏡によって撮像された一連の体腔内画像から要約体腔内画像を抽出する場合について説明したが、処理の対象となる画像はカプセル内視鏡3で撮像された画像に限定されるものではない。また、動画像、あるいは連続して撮影された静止画像列といった連続する画像の中から要約体腔内画像を抽出する場合に同様に適用できる。   In each of the above-described embodiments, the case where the summary body cavity image is extracted from the series of body cavity images captured by the capsule endoscope has been described. However, the image to be processed is the capsule endoscope 3. It is not limited to the captured image. Further, the present invention can be similarly applied to the case where a summary body cavity image is extracted from a continuous image such as a moving image or a sequence of still images captured continuously.

画像処理装置を含む画像処理システムの全体構成を示す概略模式図である。1 is a schematic diagram illustrating an overall configuration of an image processing system including an image processing apparatus. 実施の形態1の画像処理装置の機能構成を説明するブロック図である。2 is a block diagram illustrating a functional configuration of the image processing apparatus according to Embodiment 1. FIG. 実施の形態1の画像処理装置が行う処理手順を示す全体フローチャートである。3 is an overall flowchart illustrating a processing procedure performed by the image processing apparatus according to the first embodiment. 図3に示す処理手順を説明する説明図である。It is explanatory drawing explaining the process sequence shown in FIG. 図3に示す処理手順を説明する説明図である。It is explanatory drawing explaining the process sequence shown in FIG. 図3に示す処理手順を説明する説明図である。It is explanatory drawing explaining the process sequence shown in FIG. 臓器種類判別処理の詳細な処理手順を示すフローチャートである。It is a flowchart which shows the detailed process sequence of an organ kind discrimination | determination process. 画像間変化量算出処理の詳細な処理手順を示すフローチャートである。It is a flowchart which shows the detailed process sequence of the variation | change_quantity calculation process between images. 要約画像間変化量算出処理の詳細な処理手順を示すフローチャートである。It is a flowchart which shows the detailed process sequence of the variation | change_quantity calculation process between summary images. 類似度算出処理の詳細な処理手順を示すフローチャートである。It is a flowchart which shows the detailed process sequence of a similarity calculation process. 要約画像再抽出処理の詳細な処理手順を示すフローチャートである。It is a flowchart which shows the detailed process sequence of the summary image re-extraction process. 実施の形態2の画像処理装置の機能構成を説明するブロック図である。6 is a block diagram illustrating a functional configuration of an image processing apparatus according to Embodiment 2. FIG. 実施の形態2の画像処理装置が行う処理手順を示す全体フローチャートである。10 is an overall flowchart illustrating a processing procedure performed by the image processing apparatus according to the second embodiment. 臓器区間指定画面の一例を示す図である。It is a figure which shows an example of an organ area designation | designated screen.

3 カプセル内視鏡
5 受信装置
A1〜An 受信用アンテナ
7 可搬型記録媒体
10 画像処理装置
11 画像取得部
12 入力部
13 表示部
14,14b 記録部
141,141b 画像処理プログラム
15,15b 演算部
16,16b 区間設定部
161 臓器種類判別部
17 第1の要約画像抽出部
171 画像間変化量算出部
173 シーン変化検出部
18 第2の要約画像抽出部
181 要約画像間変化量算出部
183 類似度算出部
20,20b 制御部
201b 臓器区間指定依頼部
1 被検者
DESCRIPTION OF SYMBOLS 3 Capsule endoscope 5 Receiving device A1-An Receiving antenna 7 Portable recording medium 10 Image processing device 11 Image acquisition part 12 Input part 13 Display part 14, 14b Recording part 141, 141b Image processing program 15, 15b Calculation part 16 , 16b Interval setting unit 161 Organ type discrimination unit 17 First summary image extraction unit 171 Inter-image change amount calculation unit 173 Scene change detection unit 18 Second summary image extraction unit 181 Inter-summary image change amount calculation unit 183 Similarity calculation Unit 20, 20b Control unit 201b Organ section designation request unit 1 Subject

Claims (17)

体腔内を連続的に撮像した一連の体腔内画像の中から要約体腔内画像を抽出する画像処理装置であって、
前記一連の体腔内画像の時系列区間内に、類似する体腔内画像が出現する類似画像出現区間を設定する区間設定部と、
前記一連の体腔内画像を構成する各体腔内画像のシーン変化をもとに、前記一連の体腔内画像の中から第1の要約体腔内画像を抽出する第1の要約画像抽出部と、
同一の類似画像出現区間に属する前記第1の要約体腔内画像間の類似度をもとに、第2の要約体腔内画像を抽出する第2の要約画像抽出部と、
を備えることを特徴とする画像処理装置。
An image processing apparatus for extracting a summary in-vivo image from a series of in-vivo images obtained by continuously imaging the inside of the body cavity,
A section setting unit that sets a similar image appearance section in which a similar in-vivo image appears in the time-series section of the series of in-vivo images;
A first summary image extraction unit for extracting a first summary body cavity image from the series of body cavity images based on a scene change of each body cavity image constituting the series of body cavity images;
A second summary image extraction unit that extracts a second summary body cavity image based on the similarity between the first summary body cavity images belonging to the same similar image appearance section;
An image processing apparatus comprising:
前記区間設定部は、前記一連の体腔内画像に映る臓器種類を判別する臓器種類判別部を有し、前記臓器種類判別部によって同一の臓器種類と判別された区間を前記類似画像出現区間として設定することを特徴とする請求項1に記載の画像処理装置。   The section setting unit includes an organ type determination unit that determines an organ type reflected in the series of in-vivo images, and sets a section determined as the same organ type by the organ type determination unit as the similar image appearance section. The image processing apparatus according to claim 1, wherein: 前記一連の体腔内画像の時系列区間のうちの同一の臓器が映る臓器区間の指定を依頼する区間指定依頼部を備え、
前記区間設定部は、前記区間指定依頼部による依頼に応答して指定された臓器区間を前記類似画像出現区間として設定することを特徴とする請求項1に記載の画像処理装置。
A section designation requesting unit for requesting designation of an organ section in which the same organ is reflected in the time series section of the series of body cavity images,
The image processing apparatus according to claim 1, wherein the section setting unit sets an organ section specified in response to a request from the section specifying request unit as the similar image appearance section.
前記第1の要約画像抽出部は、
前記体腔内画像毎に、時系列順が近接する他の体腔内画像との間で画像間変化量を算出する画像間変化量算出部と、
前記画像間変化量をもとに、前記一連の体腔内画像の中からシーン変化が発生した体腔内画像を検出するシーン変化検出部と、
を有し、前記シーン変化検出部によって検出された体腔内画像を前記第1の要約体腔内画像として抽出することを特徴とする請求項1に記載の画像処理装置。
The first summary image extraction unit includes:
An inter-image change amount calculation unit that calculates an inter-image change amount between other intra-body-cavity images that are close in time series order for each in-vivo image;
A scene change detection unit that detects a body cavity image in which a scene change has occurred from the series of body cavity images based on the amount of change between images;
The image processing apparatus according to claim 1, further comprising: extracting an in-vivo image detected by the scene change detection unit as the first summary in-vivo image.
前記シーン変化検出部は、前記画像間変化量の値が予め設定される所定の閾値範囲内である体腔内画像を、前記シーン変化が発生した体腔内画像として検出することを特徴とする請求項4に記載の画像処理装置。   The scene change detection unit detects an in-vivo image in which a value of the inter-image change amount is within a predetermined threshold range set in advance as an in-vivo image in which the scene change has occurred. 5. The image processing apparatus according to 4. 前記第2の要約画像抽出部は、
前記第1の要約体腔内画像毎に、同一の類似画像出現区間に属する他の全ての第1の要約体腔内画像との間で要約画像間変化量を算出する要約画像間変化量算出部と、
前記要約画像間変化量をもとに、前記第1の要約体腔内画像の類似度を算出する類似度算出部と、
を有し、前記類似度をもとに、前記第1の要約体腔内画像の中から前記第2の要約体腔内画像を抽出することを特徴とする請求項1に記載の画像処理装置。
The second summary image extraction unit includes:
An inter-summary image change amount calculation unit that calculates an inter-summary image change amount with respect to each of the other first summary body cavity images belonging to the same similar image appearance section for each of the first summary body cavity images; ,
Based on the amount of change between the summary images, a similarity calculating unit that calculates the similarity of the first summary body cavity image;
The image processing apparatus according to claim 1, further comprising: extracting the second summary body cavity image from the first summary body cavity image based on the similarity.
前記類似度算出部は、前記第1の要約体腔内画像について算出した前記要約画像間変化量のうちの最も小さい値を前記第1の要約体腔内画像の類似度とすることを特徴とする請求項6に記載の画像処理装置。   The similarity calculation unit sets the smallest value among the inter-summary image variation calculated for the first summary body cavity image as the similarity of the first summary body cavity image. Item 7. The image processing apparatus according to Item 6. 前記第2の要約画像抽出部は、前記第1の要約体腔内画像の類似度の高低を判定し、類似度が高いと判定された第1の要約体腔内画像を、前記類似度とした前記要約画像間変化量を算出した他の第1の要約体腔内画像と同一の類似要約画像群に割り当てるとともに、前記類似要約画像群に含まれる少なくとも1枚を前記第2の要約体腔内画像として抽出することを特徴とする請求項6に記載の画像処理装置。   The second summary image extraction unit determines the level of similarity of the first summary body cavity image, and uses the first summary body cavity image determined to have high similarity as the similarity. Assigned to the same similar summary image group as the other first summary body cavity images for which the amount of change between summary images is calculated, and extracts at least one image included in the similar summary image group as the second summary body cavity image The image processing apparatus according to claim 6. 前記第2の要約画像抽出部は、前記類似要約画像群の中から、時系列順が先頭である第1の要約体腔内画像を抽出することを特徴とする請求項8に記載の画像処理装置。   9. The image processing apparatus according to claim 8, wherein the second summary image extraction unit extracts a first summary body cavity image that is first in time series order from the similar summary image group. . 前記第2の要約画像抽出部は、前記類似要約画像群の中から、観察に適した第1の要約体腔内画像を抽出することを特徴とする請求項8に記載の画像処理装置。   The image processing apparatus according to claim 8, wherein the second summary image extraction unit extracts a first summary body cavity image suitable for observation from the group of similar summary images. 前記第2の要約画像抽出部は、前記類似要約画像群を構成する各第1の要約体腔内画像におけるノイズの有無をもとに、前記観察に適した第1の要約体腔内画像を抽出することを特徴とする請求項10に記載の画像処理装置。   The second summary image extraction unit extracts a first summary body cavity image suitable for the observation based on the presence or absence of noise in each of the first summary body cavity images constituting the similar summary image group. The image processing apparatus according to claim 10. 前記第2の要約画像抽出部は、前記類似要約画像群を構成する各第1の要約体腔内画像におけるハレーションの発生の有無をもとに前記観察に適した第1の要約体腔内画像を抽出することを特徴とする請求項10に記載の画像処理装置。   The second summary image extraction unit extracts a first summary body cavity image suitable for the observation based on the presence or absence of halation in each of the first summary body cavity images constituting the similar summary image group. The image processing apparatus according to claim 10. 前記第2の要約画像抽出部は、前記類似要約画像群を構成する各第1の要約体腔内画像における明るさをもとに、前記観察に適した第1の要約体腔内画像を抽出することを特徴とする請求項10に記載の画像処理装置。   The second summary image extraction unit extracts a first summary body cavity image suitable for the observation based on the brightness in each first summary body cavity image constituting the similar summary image group. The image processing apparatus according to claim 10. 前記第2の要約画像抽出部は、前記第1の要約体腔内画像の類似度の高低を判定し、類似度が低いと判定された全ての第1の要約体腔内画像を前記第2の要約体腔内画像として抽出することを特徴とする請求項6に記載の画像処理装置。   The second summary image extraction unit determines the level of similarity of the first summary body cavity image, and all the first summary body cavity images determined to have low similarity are the second summary. The image processing apparatus according to claim 6, wherein the image processing apparatus is extracted as an in-vivo image. 前記第2の要約画像抽出部は、前記類似度の値が予め設定される所定の閾値範囲内の場合に類似度が高く、前記閾値範囲外の場合に類似度が低いと判定することを特徴とする請求項8または14に記載の画像処理装置。   The second summary image extracting unit determines that the similarity is high when the value of the similarity is within a predetermined threshold range set in advance and is low when the value is outside the threshold range. The image processing apparatus according to claim 8 or 14. 体腔内を連続的に撮像した一連の体腔内画像の中から要約体腔内画像を抽出する画像処理方法であって、
前記一連の体腔内画像の時系列区間内に、類似する体腔内画像が出現する類似画像出現区間を設定する区間設定工程と、
前記一連の体腔内画像を構成する各体腔内画像のシーン変化をもとに、前記一連の体腔内画像の中から第1の要約体腔内画像を抽出する第1の要約画像抽出工程と、
同一の類似画像出現区間に属する前記第1の要約体腔内画像間の類似度をもとに、第2の要約体腔内画像を抽出する第2の要約画像抽出工程と、
を含むことを特徴とする画像処理方法。
An image processing method for extracting a summary body cavity image from a series of body cavity images obtained by continuously imaging the body cavity,
A section setting step for setting a similar image appearance section in which a similar in-vivo image appears in the time-series section of the series of in-vivo images;
A first summary image extracting step of extracting a first summary body cavity image from the series of body cavity images based on a scene change of each body cavity image constituting the series of body cavity images;
A second summary image extraction step of extracting a second summary body cavity image based on the similarity between the first summary body cavity images belonging to the same similar image appearance section;
An image processing method comprising:
コンピュータに、体腔内を連続的に撮像した一連の体腔内画像の中から要約体腔内画像を抽出させるための画像処理プログラムであって、
前記一連の体腔内画像の時系列区間内に、類似する体腔内画像が出現する類似画像出現区間を設定する区間設定ステップと、
前記一連の体腔内画像を構成する各体腔内画像のシーン変化をもとに、前記一連の体腔内画像の中から第1の要約体腔内画像を抽出する第1の要約画像抽出ステップと、
同一の類似画像出現区間に属する前記第1の要約体腔内画像間の類似度をもとに、第2の要約体腔内画像を抽出する第2の要約画像抽出ステップと、
を前記コンピュータに実行させることを特徴とする画像処理プログラム。
An image processing program for causing a computer to extract a summary body cavity image from a series of body cavity images obtained by continuously imaging the body cavity,
A section setting step for setting a similar image appearance section in which a similar in-vivo image appears in the time-series section of the series of in-vivo images;
A first summary image extraction step for extracting a first summary body cavity image from the series of body cavity images based on a scene change of each body cavity image constituting the series of body cavity images;
A second summary image extraction step of extracting a second summary body cavity image based on the similarity between the first summary body cavity images belonging to the same similar image appearance section;
An image processing program for causing the computer to execute.
JP2009001135A 2009-01-06 2009-01-06 Image processing apparatus, image processing method and image processing program Withdrawn JP2010158308A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009001135A JP2010158308A (en) 2009-01-06 2009-01-06 Image processing apparatus, image processing method and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009001135A JP2010158308A (en) 2009-01-06 2009-01-06 Image processing apparatus, image processing method and image processing program

Publications (1)

Publication Number Publication Date
JP2010158308A true JP2010158308A (en) 2010-07-22

Family

ID=42575941

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009001135A Withdrawn JP2010158308A (en) 2009-01-06 2009-01-06 Image processing apparatus, image processing method and image processing program

Country Status (1)

Country Link
JP (1) JP2010158308A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012050600A (en) * 2010-08-31 2012-03-15 Fujifilm Corp Electronic endoscope system
WO2012042986A1 (en) * 2010-09-29 2012-04-05 オリンパスメディカルシステムズ株式会社 Information processing device and capsule endoscope system
WO2013133368A1 (en) * 2012-03-07 2013-09-12 オリンパス株式会社 Image processing device, program, and image processing method
WO2013133370A1 (en) * 2012-03-08 2013-09-12 オリンパス株式会社 Image processing device, program, and image processing method
JP2013183912A (en) * 2012-03-08 2013-09-19 Olympus Corp Image summarization device and program
JP2013183874A (en) * 2012-03-07 2013-09-19 Olympus Corp Image processing device, program, and image processing method
WO2013157354A1 (en) * 2012-04-18 2013-10-24 オリンパス株式会社 Image processing device, program, and image processing method
JP2013222382A (en) * 2012-04-18 2013-10-28 Olympus Corp Image processing apparatus, program, and image processing method
JP2013222383A (en) * 2012-04-18 2013-10-28 Olympus Corp Image processing apparatus, program, and image processing method
JP2013240361A (en) * 2012-05-17 2013-12-05 Olympus Corp Image processing apparatus, program, and image processing method
JP2013246454A (en) * 2012-05-23 2013-12-09 Olympus Corp Image processing device, program and image processing method
WO2014050638A1 (en) * 2012-09-27 2014-04-03 オリンパス株式会社 Image processing device, program, and image processing method
WO2014050637A1 (en) * 2012-09-27 2014-04-03 オリンパス株式会社 Image processing device, program, and image processing method
WO2014103903A1 (en) * 2012-12-28 2014-07-03 オリンパス株式会社 Image processing device, image processing method, and program
WO2015015869A1 (en) * 2013-08-02 2015-02-05 オリンパス株式会社 Image processing device, image processing method, and program
WO2015141302A1 (en) * 2014-03-17 2015-09-24 オリンパス株式会社 Image processing device, image processing method, and image processing program
WO2019187206A1 (en) * 2018-03-27 2019-10-03 オリンパス株式会社 Image processing device, capsule-type endoscope system, operation method of image processing device, and operation program of image processing device

Cited By (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012050600A (en) * 2010-08-31 2012-03-15 Fujifilm Corp Electronic endoscope system
WO2012042986A1 (en) * 2010-09-29 2012-04-05 オリンパスメディカルシステムズ株式会社 Information processing device and capsule endoscope system
US8854444B2 (en) 2010-09-29 2014-10-07 Olympus Medical Systems Corp. Information processing apparatus and capsule endoscope system
JP2013183874A (en) * 2012-03-07 2013-09-19 Olympus Corp Image processing device, program, and image processing method
WO2013133368A1 (en) * 2012-03-07 2013-09-12 オリンパス株式会社 Image processing device, program, and image processing method
US9576362B2 (en) 2012-03-07 2017-02-21 Olympus Corporation Image processing device, information storage device, and processing method to acquire a summary image sequence
CN106859578A (en) * 2012-03-08 2017-06-20 奥林巴斯株式会社 Image processing apparatus and image processing method
US9547794B2 (en) 2012-03-08 2017-01-17 Olympus Corporation Image processing device, information storage device, and image processing method
CN104203065A (en) * 2012-03-08 2014-12-10 奥林巴斯株式会社 Image processing device, program, and image processing method
JP2013183912A (en) * 2012-03-08 2013-09-19 Olympus Corp Image summarization device and program
WO2013133370A1 (en) * 2012-03-08 2013-09-12 オリンパス株式会社 Image processing device, program, and image processing method
CN104203065B (en) * 2012-03-08 2017-04-12 奥林巴斯株式会社 Image processing device and image processing method
US9672619B2 (en) 2012-03-08 2017-06-06 Olympus Corporation Image processing device, information storage device, and image processing method
JP2013222383A (en) * 2012-04-18 2013-10-28 Olympus Corp Image processing apparatus, program, and image processing method
US9740939B2 (en) 2012-04-18 2017-08-22 Olympus Corporation Image processing device, information storage device, and image processing method
US10037468B2 (en) 2012-04-18 2018-07-31 Olympus Corporation Image processing device, information storage device, and image processing method
JP2013222382A (en) * 2012-04-18 2013-10-28 Olympus Corp Image processing apparatus, program, and image processing method
WO2013157354A1 (en) * 2012-04-18 2013-10-24 オリンパス株式会社 Image processing device, program, and image processing method
CN104244801A (en) * 2012-04-18 2014-12-24 奥林巴斯株式会社 Image processing device, program, and image processing method
JP2013240361A (en) * 2012-05-17 2013-12-05 Olympus Corp Image processing apparatus, program, and image processing method
JP2013246454A (en) * 2012-05-23 2013-12-09 Olympus Corp Image processing device, program and image processing method
US9652835B2 (en) 2012-09-27 2017-05-16 Olympus Corporation Image processing device, information storage device, and image processing method
US20150199800A1 (en) * 2012-09-27 2015-07-16 Olympus Corporation Image processing device, information storage device, and image processing method
WO2014050638A1 (en) * 2012-09-27 2014-04-03 オリンパス株式会社 Image processing device, program, and image processing method
WO2014050637A1 (en) * 2012-09-27 2014-04-03 オリンパス株式会社 Image processing device, program, and image processing method
US9684849B2 (en) 2012-09-27 2017-06-20 Olympus Corporation Image processing device, information storage device, and image processing method
JP2014071470A (en) * 2012-09-27 2014-04-21 Olympus Corp Image processor, program and image processing method
EP2902961A4 (en) * 2012-09-27 2016-09-21 Olympus Corp Image processing device, program, and image processing method
JP2014079562A (en) * 2012-09-27 2014-05-08 Olympus Corp Image processing apparatus, program and image processing method
US9349159B2 (en) * 2012-12-28 2016-05-24 Olympus Corporation Image processing device, image processing method, and information storage device
JP2014128390A (en) * 2012-12-28 2014-07-10 Olympus Corp Image processor, image processing method and program
WO2014103903A1 (en) * 2012-12-28 2014-07-03 オリンパス株式会社 Image processing device, image processing method, and program
US20150228056A1 (en) * 2012-12-28 2015-08-13 Olympus Corporation Image processing device, image processing method, and information storage device
WO2015015869A1 (en) * 2013-08-02 2015-02-05 オリンパス株式会社 Image processing device, image processing method, and program
JP2015032127A (en) * 2013-08-02 2015-02-16 オリンパス株式会社 Image processing device, image processing method and program
CN105407787A (en) * 2013-08-02 2016-03-16 奥林巴斯株式会社 Image processing device, image processing method, and program
US9898664B2 (en) 2013-08-02 2018-02-20 Olympus Corporation Image processing device, image processing method, and information storage device
CN106132266A (en) * 2014-03-17 2016-11-16 奥林巴斯株式会社 Image processing apparatus, image processing method and image processing program
WO2015141302A1 (en) * 2014-03-17 2015-09-24 オリンパス株式会社 Image processing device, image processing method, and image processing program
US9959618B2 (en) 2014-03-17 2018-05-01 Olympus Corporation Image processing apparatus, image processing method, and computer-readable recording medium
WO2019187206A1 (en) * 2018-03-27 2019-10-03 オリンパス株式会社 Image processing device, capsule-type endoscope system, operation method of image processing device, and operation program of image processing device

Similar Documents

Publication Publication Date Title
JP2010158308A (en) Image processing apparatus, image processing method and image processing program
US8830307B2 (en) Image display apparatus
US9186051B2 (en) Image processing device, computer-readable recording device, and image processing method
JP5147308B2 (en) Image extraction apparatus and image extraction program
JP5374135B2 (en) Image processing apparatus, method of operating image processing apparatus, and image processing program
US9060673B2 (en) System and method for displaying portions of in-vivo images
US8830308B2 (en) Image management apparatus, image management method and computer-readable recording medium associated with medical images
JP5457688B2 (en) Image processing apparatus, image processing program, and image processing method
JP5005032B2 (en) Image display device and image display program
JP6741759B2 (en) Image processing apparatus, image processing apparatus operating method, and image processing apparatus operating program
US8457376B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
JP5676063B1 (en) Medical device and method of operating medical device
US8768024B1 (en) System and method for real time detection of villi texture in an image stream of the gastrointestinal tract
JP2011024628A (en) Image processor, image processing program, and image processing method
JP5004736B2 (en) Image processing apparatus and image processing program
JP5231160B2 (en) Image display device, image display method, and image display program
JP4464894B2 (en) Image display device
JP5684300B2 (en) Image display device, image display method, and image display program
WO2023042273A1 (en) Image processing device, image processing method, and storage medium
JP5226618B2 (en) Image extraction apparatus, image extraction method, and image extraction program
JP7100505B2 (en) Image processing device, operation method of image processing device, and operation program of image processing device
KR101626802B1 (en) Lesion Tracking and Monitoring System for Endoscopy
Kage et al. A comparison of basic deinterlacing approaches for a computer assisted diagnosis approach of videoscope images

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120306