JP2010158308A - Image processing apparatus, image processing method and image processing program - Google Patents
Image processing apparatus, image processing method and image processing program Download PDFInfo
- Publication number
- JP2010158308A JP2010158308A JP2009001135A JP2009001135A JP2010158308A JP 2010158308 A JP2010158308 A JP 2010158308A JP 2009001135 A JP2009001135 A JP 2009001135A JP 2009001135 A JP2009001135 A JP 2009001135A JP 2010158308 A JP2010158308 A JP 2010158308A
- Authority
- JP
- Japan
- Prior art keywords
- image
- body cavity
- images
- series
- section
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Endoscopes (AREA)
Abstract
Description
本発明は、体腔内を連続的に撮像した一連の体腔内画像の中から要約体腔内画像を抽出する画像処理装置、画像処理方法および画像処理プログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and an image processing program for extracting a summary body cavity image from a series of body cavity images obtained by continuously imaging the body cavity.
近年、被検者の体腔内を撮像する医用機器として、カプセル内視鏡が開発されている。カプセル内視鏡は、口から飲み込まれた後、消化管内を蠕動運動等により移動しながら所定の撮像レートで体腔内画像を撮像して体外受信機に送信し、最終的に体外に排出される。撮像される体腔内画像の枚数は、撮像レート(2〜4frame/sec)×カプセル内視鏡の体内滞在時間(8hours=8×60×60sec)で概ね示され、数万枚以上という大量の枚数になる。医師等の観察者は、これら体外受信機に送信された大量の体腔内画像を診断用のワークステーション等で確認し、病変部を特定するために多くの時間を費やしている。このため、体腔内画像の観察作業を効率化する技術が強く望まれている。 In recent years, capsule endoscopes have been developed as medical devices for imaging the body cavity of a subject. After being swallowed from the mouth, the capsule endoscope captures an image of the body cavity at a predetermined imaging rate while moving in the digestive tract by a peristaltic motion and the like, transmits it to the external receiver, and is finally discharged out of the body. . The number of images in the body cavity to be imaged is generally indicated by the imaging rate (2 to 4 frames / sec) × the stay time in the capsule endoscope (8 hours = 8 × 60 × 60 sec). become. An observer such as a doctor spends a lot of time to confirm a large amount of in-vivo images transmitted to these extracorporeal receivers on a diagnostic workstation or the like and to identify a lesioned part. For this reason, there is a strong demand for a technique for improving the efficiency of observing a body cavity image.
一方で、動画映像のような時系列に並ぶ一連の画像の中から、その内容を把握するためのダイジェストを作成する技術が知られている。例えば、特許文献1には、直前のフレームとの間で色ヒストグラムによる相違度を算出し、相違度が閾値を超えているフレームをダイジェスト画像とする技術が開示されている。この種の技術を適用すれば、カプセル内視鏡によって撮像された体腔内画像の中から要約体腔内画像を抽出することができるので、体腔内画像の観察効率を向上させることができる。
On the other hand, a technique for creating a digest for grasping the content from a series of images arranged in a time series such as a moving image is known. For example,
ところで、カプセル内視鏡は、蠕動運動等により体腔内を移動するため、その移動速度は一定ではなく、消化管内の同一箇所に停滞したり前進や後進を繰り返すといった場合も生じる。この結果、同じような内容の体腔内画像が連続的にあるいは不連続で撮像される場合が発生し得る。このため、上記した特許文献1のように、単に隣接する画像間の変化(特許文献1では、「相違度」に該当)を求める手法では、時系列順が離れた位置に存在する画像間の類似性を適正に判断できない場合があった。
By the way, since the capsule endoscope moves in the body cavity by a peristaltic motion or the like, the moving speed is not constant, and the capsule endoscope may stay in the same place in the digestive tract or repeat forward and backward movements. As a result, there may occur a case where the in-vivo images having the same contents are captured continuously or discontinuously. For this reason, as in the above-described
また、カプセル内視鏡は、消化管内を移動しながら画像を撮像するため、得られた一連の体腔内画像には食道、胃、小腸、大腸等の内部がこの順に映る。このため、特許文献1の手法では、異なる臓器区間を跨いで隣接する画像間の変化をもとに、異なる臓器区間に属する明らかに類似性が低い画像間で類似性の判断を行ってしまう場合があった。
In addition, since the capsule endoscope captures an image while moving in the digestive tract, the inside of the esophagus, stomach, small intestine, large intestine, and the like is shown in this order in the series of images in the body cavity obtained. For this reason, in the method of
本発明は、上記に鑑み為されたものであって、一連の体腔内画像の中から要約体腔内画像を適切に抽出することができる画像処理装置、画像処理方法および画像処理プログラムを提供することを目的とする。 The present invention has been made in view of the above, and provides an image processing apparatus, an image processing method, and an image processing program capable of appropriately extracting a summary body cavity image from a series of body cavity images. With the goal.
上記した課題を解決し、目的を達成するための、本発明のある態様にかかる画像処理装置は、体腔内を連続的に撮像した一連の体腔内画像の中から要約体腔内画像を抽出する画像処理装置であって、前記一連の体腔内画像の時系列区間内に、類似する体腔内画像が出現する類似画像出現区間を設定する区間設定部と、前記一連の体腔内画像を構成する各体腔内画像のシーン変化をもとに、前記一連の体腔内画像の中から第1の要約体腔内画像を抽出する第1の要約画像抽出部と、同一の類似画像出現区間に属する前記第1の要約体腔内画像間の類似度をもとに、第2の要約体腔内画像を抽出する第2の要約画像抽出部と、を備えることを特徴とする。 In order to solve the above-described problems and achieve the object, an image processing apparatus according to an aspect of the present invention is an image that extracts a summary body cavity image from a series of body cavity images obtained by continuously imaging the body cavity. A processing device, a section setting unit for setting a similar image appearance section in which a similar in-vivo image appears in a time-series section of the series of in-vivo images, and each of the body cavities constituting the in-body-cavity image A first summary image extraction unit that extracts a first summary body cavity image from the series of body cavity images based on a scene change of the inner image; and the first summary image extraction unit that belongs to the same similar image appearance section And a second summary image extraction unit for extracting a second summary body cavity image based on the similarity between the summary body cavity images.
この態様にかかる画像処理装置によれば、一連の体腔内画像の時系列区間内に、類似する体腔内画像が出現する類似画像出現区間を設定するとともに、各体腔内画像のシーン変化をもとに一連の体腔内画像の中から第1の要約体腔内画像を抽出することができる。そして、同一の類似画像出現区間に属する第1の要約体腔内画像間の類似度をもとに第2の要約体腔内画像を抽出することができる。これによれば、要約体腔内画像の抽出に際し、類似画像出現区間毎に要約体腔内画像間の類似性を加味することができるので、一連の体腔内画像の中から、その内容を把握するための要約体腔内画像を適切に抽出することができる。 According to the image processing apparatus according to this aspect, a similar image appearance section in which a similar in-vivo image appears is set in a time-series section of a series of in-vivo images, and a scene change of each in-vivo image is performed. In addition, the first summary body cavity image can be extracted from the series of body cavity images. The second summary body cavity image can be extracted based on the similarity between the first summary body cavity images belonging to the same similar image appearance section. According to this, when extracting the summary body cavity image, the similarity between the summary body cavity images can be taken into account for each similar image appearance section, so that the contents can be grasped from the series of body cavity images. It is possible to appropriately extract the summary body cavity image.
また、本発明の別の態様にかかる画像処理方法は、体腔内を連続的に撮像した一連の体腔内画像の中から要約体腔内画像を抽出する画像処理方法であって、前記一連の体腔内画像の時系列区間内に、類似する体腔内画像が出現する類似画像出現区間を設定する区間設定工程と、前記一連の体腔内画像を構成する各体腔内画像のシーン変化をもとに、前記一連の体腔内画像の中から第1の要約体腔内画像を抽出する第1の要約画像抽出工程と、同一の類似画像出現区間に属する前記第1の要約体腔内画像間の類似度をもとに、第2の要約体腔内画像を抽出する第2の要約画像抽出工程と、を含むことを特徴とする。 An image processing method according to another aspect of the present invention is an image processing method for extracting a summary body cavity image from a series of body cavity images obtained by continuously imaging the inside of the body cavity. Based on the section setting step of setting a similar image appearance section in which a similar in-vivo image appears in the time-series section of the image, and the scene change of each in-body cavity image constituting the series of in-vivo images, A first summary image extraction step of extracting a first summary body cavity image from a series of body cavity images, and a similarity between the first summary body cavity images belonging to the same similar image appearance section And a second summary image extraction step of extracting a second summary body cavity image.
また、本発明の別の態様にかかる画像処理プログラムは、コンピュータに、体腔内を連続的に撮像した一連の体腔内画像の中から要約体腔内画像を抽出させるための画像処理プログラムであって、前記一連の体腔内画像の時系列区間内に、類似する体腔内画像が出現する類似画像出現区間を設定する区間設定ステップと、前記一連の体腔内画像を構成する各体腔内画像のシーン変化をもとに、前記一連の体腔内画像の中から第1の要約体腔内画像を抽出する第1の要約画像抽出ステップと、同一の類似画像出現区間に属する前記第1の要約体腔内画像間の類似度をもとに、第2の要約体腔内画像を抽出する第2の要約画像抽出ステップと、を前記コンピュータに実行させることを特徴とする。 An image processing program according to another aspect of the present invention is an image processing program for causing a computer to extract a summary body cavity image from a series of body cavity images obtained by continuously imaging the body cavity. A section setting step for setting a similar image appearance section in which a similar in-vivo image appears in a time-series section of the series of in-vivo images, and a scene change of each in-body cavity image forming the series of in-vivo images. Based on the first summary image extraction step of extracting a first summary body cavity image from the series of body cavity images, and between the first summary body cavity images belonging to the same similar image appearance section A second summary image extraction step of extracting a second summary body cavity image based on the degree of similarity is executed by the computer.
本発明によれば、一連の体腔内画像の中から要約体腔内画像を適切に抽出することができる。 According to the present invention, it is possible to appropriately extract a summary body cavity image from a series of body cavity images.
以下、図面を参照し、本発明の好適な実施の形態について詳細に説明する。本実施の形態では、撮像機の一例として消化管内を移動するカプセル内視鏡を用い、このカプセル内視鏡が被検者の消化管内を移動しながら連続的に撮像した一連の体腔内画像を処理する画像処理装置について説明する。なお、この実施の形態によって本発明が限定されるものではない。また、各図面の記載において、同一部分には同一の符号を付して示している。 DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. In this embodiment, a capsule endoscope that moves in the digestive tract is used as an example of an imaging device, and a series of images of body cavities that are continuously captured while the capsule endoscope moves in the digestive tract of a subject. An image processing apparatus to be processed will be described. Note that the present invention is not limited to the embodiments. Moreover, in description of each drawing, the same code | symbol is attached | subjected and shown to the same part.
(実施の形態1)
図1は、実施の形態1の画像処理装置10を含む画像処理システムの全体構成を示す概略模式図である。図1に示すように、画像処理システムは、被検者1内部の画像(体腔内画像)を撮像するカプセル内視鏡3、カプセル内視鏡3から無線送信される体腔内画像を受信する受信装置5、受信装置5によって受信された体腔内画像をもとに、カプセル内視鏡3によって撮像された体腔内画像を処理して表示する画像処理装置10等で構成される。受信装置5と画像処理装置10との間の画像データの受け渡しには、例えば可搬型の記録媒体(可搬型記録媒体)7が使用される。
(Embodiment 1)
FIG. 1 is a schematic diagram showing an overall configuration of an image processing system including an
カプセル内視鏡3は、撮像機能や無線機能等を具備するものであって、被検者1の口から飲み込まれて被検者1内部に導入され、消化管内を移動しながら逐次体腔内画像を撮像する。そして、撮像した体腔内画像を体外に無線送信する。ここで、カプセル内視鏡3によって撮像される体腔内画像は、画像内の各画素位置において、例えばR(赤),G(緑),B(青)の各色成分に対応する画素値(RGB値)を持つカラー画像である。
The capsule endoscope 3 has an imaging function, a wireless function, and the like. The capsule endoscope 3 is swallowed from the mouth of the
受信装置5は、被検者1内におけるカプセル内視鏡3の通過経路に対応する体表上の位置に分散配置される受信用アンテナA1〜Anを備える。そして、受信装置5は、各受信用アンテナA1〜Anを介してカプセル内視鏡3から無線送信される画像データを受信する。この受信装置5は、可搬型記録媒体7の着脱が自在に構成されており、受信した画像データを可搬型記録媒体7に逐次保存する。このようにして、カプセル内視鏡3が被検者1内部を撮像した一連の体腔内画像は、受信装置5によって時系列順に可搬型記録媒体7に蓄積され、保存される。
The
画像処理装置10は、カプセル内視鏡3によって撮像された一連の体腔内画像を医師等が観察・診断するためのものであり、ワークステーションやパソコン等の汎用コンピュータで実現される。この画像処理装置10は、可搬型記録媒体7の着脱が自在に構成されており、可搬型記録媒体7に保存された一連の体腔内画像を処理し、例えばLCDやELディスプレイ等のディスプレイに時系列順に順次表示する。
The
図2は、実施の形態1の画像処理装置10の機能構成を説明するブロック図である。本実施の形態では、画像処理装置10は、画像取得部11と、入力部12と、表示部13と、記録部14と、演算部15と、装置各部を制御する制御部20とを備える。
FIG. 2 is a block diagram illustrating a functional configuration of the
画像取得部11は、カプセル内視鏡3によって撮像されて受信装置5によって可搬型記録媒体7に保存された一連の体腔内画像を取得するものであり、例えば、可搬型記録媒体7を着脱自在に装着し、装着した可搬型記録媒体7に蓄積された体腔内画像の画像データを読み出して取得する。この画像取得部11は、例えば、可搬型記録媒体7の種類に応じた読み書き装置によって実現される。なお、カプセル内視鏡3によって撮像された一連の体腔内画像の取得は、可搬型記録媒体7を用いた構成に限定されるものではなく、例えば、画像取得部11の代わりにハードディスクを備える構成とし、ハードディスク内にカプセル内視鏡3によって撮像された一連の体腔内画像を予め保存しておく構成としてもよい。あるいは、可搬型記録媒体7の代わりに別途サーバを設置し、このサーバに一連の体腔内画像を予め保存しておく構成としてもよい。この場合には、画像取得部11を、サーバと接続するための通信装置等で構成し、この画像取得部11を介してサーバに接続して、サーバから体腔内画像を取得する。
The
入力部12は、例えば、キーボードやマウス、タッチパネル、各種スイッチ等によって実現されるものであり、操作入力に応じた操作信号を制御部20に出力する。表示部13は、LCDやELディスプレイ等の表示装置によって実現されるものであり、制御部20の制御によって、体腔内画像の表示画面を含む各種画面を表示する。
The
記録部14は、更新記憶可能なフラッシュメモリ等のROMやRAMといった各種ICメモリ、内蔵あるいはデータ通信端子で接続されたハードディスク、CD−ROM等の記録媒体およびその読取装置等によって実現されるものである。この記録部14には、画像処理装置10を動作させ、この画像処理装置10が備える種々の機能を実現するためのプログラムや、このプログラムの実行中に使用されるデータ等が記録される。また、一連の体腔内画像から要約体腔内画像を抽出するための画像処理プログラム141が記録される。
The
演算部15は、CPU等のハードウェアによって実現され、画像取得部11によって取得される複数の体腔内画像を処理し、一連の体腔内画像から要約体腔内画像を抽出するための種々の演算処理を行う。この演算部15は、区間設定部16と、第1の要約画像抽出部17と、第2の要約画像抽出部18とを含む。
The
区間設定部16は、一連の体腔内画像の時系列区間を、同一の臓器種類が映る区間(臓器区間)毎に分割し、類似画像出現区間を設定する。この区間設定部16は、各体腔内画像に映る臓器種類を判別する臓器種類判別部161を含む。第1の要約画像抽出部17は、画像間変化量算出部171と、シーン変化検出部173とを含み、第1の要約体腔内画像を抽出する。画像間変化量算出部171は、各体腔内画像の画像間変化量を算出する。シーン変化検出部173は、画像間変化量をもとにシーン変化が発生した体腔内画像を検出する。第2の要約画像抽出部18は、要約画像間変化量算出部181と、類似度算出部183とを含み、第1の要約体腔内画像の中から第2の要約体腔内画像を抽出する。要約画像間変化量算出部181は、類似画像出現区間毎に各第1の要約体腔内画像の要約画像間変化量を算出する。類似度算出部183は、要約画像間変化量をもとに各第1の要約体腔内画像の類似度を算出する。
The
制御部20は、CPU等のハードウェアによって実現される。この制御部20は、画像取得部11から入力される画像データや入力部12から入力される操作信号、記録部14に記録されるプログラムやデータ等に基づいて画像処理装置10を構成する各部への指示やデータの転送等を行い、画像処理装置10全体の動作を統括的に制御する。
The
図3は、実施の形態1の画像処理装置10が行う処理手順を示す全体フローチャートである。ここで説明する処理は、演算部15が記録部14に記録された画像処理プログラム141を実行することにより実現される。また、図4〜図6は、図3に示すステップa3〜ステップa17の処理手順を説明する説明図である。
FIG. 3 is an overall flowchart illustrating a processing procedure performed by the
図3に示すように、演算部15は先ず、一連の体腔内画像を取得する(ステップa1)。ここで、演算部15は、制御部20を介し、画像取得部11によって可搬型記録媒体7から読み出された一連の体腔内画像の画像データを取得する。取得した各体腔内画像の画像データは、その時系列順を示す画像番号とともに記録部14に記録され、任意の画像番号の画像データを読み込み可能な状態となる。
As shown in FIG. 3, first, the
続いて、臓器種類判別部161が臓器種類判別処理を行い、取得した一連の体腔内画像を構成する各体腔内画像に映る臓器種類を判別する(ステップa3)。実施の形態1では、各体腔内画像に映る臓器種類として、例えば食道、胃、小腸および大腸の4種類を判別する。
Subsequently, the organ
続いて、区間設定部16が、一連の体腔内画像の時系列区間を同一の臓器種類が映る臓器区間毎に分割し、各臓器区間を類似した体腔内画像が出現する区間(類似画像出現区間)として設定する(ステップa5)。具体的には、区間設定部16は、ステップa3の臓器種類判別処理で各体腔内画像について判別された臓器種類をもとに、一連の体腔内画像の時系列区間を臓器種類が変化する位置で分割する。これによって、図4(a)に示すように、一連の体腔内画像8の時系列区間が、食道が映る区間、胃が映る区間、小腸が映る区間および大腸が映る区間の各臓器区間に分割される。そして、区間設定部16は、食道、胃、小腸および大腸の各臓器が映る臓器区間の先頭および後尾を検出し、検出した各臓器区間の先頭および後尾の画像番号を記録部14に記録する。
Subsequently, the
続いて図3に示すように、画像間変化量算出部171が、画像間変化量算出処理を行って各体腔内画像の画像間変化量を算出する(ステップa7)。続いて、シーン変化検出部173が、ステップa7の画像間変化量算出処理で各体腔内画像について算出された画像間変化量をもとに、シーン変化が発生した体腔内画像を検出する(ステップa9)。例えば、シーン変化検出部173は、各体腔内画像の画像間変化量を閾値処理し、画像間変化量が予め設定されている閾値以上である体腔内画像をシーン変化として検出する。そして、第1の要約画像抽出部17が、ステップa9でシーン変化として検出された体腔内画像を第1の要約体腔内画像として抽出する(ステップa11)。抽出結果は、記録部14に保持される。
Subsequently, as shown in FIG. 3, the inter-image change amount calculation unit 171 performs an inter-image change amount calculation process to calculate the inter-image change amount of each intra-body cavity image (step a7). Subsequently, the scene change detection unit 173 detects an in-vivo image in which a scene change has occurred based on the inter-image change amount calculated for each in-vivo image in the inter-image change amount calculation processing in Step a7 (Step S7). a9). For example, the scene change detection unit 173 performs threshold processing on the inter-image change amount of each intra-body cavity image, and detects an intra-body image whose inter-image change amount is equal to or greater than a preset threshold value as a scene change. Then, the first summary
例えば、図4(b)では、類似画像出現区間の1つとして設定される胃の臓器区間に着目し、この類似画像出現区間から抽出された9枚の体腔内画像(第1の要約体腔内画像)I11〜I19をその画像間変化量D11〜D19と併せて示している。以下、第1の要約体腔内画像を「1次要約画像」と呼ぶ。 For example, in FIG. 4B, attention is paid to a stomach organ section set as one of the similar image appearance sections, and nine in-vivo images (first summary body cavity inside) extracted from the similar image appearance section. Image) I11 to I19 are shown together with the inter-image variation amounts D11 to D19. Hereinafter, the first summary body cavity image is referred to as a “primary summary image”.
続いて、図3に示すように、要約画像間変化量算出部181が、要約画像間変化量算出処理を行って類似画像出現区間毎に各1次要約画像の要約画像間変化量を算出する(ステップa13)。図5では、図4に示した胃の臓器区間である類似画像出現区間から抽出された1枚の1次要約画像I11に着目し、その要約画像間変化量を示している。この要約画像間変化量算出処理では、各1次要約画像それぞれについて、同一の類似画像出現区間に属する他の1次要約画像との間の変化量をそれぞれ算出し、要約画像間変化量とする。例えば、図5の1次要約画像I11であれば、他の全ての1次要約画像I12〜I19との間の変化量D21〜D28をそれぞれ算出し、算出した各変化量D21〜D28を1次要約画像I11の要約画像間変化量とする。 Subsequently, as shown in FIG. 3, the inter-summary image change amount calculation unit 181 performs the inter-summary image change amount calculation process to calculate the inter-summary image change amount of each primary summary image for each similar image appearance section. (Step a13). In FIG. 5, attention is paid to one primary summary image I11 extracted from the similar image appearance section which is the organ section of the stomach shown in FIG. 4, and the amount of change between the summary images is shown. In this inter-summary image change amount calculation process, for each primary summary image, the change amount between each primary summary image and another primary summary image belonging to the same similar image appearance section is calculated, and is used as the inter-summary image change amount. . For example, in the case of the primary summary image I11 of FIG. 5, the change amounts D21 to D28 between all the other primary summary images I12 to I19 are calculated, and the calculated change amounts D21 to D28 are calculated as the primary. The amount of change between the summary images of the summary image I11 is set.
続いて、図3に示すように、類似度算出部183が、類似度算出処理を行って各1次要約画像の類似度を算出する(ステップa15)。上記したように、ステップa13の要約画像間変化量算出処理では、各1次要約画像それぞれについて、同一の類似画像出現区間に属する他の全ての1次要約画像との間の変化量が要約画像間変化量として算出される。類似度算出処理では、各1次要約画像を順次処理対象とし、処理対象の1次要約画像の要約画像間変化量の中から値が最も小さい要約画像間変化量を選出して類似度の値とする。またこのとき、類似度とした要約画像間変化量を算出した他の1次要約画像を処理対象の1次要約画像の類似要約画像とする。そして、類似度と類似要約画像とを処理対象の1次要約画像の画像番号と対応付けて記録部14に記録しておく。例えば、図5に示した1次要約画像I11の要約画像間変化量である変化量D21〜D28のうち、他の1次要約画像I13との間の変化量D22の値が最も小さかったとする。この場合には、この変化量D22を1次要約画像I11の類似度とする。また、類似度とした変化量D22を算出した他の1次要約画像I13を1次要約画像I11の類似要約画像とする。
Subsequently, as shown in FIG. 3, the
そして、図3に示すように、第2の要約画像抽出部18が、要約画像再抽出処理を行って1次要約画像の中から第2の要約体腔内画像を抽出し、最終的な要約体腔内画像を得る(ステップa17)。図6では、第2の要約体腔内画像を抽出する様子を、図4に示した胃の臓器区間である類似画像出現区間から抽出された1次要約画像I11〜I19に着目して示している。なお、図6中において、各1次要約画像I11〜I19それぞれの類似度および類似要約画像を表記している。例えば、1次要約画像I11の類似度はD22であり、類似要約画像はI13である。この要約画像再抽出処理では、先ず、類似度の高低を判定する。実施の形態1では、画像間の変化量を類似度としているため、類似度の値が小さければその類似要約画像との類似度が高い。逆に、類似度の値が大きければその類似要約画像との類似度が低い。ここでは、例えば、所定の閾値以下の場合に類似度が高く、閾値よりも大きければ類似度が低いと判定する。
Then, as shown in FIG. 3, the second summary
そして、類似度が高い1次要約画像と、その類似要約画像とをグループ化して同一の類似要約画像群に割り当てる。例えば図6において、1次要約画像I11の類似度D22が閾値以下とする。この場合、1次要約画像I11は、その類似要約画像I13とグループ化され、同一の類似要約画像群に割り当てられる。さらに、1次要約画像I13の類似度D43が閾値以下とすると、1次要約画像I13は、その類似要約画像I14とグループ化され、同一の類似要約画像群に割り当てられる。結果的に、1次要約画像I11,I12,I14が1つにグループ化されて同一の類似要約画像群G11に割り当てられる。そして、グループ化された類似要約画像群の中から、例えば時系列順が先頭の1次要約画像を第2の要約体腔内画像として抽出する。例えば、図示の例では、類似要約画像群G11からは1次要約画像I11が、類似要約画像群G12からは1次要約画像I15がそれぞれ第2の要約体腔内画像として抽出される。 Then, the primary summary image having a high similarity and the similar summary image are grouped and assigned to the same similar summary image group. For example, in FIG. 6, it is assumed that the similarity D22 of the primary summary image I11 is equal to or less than a threshold value. In this case, the primary summary image I11 is grouped with the similar summary image I13 and assigned to the same similar summary image group. Further, if the similarity D43 of the primary summary image I13 is equal to or less than the threshold value, the primary summary image I13 is grouped with the similar summary image I14 and assigned to the same similar summary image group. As a result, the primary summary images I11, I12, and I14 are grouped together and assigned to the same similar summary image group G11. Then, from the grouped similar summary image group, for example, a primary summary image with the head in time series order is extracted as a second summary body cavity image. For example, in the illustrated example, the primary summary image I11 is extracted from the similar summary image group G11, and the primary summary image I15 is extracted from the similar summary image group G12 as the second summary body cavity image.
一方で、類似度が閾値よりも大きく類似度が低い全ての1次要約画像を第2の要約体腔内画像として抽出する。例えば、図示の例では、胃の臓器区間である類似画像出現区間から、1次要約画像I12,I16,I18,I19がそれぞれ第2の要約体腔内画像として抽出されている。 On the other hand, all the primary summary images whose similarity is larger than the threshold value and low in similarity are extracted as second summary body cavity images. For example, in the illustrated example, primary summary images I12, I16, I18, and I19 are extracted as second summary body cavity images from similar image appearance intervals that are stomach organ sections, respectively.
その後、演算部15が、得られた最終的な要約体腔内画像を出力する(ステップa19)。例えば、演算部15は、第2の要約体腔内画像を構成する各体腔内画像を制御部20を介して順次表示部13に表示出力させる。
Thereafter, the
次に、図3のステップa3,a7,a13,a15,a17の各処理について、順次説明する。先ず、図3のステップa3で臓器種類判別部161が行う臓器種類判別処理について説明する。図7は、臓器種類判別処理の詳細な処理手順を示すフローチャートである。
Next, each process of steps a3, a7, a13, a15, and a17 of FIG. 3 will be described sequentially. First, the organ type determination process performed by the organ
図7に示すように、臓器種類判別処理では、臓器種類判別部161は先ず、図3のステップa3で取得されて記録部14に記録された一連の体腔内画像の中から順次処理対象とする体腔内画像を1枚ずつ読み出す(ステップb1)。続いて、臓器種類判別部161は、処理対象の体腔内画像に映る臓器種類を判別する(ステップb3)。判別結果は、記録部14に保持される。
As shown in FIG. 7, in the organ type discriminating process, the organ
具体的な臓器種類の判別方法としては、適宜公知の技術を用いることができる。例えば、特開2006−288612号公報に開示されている技術を用い、体腔内画像の平均R値,G値,B値をもとに判別する。具体的には、事前に臓器種類毎の平均R値,G値,B値の数値範囲を設定しておく。実施の形態1では、判別対象とする臓器は食道、胃、小腸および大腸の4種類であるので、食道、胃、小腸および大腸の平均R値,G値,B値の数値範囲をそれぞれ設定しておく。そして、処理対象の体腔内画像の平均R値,G値,B値が食道の平均R値,G値,B値の数値範囲内であれば、その体腔内画像に映る観察部位の臓器種類を食道と判別する。処理対象の体腔内画像の平均R値,G値,B値が胃の平均R値,G値,B値の数値範囲内であれば、その体腔内画像に映る観察部位の臓器種類を胃と判別する。処理対象の体腔内画像の平均R値,G値,B値が小腸の平均R値,G値,B値の数値範囲内であれば、その体腔内画像に映る観察部位の臓器種類を小腸と判別する。処理対象の体腔内画像の平均R値,G値,B値が大腸の平均R値,G値,B値の数値範囲内であれば、その体腔内画像に映る観察部位の臓器種類を大腸と判別する。なお、画像中に映る臓器種類を判別できれば、いずれの方法を用いてもよい。
As a specific organ type discrimination method, a known technique can be used as appropriate. For example, using the technique disclosed in Japanese Patent Application Laid-Open No. 2006-288612, the determination is made based on the average R value, G value, and B value of the in-vivo image. Specifically, the numerical ranges of the average R value, G value, and B value for each organ type are set in advance. In
続いて、臓器種類判別部161は、全ての体腔内画像についてその臓器種類の判別を行ったか否かを判定し、未処理の体腔内画像があれば(ステップb5:No)、ステップb1に戻り、未処理の体腔内画像を処理対象として読み出し、ステップb3の処理を行って臓器種類を判別する。一方、全ての体腔内画像を処理した場合には(ステップb5:Yes)、図3のステップa3にリターンし、その後ステップa5に移行する。
Subsequently, the organ
次に、図3のステップa7で画像間変化量算出部171が行う画像間変化量算出処理について説明する。図8は、画像間変化量算出処理の詳細な処理手順を示すフローチャートである。 Next, the inter-image change amount calculation process performed by the inter-image change amount calculation unit 171 in step a7 in FIG. 3 will be described. FIG. 8 is a flowchart showing a detailed processing procedure of the inter-image change amount calculation processing.
図8に示すように、画像間変化量算出処理では、画像間変化量算出部171は先ず、一連の体腔内画像を構成する体腔内画像の枚数を計数し、変数maxとして設定する(ステップc1)。続いて、画像間変化量算出部171は、時系列順が先頭の体腔内画像の画像間変化量を、予め設定される画像間変化量の最大値とする(ステップc3)。時系列順が先頭の画像については、直前の画像が存在しないためである。 As shown in FIG. 8, in the inter-image change amount calculation processing, the inter-image change amount calculation unit 171 first counts the number of in-vivo images constituting a series of in-vivo images and sets it as a variable max (step c1). ). Subsequently, the inter-image change amount calculation unit 171 sets the inter-image change amount of the in-vivo image having the first time-series order as the maximum value of the inter-image change amount set in advance (step c3). This is because the immediately preceding image does not exist for the first image in time series order.
続いて、画像間変化量算出部171は、処理対象とする画像の時系列順を示す変数i=2として初期化する(ステップc5)。そして、画像間変化量算出部171は、i−1番目の体腔内画像I(i−1)とi番目の体腔内画像I(i)とを記録部14から読み出す(ステップc7)。そして、画像間変化量算出部171は、体腔内画像I(i−1)と体腔内画像I(i)との間の変化量を算出し、体腔内画像I(i)の画像間変化量とする(ステップc9)。算出された画像間変化量は、記録部14に保持される。変化量の算出の方法には、様々な方法があるが、ここでは、画素値の差に基づく方法と画像の統計量変化に基づく方法とを示す。
Subsequently, the inter-image variation calculation unit 171 initializes the variable i = 2 indicating the time-series order of the images to be processed (step c5). Then, the inter-image change amount calculation unit 171 reads the i-1 th body cavity image I (i-1) and the i th body cavity image I (i) from the recording unit 14 (step c7). Then, the inter-image change amount calculation unit 171 calculates the change amount between the intra-body-cavity image I (i-1) and the intra-body-cavity image I (i), and the inter-image change amount of the intra-body-cavity image I (i). (Step c9). The calculated inter-image change amount is held in the
先ず、画素値の差に基づく方法について説明する。本方法では先ず、体腔内画像I(i−1)と体腔内画像I(i)との間の画素値の差の2乗和SSDを次式(1)に従って算出する。ここで、各画像は、R(赤),G(緑),B(青)の各色成分に対する画素値を持つため、SSDの値も各色成分で算出される。そこで、各色成分のSSDの合計値または平均値を求め、この値を体腔内画像I(i)の画像間変化量とする。
また、SSDの代わりに、次式(2)に示す画素値の差の絶対値和SAD等を用いてもよい。
次に、統計量変化に基づく方法について説明する。画像の統計量としては、例えば、画像内の画素値の平均、分散、ヒストグラム等が挙げられる。例えば、体腔内画像I(i−1)および体腔内画像I(i)内でこれらの統計量をそれぞれ求める。そして、得られた数値Statの差D_Euclidを次式(3)に従って算出し、この値を体腔内画像I(i)の画像間変化量とする。
ここで、画像内の画素値の平均や分散を統計量として用いる場合、数値StatはR(赤),G(緑),B(青)の各色成分で1つずつ算出されるため、合わせると3つの統計量となる。また、ヒストグラムの場合、数値Statは、R(赤),G(緑),B(青)の各色成分でのヒストグラム分割数n_edgeずつ算出されるため、3×n_edgeの統計量となる。上記した式(3)では、次元数をd(1〜D)で示している。 Here, when the average or variance of the pixel values in the image is used as a statistic, the numerical value Stat is calculated for each color component of R (red), G (green), and B (blue). There are three statistics. Further, in the case of a histogram, the numerical value Stat is a statistical quantity of 3 × n_edge because the number of histogram divisions n_edge for each color component of R (red), G (green), and B (blue) is calculated. In the above equation (3), the number of dimensions is indicated by d (1 to D).
なお、平均、分散、ヒストグラム等の統計量を複数組み合わせて多次元特徴ベクトルとし、この多次元特徴ベクトルを用いて画像間変化量を算出してもよい。またこの際、各統計量の取り得る範囲が互いに合うように正規化することとしてもよいし、各統計量に重み係数を乗じて計算することとしてもよい。 It should be noted that a plurality of statistics such as average, variance, and histogram may be combined into a multidimensional feature vector, and the inter-image change amount may be calculated using this multidimensional feature vector. Further, at this time, normalization may be performed so that ranges that each statistic can take, or calculation may be performed by multiplying each statistic by a weighting coefficient.
以上、画像間の変化量を算出する手法として2つの手法を示したが、体腔内画像I(i−1)と体腔内画像I(i)との間の変化に応じた値が得られればよく、本例以外の方法で算出してもよい。また、ここでは、体腔内画像I(i)の画像間変化量として、時系列順が直前の体腔内画像I(i−1)との間の変化量を算出することとしたが、必ずしも時系列順が連続している体腔内画像との間で変化量を算出する必要はない。例えば、時系列順は連続しないが近傍する他の体腔内画像との間の変化量を算出することとしてもよい。 As described above, two methods have been shown as a method for calculating the amount of change between images. However, if a value corresponding to a change between the in-vivo image I (i-1) and the in-body-cavity image I (i) is obtained. It may be calculated by a method other than this example. Here, the amount of change between the intra-body-cavity image I (i) and the intra-body-cavity image I (i-1) immediately before in time series is calculated as the inter-image change amount of the intra-body-cavity image I (i). It is not necessary to calculate the amount of change between the images in the body cavity where the sequence order is continuous. For example, it is possible to calculate the amount of change between other images in the body cavity that are not in chronological order but are close to each other.
そして、画像間変化量算出部171は、図8に示すように、処理対象とする画像の時系列順を示す変数iをインクリメントして更新し、変数maxと比較することで次に処理対象とする画像の有無を判定する。i≦maxであれば(ステップc11:No)、ステップc7に戻って次の処理対象の体腔内画像についてステップc7,c9の処理を行い、画像間変化量を算出する。一方、i>maxの場合には(ステップc11:Yes)、図3のステップa7にリターンし、その後ステップa9に移行する。 Then, as shown in FIG. 8, the inter-image change amount calculation unit 171 increments and updates the variable i indicating the time series order of the image to be processed, and compares it with the variable max. The presence or absence of an image to be determined is determined. If i ≦ max (step c11: No), the process returns to step c7, and the processes in steps c7 and c9 are performed on the next in-vivo image to be processed to calculate the inter-image change amount. On the other hand, if i> max (step c11: Yes), the process returns to step a7 in FIG. 3, and then proceeds to step a9.
次に、図3のステップa13で要約画像間変化量算出部181が行う要約画像間変化量算出処理について説明する。図9は、要約画像間変化量算出処理の詳細な処理手順を示すフローチャートである。 Next, the inter-summary image change amount calculation process performed by the inter-summary image change amount calculation unit 181 in step a13 in FIG. 3 will be described. FIG. 9 is a flowchart illustrating a detailed processing procedure of the inter-summary image variation calculation processing.
図9に示すように、要約画像間変化量算出処理では、要約画像間変化量算出部181は先ず、図3のステップa5で類似画像出現区間として設定された同一の臓器が映る区間を順次処理対象として選出する(ステップd1)。そして、要約画像間変化量算出部181は、図3のステップa11で抽出された1次要約画像のうち、処理対象の類似画像出現区間に属する1次要約画像(以下、要約画像間変化量算出処理において「区間内1次要約画像」と呼ぶ。)を記録部14から読み出す(ステップd3)。 As shown in FIG. 9, in the inter-summary image variation calculation process, first, the inter-summary image variation calculation unit 181 sequentially processes the section where the same organ set as the similar image appearance section in step a5 in FIG. Selected as a target (step d1). Then, the inter-summary image variation calculation unit 181 calculates the primary summary image belonging to the processing target similar image appearance section (hereinafter referred to as inter-summary image variation calculation) from the primary summary images extracted in step a11 of FIG. In the processing, “in-section primary summary image” is read from the recording unit 14 (step d3).
続いて、要約画像間変化量算出部181は、ステップd1で読み出した各区間内1次要約画像について、他の全ての区間内1次要約画像との間の変化量を要約画像間変化量として算出する(ステップd5)。例えば、図5に例示したように、処理対象の類似画像出現区間が胃の区間であって、この胃の区間の区間内1次要約画像が9枚の1次要約画像I11〜I19で構成されている場合であれば、各1次要約画像I11〜I19を順次処理対象とし、他の8枚の区間内1次要約画像との間の変化量をそれぞれ算出して要約画像間変化量とする。算出された要約画像間変化量は、記録部14に保持される。なお、他の区間内1次要約画像との間の変化量の算出方法としては、図8のステップc9で説明した画像間変化量の算出方法を用いることができる。
Subsequently, the inter-summary image change amount calculation unit 181 uses, as the inter-summary image change amount, the change amount between each of the other primary summary images in each section for the primary summary image in each section read in step d1. Calculate (step d5). For example, as illustrated in FIG. 5, the similar image appearance section to be processed is a stomach section, and the primary summary images in the stomach section are configured by nine primary summary images I11 to I19. If this is the case, each of the primary summary images I11 to I19 is sequentially processed, and the amount of change between the other eight primary summary images in the section is calculated as the amount of change between summary images. . The calculated inter-summary image change amount is held in the
続いて、要約画像間変化量算出部181は、図9に示すように、全ての類似画像出現区間について要約画像間変化量の算出を行ったか否かを判定し、未処理の類似画像出現区間があれば(ステップd7:No)、ステップd1に戻る。そして、未処理の類似画像出現区間を処理対象としてステップd1〜ステップd5の処理を行い、要約画像間変化量を算出する。一方、全ての類似画像出現区間を処理した場合には(ステップd7:Yes)、図3のステップa13にリターンし、その後ステップa15に移行する。 Subsequently, as shown in FIG. 9, the inter-summary image change amount calculation unit 181 determines whether or not the inter-summary image change amount has been calculated for all similar image appearance sections, and an unprocessed similar image appearance section. If there is (step d7: No), the process returns to step d1. Then, the processing from step d1 to step d5 is performed on an unprocessed similar image appearance section as a processing target, and a change amount between summary images is calculated. On the other hand, when all the similar image appearance sections have been processed (step d7: Yes), the process returns to step a13 in FIG. 3 and then proceeds to step a15.
次に、図3のステップa15で類似度算出部183が行う類似度算出処理について説明する。図10は、類似度算出処理の詳細な処理手順を示すフローチャートである。
Next, the similarity calculation process performed by the
図10に示すように、類似度算出処理では、類似度算出部183は先ず、1次要約画像を順次処理対象として選出する(ステップe1)。続いて類似度算出部183は、処理対象の1次要約画像の要約画像間変化量を記録部14から読み出す(ステップe3)。そして、類似度算出部183は、読み出した要約画像間変化量をもとに、処理対象の1次要約画像の類似度を算出する(ステップe5)。すなわち、上記したように、処理対象の1次要約画像の要約画像間変化量の中から値が最も小さい変化量を選出して類似度の値とし、その変化量を算出した他の1次要約画像を処理対象の1次要約画像の類似要約画像とする。
As shown in FIG. 10, in the similarity calculation process, the
続いて、類似度算出部183は、全ての1次要約画像について類似度の算出を行ったか否かを判定し、未処理の1次要約画像があれば(ステップe7:No)、ステップe1に戻る。そして、未処理の1次要約画像を処理対象としてステップe1〜ステップe5の処理を行い、類似度を算出する。一方、全ての1次要約画像を処理した場合には(ステップe7:Yes)、図3のステップa15にリターンし、その後ステップa17に移行する。
Subsequently, the
次に、図3のステップa17で第2の要約画像抽出部18が行う要約画像再抽出処理について説明する。図11は、要約画像再抽出処理の詳細な処理手順を示すフローチャートである。
Next, the summary image re-extraction process performed by the second summary
図11に示すように、要約画像再抽出処理では、第2の要約画像抽出部18は先ず、1次要約画像を順次処理対象として選出する(ステップf1)。続いて第2の要約画像抽出部18は、処理対象の1次要約画像の類似度を記録部14から読み出す(ステップf3)。続いて第2の要約画像抽出部18は、読み出した類似度を閾値処理し、類似度が予め設定される所定の閾値以下であり、類似度が高い場合には(ステップf5:Yes)、処理対象の1次要約画像と、その画像に類似した類似要約画像とをグループ化して同一の類似要約画像群に割り当てる(ステップf7)。一方、類似度が閾値より大きく、類似度が低い場合には(ステップf5:No)、ステップf9に移行する。
As shown in FIG. 11, in the summary image re-extraction process, the second summary
そして、ステップf9では、第2の要約画像抽出部18は、全ての1次要約画像について類似度を判定したか否かを判定し、未処理の1次要約画像があれば(ステップf9:No)、ステップf1に戻る。そして、未処理の1次要約画像を処理対象としてステップf1〜ステップf7の処理を行い、類似度が高い1次要約画像を類似要約画像と同一の類似要約画像群に割り当てる。
In step f9, the second summary
一方、全ての1次要約画像を処理した場合には(ステップf9:Yes)、第2の要約画像抽出部18は、グループ化された類似要約画像群の中から時系列順が先頭の1次要約画像を選出する(ステップf11)。類似要約画像群が複数あれば、それぞれについて時系列順が先頭の1次要約画像を選出する。そして、第2の要約画像抽出部18は、選出した1次要約画像と、ステップf9で類似度が閾値より大きく類似度が低いと判定された全ての1次要約画像とを、第2の要約体腔内画像として抽出する(ステップf13)。抽出結果は、記録部14に保持される。その後、図3のステップa17にリターンし、その後ステップa19に移行する。
On the other hand, when all the primary summary images have been processed (step f9: Yes), the second summary
なお、ここでは、グループ化された類似要約画像群の中から時系列順が先頭の1次要約画像を第2の要約体腔内画像として抽出することとした。これに対し、類似要約画像群の中から観察に適した1次要約画像を選出する構成としてもよい。 Here, the primary summary image with the head in time series order is extracted from the group of grouped similar summary images as the second summary body cavity image. In contrast, a primary summary image suitable for observation may be selected from a group of similar summary images.
例えば、類似要約画像群を構成する1次要約画像の中から、ノイズの最も少ない1次要約画像を観察に適した1次要約画像として選出することとしてもよい。この場合には、例えば、体内を撮像した体腔内画像には出現しない色の色情報として、G/RやB/G等の値(判定値)を予め設定しておく。そして、類似要約画像群の各1次要約画像を順次処理対象とし、処理対象の1次要約画像を構成する各画素のG/RやB/Gの値を算出する。そして、算出した値と予め設定しておいた判定値との差が小さいほどノイズの量が多い画像と判定する。そして、ノイズの量が最も少ない1次要約画像を観察に適した1次要約画像として選出する。 For example, the primary summary image with the least noise may be selected as the primary summary image suitable for observation from the primary summary images constituting the similar summary image group. In this case, for example, values (determination values) such as G / R and B / G are set in advance as color information of a color that does not appear in the body cavity image obtained by imaging the inside of the body. Then, each primary summary image of the similar summary image group is sequentially processed, and the G / R and B / G values of each pixel constituting the primary summary image to be processed are calculated. Then, the smaller the difference between the calculated value and the preset determination value, the more the amount of noise is determined. Then, the primary summary image with the least amount of noise is selected as the primary summary image suitable for observation.
また、類似要約画像群を構成する1次要約画像のうち、ハレーションが発生していない1次要約画像を1次要約画像を観察に適した1次要約画像として選出することとしてもよい。この場合には、例えば、類似要約画像群の各1次要約画像を順次処理対象とし、処理対象の1次要約画像を構成する全ての画素のG値の平均値、あるいはY値の平均値を算出する。そして、算出した平均値を閾値処理し、予め設定される所定の閾値以上の場合にハレーションが発生している画像と判定する。そして、類似要約画像群を構成する1次要約画像の中から、ハレーションが発生していない画像を観察に適した1次要約画像として選出する。 Moreover, it is good also as selecting the primary summary image in which the halation does not generate | occur | produce as a primary summary image suitable for observation among primary summary images which comprise a similar summary image group. In this case, for example, each primary summary image of the similar summary image group is sequentially processed, and an average value of G values or an average value of Y values of all the pixels constituting the primary summary image to be processed is calculated. calculate. Then, the calculated average value is subjected to threshold processing, and is determined to be an image in which halation occurs when the average value is equal to or greater than a predetermined threshold value. Then, an image in which no halation has occurred is selected as a primary summary image suitable for observation from primary summary images constituting the similar summary image group.
あるいは、予め観察に適した明るさの閾値範囲を設定しておき、類似要約画像群を構成する1次要約画像の中からその明るさが閾値範囲内である1次要約画像を観察に適した1次要約画像として選出することとしてもよい。これによれば、明るすぎず暗すぎない1次要約画像を観察に適した1次要約画像として選出できる。 Alternatively, a brightness threshold range suitable for observation is set in advance, and a primary summary image whose brightness is within the threshold range among primary summary images constituting a similar summary image group is suitable for observation. It is good also as selecting as a primary summary image. According to this, a primary summary image that is neither too bright nor too dark can be selected as a primary summary image suitable for observation.
また、グループ化された類似要約画像群の中から第2の要約体腔内画像として抽出する画像の枚数は1枚に限らず、複数枚抽出することとしてもよい。 Further, the number of images to be extracted as the second summary body cavity image from the group of similar summary images grouped is not limited to one, and a plurality of images may be extracted.
以上説明したように、実施の形態1によれば、一連の体腔内画像の時系列区間を各体腔内画像に映る臓器種類をもとに臓器区間に分割し、各臓器区間を類似する体腔内画像が出現する可能性が高い類似画像出現区間として設定することができる。そして、この類似画像出現区間毎に、各類似画像出現区間に属する第1の要約体腔内画像(1次要約画像)間の変化量を算出することによって、各第1の要約体腔内画像の類似度を算出することができる。そして、算出した類似度をもとに、第1の要約体腔内画像の中から最終的な第2の要約体腔内画像を抽出することができる。したがって、一連の体腔内画像の中から、その内容を把握するための要約体腔内画像を適切に抽出することができる。 As described above, according to the first embodiment, a time-series section of a series of in-vivo images is divided into organ sections based on organ types reflected in each in-vivo image, and each organ section is similar to a similar intra-body cavity. It can be set as a similar image appearance section where an image is likely to appear. Then, for each similar image appearance section, by calculating the amount of change between the first summary body cavity images (primary summary images) belonging to each similar image appearance section, the similarity of each first summary body cavity image The degree can be calculated. Based on the calculated similarity, a final second summary body cavity image can be extracted from the first summary body cavity image. Therefore, it is possible to appropriately extract a summary in-vivo image for grasping the contents from a series of in-vivo images.
(実施の形態2)
次に、実施の形態2について説明する。図12は、実施の形態2の画像処理装置10bの機能構成を説明するブロック図である。なお、実施の形態1で説明した画像処理装置10と同一の構成については、同一の符号を付する。図12に示すように、画像処理装置10bは、画像取得部11と、入力部12と、表示部13と、記録部14bと、演算部15bと、画像処理装置10b全体の動作を制御する制御部20bとを備える。
(Embodiment 2)
Next, a second embodiment will be described. FIG. 12 is a block diagram illustrating a functional configuration of the
記録部14bには、一連の体腔内画像の時系列区間において、同一の臓器種類が映る臓器区間をユーザ操作に従って設定し、この臓器区間をもとに一連の体腔内画像から要約体腔内画像を抽出するための画像処理プログラム141bが記録される。
In the
また、演算部15bは、区間設定部16bと、第1の要約画像抽出部17と、第2の要約画像抽出部18とを含む。一方、制御部20bは、臓器区間の指定を依頼し、入力部12を介してユーザによる臓器区間の指定操作を受け付ける臓器区間指定依頼部201bを含む。演算部15bの区間設定部16bは、ここで指定された臓器区間に従って、類似画像出現区間を設定する。
The
図13は、実施の形態2の画像処理装置10bが行う処理手順を示す全体フローチャートである。なお、ここで説明する処理は、記録部14bに格納された画像処理プログラム141bに従って画像処理装置10bの各部が動作することによって実現される。また、図13において、実施の形態1と同様の処理工程については、同一の符号を付する。
FIG. 13 is an overall flowchart illustrating a processing procedure performed by the
図13に示すように、実施の形態2では、ステップa1で演算部15bが一連の体腔内画像を取得した後、続いて、制御部20bの臓器区間指定依頼部201bが、臓器区間指定画面を表示部13に表示して臓器区間の指定依頼を通知する処理を行う(ステップg3)。なお、臓器区間指定依頼部201bは、この指定依頼の通知に応答して指定された臓器区間を演算部15bの区間設定部16bに出力する。
As shown in FIG. 13, in the second embodiment, after the
図14は、臓器区間指定画面の一例を示す図である。図14に示すように、臓器区間指定画面は、その画面中央において一連の体腔内画像を構成する各体腔内画像を1枚ずつ表示する画像表示部91を備える。この画像表示部91の下方には、観察者が画像表示部91に表示する体腔内画像を切り換えるための逆送りボタン92や順送りボタン93、スライダーバー94が配置されている。ユーザは、これらの逆送りボタン92や順送りボタン93を押下し、あるいはスライダーバー94をスライド操作することによって、画像表示部91の体腔内画像を切り換えることができる。
FIG. 14 is a diagram illustrating an example of an organ section designation screen. As shown in FIG. 14, the organ section designation screen includes an
また、臓器区間指定画面には、臓器区間を指定するための臓器選択リストボックス95や、臓器区間の指定操作を確定するためのOKボタン96や、指定操作を終了する終了ボタン97が配置されている。臓器選択リストボックス95には、臓器区間の先頭および後尾を選択するための選択肢が一覧で提示される。なお、図14では、食道、胃、小腸および大腸の先頭および後尾を選択するための選択肢を示しているが、臓器選択リストボックス95に提示される選択肢は、類似画像出現区間として設定する臓器区間に応じて適宜設定できる。
The organ section designation screen includes an organ
この臓器区間指定画面においてユーザが臓器区間を指定する際には、先ず、逆送りボタン92や順送りボタン93、スライダーバー94を操作し、画像表示部91に一連の体腔内画像を順次表示させて閲覧しながら、臓器区間の先頭や後尾となる体腔内画像を探す。そして、これらの体腔内画像を画像表示部91に表示させた状態で、該当する選択肢を臓器選択リストボックス95から選択し、OKボタン96を押下する。また、ユーザは、臓器区間の指定操作を終える場合には終了ボタン97を押下する。内部処理としては、臓器区間指定依頼部201bは、OKボタン96が押下された際に画像表示部91に表示されていた体腔内画像の画像番号と臓器選択リストボックス95で選択されていた選択肢とを対応付けて記録部14bに保持しておく。そして、終了ボタン97の押下操作に応じて、臓器区間指定依頼部201bは、記録部14bに保持しておいた体腔内画像と各選択肢との関連付け(すなわち、各臓器区間の先頭および後尾の体腔内画像の画像番号)を区間設定部16bに出力する。
When the user designates an organ section on the organ section designation screen, first, the
続いて、図13に示すように、区間設定部16bが、一連の体腔内画像の時系列区間を、臓器区間指定依頼部201bから入力された臓器区間毎に分割し、各臓器区間を類似した体腔内画像が出現する区間(類似画像出現区間)として設定する(ステップg5)。その後、ステップa7に移行する。
Subsequently, as shown in FIG. 13, the
以上説明したように、実施の形態2によれば、実施の形態1と同様の効果を奏するとともに、ユーザが指定した臓器区間に従って時系列区間内に類似画像出現区間を設定することができる。 As described above, according to the second embodiment, the same effect as that of the first embodiment can be obtained, and the similar image appearance section can be set in the time-series section according to the organ section specified by the user.
なお、上記した各実施の形態では、カプセル内視鏡によって撮像された一連の体腔内画像から要約体腔内画像を抽出する場合について説明したが、処理の対象となる画像はカプセル内視鏡3で撮像された画像に限定されるものではない。また、動画像、あるいは連続して撮影された静止画像列といった連続する画像の中から要約体腔内画像を抽出する場合に同様に適用できる。 In each of the above-described embodiments, the case where the summary body cavity image is extracted from the series of body cavity images captured by the capsule endoscope has been described. However, the image to be processed is the capsule endoscope 3. It is not limited to the captured image. Further, the present invention can be similarly applied to the case where a summary body cavity image is extracted from a continuous image such as a moving image or a sequence of still images captured continuously.
3 カプセル内視鏡
5 受信装置
A1〜An 受信用アンテナ
7 可搬型記録媒体
10 画像処理装置
11 画像取得部
12 入力部
13 表示部
14,14b 記録部
141,141b 画像処理プログラム
15,15b 演算部
16,16b 区間設定部
161 臓器種類判別部
17 第1の要約画像抽出部
171 画像間変化量算出部
173 シーン変化検出部
18 第2の要約画像抽出部
181 要約画像間変化量算出部
183 類似度算出部
20,20b 制御部
201b 臓器区間指定依頼部
1 被検者
DESCRIPTION OF SYMBOLS 3
Claims (17)
前記一連の体腔内画像の時系列区間内に、類似する体腔内画像が出現する類似画像出現区間を設定する区間設定部と、
前記一連の体腔内画像を構成する各体腔内画像のシーン変化をもとに、前記一連の体腔内画像の中から第1の要約体腔内画像を抽出する第1の要約画像抽出部と、
同一の類似画像出現区間に属する前記第1の要約体腔内画像間の類似度をもとに、第2の要約体腔内画像を抽出する第2の要約画像抽出部と、
を備えることを特徴とする画像処理装置。 An image processing apparatus for extracting a summary in-vivo image from a series of in-vivo images obtained by continuously imaging the inside of the body cavity,
A section setting unit that sets a similar image appearance section in which a similar in-vivo image appears in the time-series section of the series of in-vivo images;
A first summary image extraction unit for extracting a first summary body cavity image from the series of body cavity images based on a scene change of each body cavity image constituting the series of body cavity images;
A second summary image extraction unit that extracts a second summary body cavity image based on the similarity between the first summary body cavity images belonging to the same similar image appearance section;
An image processing apparatus comprising:
前記区間設定部は、前記区間指定依頼部による依頼に応答して指定された臓器区間を前記類似画像出現区間として設定することを特徴とする請求項1に記載の画像処理装置。 A section designation requesting unit for requesting designation of an organ section in which the same organ is reflected in the time series section of the series of body cavity images,
The image processing apparatus according to claim 1, wherein the section setting unit sets an organ section specified in response to a request from the section specifying request unit as the similar image appearance section.
前記体腔内画像毎に、時系列順が近接する他の体腔内画像との間で画像間変化量を算出する画像間変化量算出部と、
前記画像間変化量をもとに、前記一連の体腔内画像の中からシーン変化が発生した体腔内画像を検出するシーン変化検出部と、
を有し、前記シーン変化検出部によって検出された体腔内画像を前記第1の要約体腔内画像として抽出することを特徴とする請求項1に記載の画像処理装置。 The first summary image extraction unit includes:
An inter-image change amount calculation unit that calculates an inter-image change amount between other intra-body-cavity images that are close in time series order for each in-vivo image;
A scene change detection unit that detects a body cavity image in which a scene change has occurred from the series of body cavity images based on the amount of change between images;
The image processing apparatus according to claim 1, further comprising: extracting an in-vivo image detected by the scene change detection unit as the first summary in-vivo image.
前記第1の要約体腔内画像毎に、同一の類似画像出現区間に属する他の全ての第1の要約体腔内画像との間で要約画像間変化量を算出する要約画像間変化量算出部と、
前記要約画像間変化量をもとに、前記第1の要約体腔内画像の類似度を算出する類似度算出部と、
を有し、前記類似度をもとに、前記第1の要約体腔内画像の中から前記第2の要約体腔内画像を抽出することを特徴とする請求項1に記載の画像処理装置。 The second summary image extraction unit includes:
An inter-summary image change amount calculation unit that calculates an inter-summary image change amount with respect to each of the other first summary body cavity images belonging to the same similar image appearance section for each of the first summary body cavity images; ,
Based on the amount of change between the summary images, a similarity calculating unit that calculates the similarity of the first summary body cavity image;
The image processing apparatus according to claim 1, further comprising: extracting the second summary body cavity image from the first summary body cavity image based on the similarity.
前記一連の体腔内画像の時系列区間内に、類似する体腔内画像が出現する類似画像出現区間を設定する区間設定工程と、
前記一連の体腔内画像を構成する各体腔内画像のシーン変化をもとに、前記一連の体腔内画像の中から第1の要約体腔内画像を抽出する第1の要約画像抽出工程と、
同一の類似画像出現区間に属する前記第1の要約体腔内画像間の類似度をもとに、第2の要約体腔内画像を抽出する第2の要約画像抽出工程と、
を含むことを特徴とする画像処理方法。 An image processing method for extracting a summary body cavity image from a series of body cavity images obtained by continuously imaging the body cavity,
A section setting step for setting a similar image appearance section in which a similar in-vivo image appears in the time-series section of the series of in-vivo images;
A first summary image extracting step of extracting a first summary body cavity image from the series of body cavity images based on a scene change of each body cavity image constituting the series of body cavity images;
A second summary image extraction step of extracting a second summary body cavity image based on the similarity between the first summary body cavity images belonging to the same similar image appearance section;
An image processing method comprising:
前記一連の体腔内画像の時系列区間内に、類似する体腔内画像が出現する類似画像出現区間を設定する区間設定ステップと、
前記一連の体腔内画像を構成する各体腔内画像のシーン変化をもとに、前記一連の体腔内画像の中から第1の要約体腔内画像を抽出する第1の要約画像抽出ステップと、
同一の類似画像出現区間に属する前記第1の要約体腔内画像間の類似度をもとに、第2の要約体腔内画像を抽出する第2の要約画像抽出ステップと、
を前記コンピュータに実行させることを特徴とする画像処理プログラム。 An image processing program for causing a computer to extract a summary body cavity image from a series of body cavity images obtained by continuously imaging the body cavity,
A section setting step for setting a similar image appearance section in which a similar in-vivo image appears in the time-series section of the series of in-vivo images;
A first summary image extraction step for extracting a first summary body cavity image from the series of body cavity images based on a scene change of each body cavity image constituting the series of body cavity images;
A second summary image extraction step of extracting a second summary body cavity image based on the similarity between the first summary body cavity images belonging to the same similar image appearance section;
An image processing program for causing the computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009001135A JP2010158308A (en) | 2009-01-06 | 2009-01-06 | Image processing apparatus, image processing method and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009001135A JP2010158308A (en) | 2009-01-06 | 2009-01-06 | Image processing apparatus, image processing method and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010158308A true JP2010158308A (en) | 2010-07-22 |
Family
ID=42575941
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009001135A Withdrawn JP2010158308A (en) | 2009-01-06 | 2009-01-06 | Image processing apparatus, image processing method and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010158308A (en) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012050600A (en) * | 2010-08-31 | 2012-03-15 | Fujifilm Corp | Electronic endoscope system |
WO2012042986A1 (en) * | 2010-09-29 | 2012-04-05 | オリンパスメディカルシステムズ株式会社 | Information processing device and capsule endoscope system |
WO2013133368A1 (en) * | 2012-03-07 | 2013-09-12 | オリンパス株式会社 | Image processing device, program, and image processing method |
WO2013133370A1 (en) * | 2012-03-08 | 2013-09-12 | オリンパス株式会社 | Image processing device, program, and image processing method |
JP2013183912A (en) * | 2012-03-08 | 2013-09-19 | Olympus Corp | Image summarization device and program |
JP2013183874A (en) * | 2012-03-07 | 2013-09-19 | Olympus Corp | Image processing device, program, and image processing method |
WO2013157354A1 (en) * | 2012-04-18 | 2013-10-24 | オリンパス株式会社 | Image processing device, program, and image processing method |
JP2013222382A (en) * | 2012-04-18 | 2013-10-28 | Olympus Corp | Image processing apparatus, program, and image processing method |
JP2013222383A (en) * | 2012-04-18 | 2013-10-28 | Olympus Corp | Image processing apparatus, program, and image processing method |
JP2013240361A (en) * | 2012-05-17 | 2013-12-05 | Olympus Corp | Image processing apparatus, program, and image processing method |
JP2013246454A (en) * | 2012-05-23 | 2013-12-09 | Olympus Corp | Image processing device, program and image processing method |
WO2014050638A1 (en) * | 2012-09-27 | 2014-04-03 | オリンパス株式会社 | Image processing device, program, and image processing method |
WO2014050637A1 (en) * | 2012-09-27 | 2014-04-03 | オリンパス株式会社 | Image processing device, program, and image processing method |
WO2014103903A1 (en) * | 2012-12-28 | 2014-07-03 | オリンパス株式会社 | Image processing device, image processing method, and program |
WO2015015869A1 (en) * | 2013-08-02 | 2015-02-05 | オリンパス株式会社 | Image processing device, image processing method, and program |
WO2015141302A1 (en) * | 2014-03-17 | 2015-09-24 | オリンパス株式会社 | Image processing device, image processing method, and image processing program |
WO2019187206A1 (en) * | 2018-03-27 | 2019-10-03 | オリンパス株式会社 | Image processing device, capsule-type endoscope system, operation method of image processing device, and operation program of image processing device |
-
2009
- 2009-01-06 JP JP2009001135A patent/JP2010158308A/en not_active Withdrawn
Cited By (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012050600A (en) * | 2010-08-31 | 2012-03-15 | Fujifilm Corp | Electronic endoscope system |
WO2012042986A1 (en) * | 2010-09-29 | 2012-04-05 | オリンパスメディカルシステムズ株式会社 | Information processing device and capsule endoscope system |
US8854444B2 (en) | 2010-09-29 | 2014-10-07 | Olympus Medical Systems Corp. | Information processing apparatus and capsule endoscope system |
JP2013183874A (en) * | 2012-03-07 | 2013-09-19 | Olympus Corp | Image processing device, program, and image processing method |
WO2013133368A1 (en) * | 2012-03-07 | 2013-09-12 | オリンパス株式会社 | Image processing device, program, and image processing method |
US9576362B2 (en) | 2012-03-07 | 2017-02-21 | Olympus Corporation | Image processing device, information storage device, and processing method to acquire a summary image sequence |
CN106859578A (en) * | 2012-03-08 | 2017-06-20 | 奥林巴斯株式会社 | Image processing apparatus and image processing method |
US9547794B2 (en) | 2012-03-08 | 2017-01-17 | Olympus Corporation | Image processing device, information storage device, and image processing method |
CN104203065A (en) * | 2012-03-08 | 2014-12-10 | 奥林巴斯株式会社 | Image processing device, program, and image processing method |
JP2013183912A (en) * | 2012-03-08 | 2013-09-19 | Olympus Corp | Image summarization device and program |
WO2013133370A1 (en) * | 2012-03-08 | 2013-09-12 | オリンパス株式会社 | Image processing device, program, and image processing method |
CN104203065B (en) * | 2012-03-08 | 2017-04-12 | 奥林巴斯株式会社 | Image processing device and image processing method |
US9672619B2 (en) | 2012-03-08 | 2017-06-06 | Olympus Corporation | Image processing device, information storage device, and image processing method |
JP2013222383A (en) * | 2012-04-18 | 2013-10-28 | Olympus Corp | Image processing apparatus, program, and image processing method |
US9740939B2 (en) | 2012-04-18 | 2017-08-22 | Olympus Corporation | Image processing device, information storage device, and image processing method |
US10037468B2 (en) | 2012-04-18 | 2018-07-31 | Olympus Corporation | Image processing device, information storage device, and image processing method |
JP2013222382A (en) * | 2012-04-18 | 2013-10-28 | Olympus Corp | Image processing apparatus, program, and image processing method |
WO2013157354A1 (en) * | 2012-04-18 | 2013-10-24 | オリンパス株式会社 | Image processing device, program, and image processing method |
CN104244801A (en) * | 2012-04-18 | 2014-12-24 | 奥林巴斯株式会社 | Image processing device, program, and image processing method |
JP2013240361A (en) * | 2012-05-17 | 2013-12-05 | Olympus Corp | Image processing apparatus, program, and image processing method |
JP2013246454A (en) * | 2012-05-23 | 2013-12-09 | Olympus Corp | Image processing device, program and image processing method |
US9652835B2 (en) | 2012-09-27 | 2017-05-16 | Olympus Corporation | Image processing device, information storage device, and image processing method |
US20150199800A1 (en) * | 2012-09-27 | 2015-07-16 | Olympus Corporation | Image processing device, information storage device, and image processing method |
WO2014050638A1 (en) * | 2012-09-27 | 2014-04-03 | オリンパス株式会社 | Image processing device, program, and image processing method |
WO2014050637A1 (en) * | 2012-09-27 | 2014-04-03 | オリンパス株式会社 | Image processing device, program, and image processing method |
US9684849B2 (en) | 2012-09-27 | 2017-06-20 | Olympus Corporation | Image processing device, information storage device, and image processing method |
JP2014071470A (en) * | 2012-09-27 | 2014-04-21 | Olympus Corp | Image processor, program and image processing method |
EP2902961A4 (en) * | 2012-09-27 | 2016-09-21 | Olympus Corp | Image processing device, program, and image processing method |
JP2014079562A (en) * | 2012-09-27 | 2014-05-08 | Olympus Corp | Image processing apparatus, program and image processing method |
US9349159B2 (en) * | 2012-12-28 | 2016-05-24 | Olympus Corporation | Image processing device, image processing method, and information storage device |
JP2014128390A (en) * | 2012-12-28 | 2014-07-10 | Olympus Corp | Image processor, image processing method and program |
WO2014103903A1 (en) * | 2012-12-28 | 2014-07-03 | オリンパス株式会社 | Image processing device, image processing method, and program |
US20150228056A1 (en) * | 2012-12-28 | 2015-08-13 | Olympus Corporation | Image processing device, image processing method, and information storage device |
WO2015015869A1 (en) * | 2013-08-02 | 2015-02-05 | オリンパス株式会社 | Image processing device, image processing method, and program |
JP2015032127A (en) * | 2013-08-02 | 2015-02-16 | オリンパス株式会社 | Image processing device, image processing method and program |
CN105407787A (en) * | 2013-08-02 | 2016-03-16 | 奥林巴斯株式会社 | Image processing device, image processing method, and program |
US9898664B2 (en) | 2013-08-02 | 2018-02-20 | Olympus Corporation | Image processing device, image processing method, and information storage device |
CN106132266A (en) * | 2014-03-17 | 2016-11-16 | 奥林巴斯株式会社 | Image processing apparatus, image processing method and image processing program |
WO2015141302A1 (en) * | 2014-03-17 | 2015-09-24 | オリンパス株式会社 | Image processing device, image processing method, and image processing program |
US9959618B2 (en) | 2014-03-17 | 2018-05-01 | Olympus Corporation | Image processing apparatus, image processing method, and computer-readable recording medium |
WO2019187206A1 (en) * | 2018-03-27 | 2019-10-03 | オリンパス株式会社 | Image processing device, capsule-type endoscope system, operation method of image processing device, and operation program of image processing device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010158308A (en) | Image processing apparatus, image processing method and image processing program | |
US8830307B2 (en) | Image display apparatus | |
US9186051B2 (en) | Image processing device, computer-readable recording device, and image processing method | |
JP5147308B2 (en) | Image extraction apparatus and image extraction program | |
JP5374135B2 (en) | Image processing apparatus, method of operating image processing apparatus, and image processing program | |
US9060673B2 (en) | System and method for displaying portions of in-vivo images | |
US8830308B2 (en) | Image management apparatus, image management method and computer-readable recording medium associated with medical images | |
JP5457688B2 (en) | Image processing apparatus, image processing program, and image processing method | |
JP5005032B2 (en) | Image display device and image display program | |
JP6741759B2 (en) | Image processing apparatus, image processing apparatus operating method, and image processing apparatus operating program | |
US8457376B2 (en) | Image processing apparatus, image processing method, and computer-readable recording medium | |
JP5676063B1 (en) | Medical device and method of operating medical device | |
US8768024B1 (en) | System and method for real time detection of villi texture in an image stream of the gastrointestinal tract | |
JP2011024628A (en) | Image processor, image processing program, and image processing method | |
JP5004736B2 (en) | Image processing apparatus and image processing program | |
JP5231160B2 (en) | Image display device, image display method, and image display program | |
JP4464894B2 (en) | Image display device | |
JP5684300B2 (en) | Image display device, image display method, and image display program | |
WO2023042273A1 (en) | Image processing device, image processing method, and storage medium | |
JP5226618B2 (en) | Image extraction apparatus, image extraction method, and image extraction program | |
JP7100505B2 (en) | Image processing device, operation method of image processing device, and operation program of image processing device | |
KR101626802B1 (en) | Lesion Tracking and Monitoring System for Endoscopy | |
Kage et al. | A comparison of basic deinterlacing approaches for a computer assisted diagnosis approach of videoscope images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20120306 |