JP2013085593A - Medical image display apparatus - Google Patents
Medical image display apparatus Download PDFInfo
- Publication number
- JP2013085593A JP2013085593A JP2011226485A JP2011226485A JP2013085593A JP 2013085593 A JP2013085593 A JP 2013085593A JP 2011226485 A JP2011226485 A JP 2011226485A JP 2011226485 A JP2011226485 A JP 2011226485A JP 2013085593 A JP2013085593 A JP 2013085593A
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- organ
- imaging
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Endoscopes (AREA)
Abstract
Description
本発明の実施形態は、医用画像表示装置に関し、例えば、カプセル内視鏡により撮像された医用画像を表示する医用画像表示装置に関する。 Embodiments described herein relate generally to a medical image display device, for example, a medical image display device that displays a medical image captured by a capsule endoscope.
近年、管状の器官の一例である消化管を対象としたカプセル内視鏡が実用化されている。このカプセル内視鏡は、主に、体腔内の画像(医用画像)を撮像するCCDカメラなどの撮像部や体腔内部を明るくするLEDなどの照明部、撮影した画像情報を体外の受信装置に送るための送信部、これらの各部に電力を供給するボタン電池などの電源部を備えている。 In recent years, capsule endoscopes targeting the digestive tract, which is an example of a tubular organ, have been put into practical use. This capsule endoscope mainly sends an imaging unit such as a CCD camera that captures an image (medical image) in a body cavity, an illumination unit such as an LED that brightens the inside of the body cavity, and captured image information to a receiving device outside the body. And a power supply unit such as a button battery for supplying power to these units.
このようなカプセル内視境は、被験者に経口投与されてから各消化管の主に蠕動運動により肛門から自然に排出されるまで、約8時間から10時間の間に数枚/秒の体腔内画像を撮影する。例えば、1秒間に2枚の画像を8時間撮影したとすると、5万7千600枚もの画像が一回の検査で撮像されることになる。 Such intracapsular visual field is an intracavity of several pieces / second between about 8 hours and 10 hours from the oral administration to a subject until it is naturally discharged from the anus mainly by peristaltic movement of each digestive tract. Take a picture. For example, assuming that two images are taken for 8 hours per second, as many as 57,000 600 images are taken in one inspection.
このように一回の検査で取得される画像枚数は大量であり、今後さらに増える傾向にある。このため、読影者の負担は今以上に大きくなることから、読影を支援する表示装置及びソフトの開発が行われている。例えば、読影の操作性及び効率の向上を目的に、時系列で撮像した内視鏡画像から、内視鏡の位置に基づいた診断画像を生成する方法、あるいは、内視鏡画像を領域分割して変形し、その変形画像を二次元や三次元のモデル上に貼り付けて診断画像を生成する方法が提案されている。 Thus, the number of images acquired in one inspection is large and tends to increase further in the future. For this reason, since the burden on the radiogram interpreter becomes larger than it is now, the development of display devices and software that support radiogram interpretation has been carried out. For example, for the purpose of improving the operability and efficiency of interpretation, a method of generating a diagnostic image based on the position of the endoscope from an endoscope image captured in time series, or the endoscope image is divided into regions There has been proposed a method of generating a diagnostic image by deforming and pasting the deformed image on a two-dimensional or three-dimensional model.
しかしながら、前述のように、時系列の内視鏡位置に基づいて診断画像を生成することや内視鏡画像を領域分割して変形し、診断画像を生成することは、診断に使用する画像枚数を減らす効果をもたらすが、一方で、読影者が診断画像内の特徴領域や特徴量を確認することを難しくする。また、診断画像の生成に使われた画像や指定した特徴以外の病理所見の漏れがないかを確認することが不可能となる。このため、読影に要する読影時間が長くなってしまい、さらに、読影者の労力的な負担も増加してしまう。 However, as described above, generating a diagnostic image based on a time-series endoscope position or generating a diagnostic image by dividing an endoscope image into regions and generating a diagnostic image is the number of images used for diagnosis. On the other hand, it makes it difficult for the radiogram reader to confirm the feature region and feature amount in the diagnostic image. In addition, it is impossible to confirm whether there is any omission of pathological findings other than the image used for generating the diagnostic image and the specified feature. For this reason, the interpretation time required for interpretation becomes long, and the labor burden on the interpreter also increases.
本発明が解決しようとする課題は、読影に要する読影時間及び読影者の労力的な負担を減らすことができる医用画像表示装置を提供することである。 The problem to be solved by the present invention is to provide a medical image display apparatus capable of reducing the interpretation time required for interpretation and the labor burden on the interpreter.
実施形態に係る医用画像表示装置は、管状の器官内を移動して時系列で撮像する器官内撮像装置により撮像された複数の画像と、画像ごとの器官内撮像装置の撮像位置及び撮像姿勢を取得する取得部と、器官をその延伸方向に沿って複数の領域に分割する領域分割部と、画像ごとに器官内撮像装置の撮像位置及び撮像姿勢を用いて器官に対する画像の位置を決定し、複数の領域に対して複数の画像を分類する画像分類部と、画像ごとに画像の特徴量を抽出し、領域ごとに画像の特徴量に応じて領域内の各画像の優先度を決定する優先度決定部と、領域ごとに領域内の各画像の優先度に応じて領域内の複数の画像を並べた表示画像を生成する画像生成部と、表示画像を表示する表示部とを備える。 The medical image display device according to the embodiment includes a plurality of images captured by an intra-organ imaging device that moves in a tubular organ and images in time series, and an imaging position and an imaging posture of the intra-organ imaging device for each image. Determining the position of the image with respect to the organ using the acquisition unit, the region dividing unit that divides the organ into a plurality of regions along the extending direction, and the imaging position and imaging posture of the intra-organ imaging device for each image; An image classification unit that classifies a plurality of images for a plurality of regions, and extracts image feature amounts for each image, and priorities that determine the priority of each image in the region according to the image feature amounts for each region A degree determination unit, an image generation unit that generates a display image in which a plurality of images in the region are arranged according to the priority of each image in the region, and a display unit that displays the display image.
本発明の実施形態について図面を参照して説明する。 Embodiments of the present invention will be described with reference to the drawings.
図1に示すように、本実施形態に係るカプセル内視鏡検査システム1は、管状の器官内を撮像する器官内撮像装置の一例であるカプセル内視鏡2と、そのカプセル内視鏡2からのデータを受信する受信装置3と、その受信装置3のデータに基づいて器官内の医用画像を表示する医用画像表示装置4とを備えている。 As shown in FIG. 1, a capsule endoscopy system 1 according to the present embodiment includes a capsule endoscope 2 that is an example of an intra-organ imaging device that images a tubular organ, and the capsule endoscope 2. Receiving device 3 that receives the data of the above-mentioned data, and a medical image display device 4 that displays a medical image in the organ based on the data of the receiving device 3.
カプセル内視鏡2は、管状の器官(例えば、消化管)内を照らす照明部2aと、管状の器官内を撮像する撮像部2bと、カプセル内視鏡2の撮像位置を検出する位置検出部2cと、その撮像位置でのカプセル内視鏡2の撮像姿勢を検出する姿勢検出部2dと、撮像した画像や撮像位置、撮像姿勢などの情報を体外の受信装置3に送信する送信部2eと、それら各部に電力を供給する電源部2fと、各部を制御する制御部2gとを備えている。これらの各部はカプセル筺体内に封入されている。 The capsule endoscope 2 includes an illumination unit 2a that illuminates the inside of a tubular organ (for example, the digestive tract), an imaging unit 2b that images the inside of the tubular organ, and a position detection unit that detects an imaging position of the capsule endoscope 2 2c, a posture detection unit 2d that detects the imaging posture of the capsule endoscope 2 at the imaging position, and a transmission unit 2e that transmits information such as the captured image, the imaging position, and the imaging posture to the reception device 3 outside the body. The power supply unit 2f that supplies power to each unit and the control unit 2g that controls each unit are provided. Each of these parts is enclosed in a capsule housing.
照明部2aは、撮像部2bによる撮像が可能に管状の器官内に光を照射する照明装置である。この照明部2aとしては、例えばLED(発光ダイオード)などが用いられる。なお、カプセル筺体は、内蔵する照明部2aにより器官の内壁に光照射を可能に、例えば先端部分を透明にして形成されている。 The illuminating unit 2a is an illuminating device that irradiates light into a tubular organ that can be imaged by the imaging unit 2b. As this illumination part 2a, LED (light emitting diode) etc. are used, for example. The capsule housing is formed with a transparent tip portion, for example, so that the internal wall of the organ can be irradiated with light by the built-in illumination unit 2a.
撮像部2bは、一定の時間間隔(一定の周期)の時系列で撮像を行う撮像装置である。この撮像部2bとしては、例えばCCD(電荷結合素子)カメラなどが用いられる。なお、カプセル筺体は、前述の照明部2aの光照射に加え、内蔵する撮像部2bにより器官の内壁を撮像可能に、例えば、前述のように先端部分を透明にして形成されている。 The imaging unit 2b is an imaging device that performs imaging in a time series with a constant time interval (a constant cycle). For example, a CCD (charge coupled device) camera or the like is used as the imaging unit 2b. In addition to the light irradiation of the illuminating unit 2a described above, the capsule housing is formed so that the inner wall of the organ can be imaged by the built-in imaging unit 2b.
位置検出部2cは、撮像部2bの撮像と同期してカプセル内視鏡2の撮像位置を検出する検出装置である。この撮像位置は、カプセル内視鏡2の空間的な位置であり、X軸、Y軸及びZ軸により決定される。この空間的な位置検出に関しては、例えば、電磁波の強弱を用いた位置検出手段、あるいは、カプセル内視鏡2に内蔵された小型のGPS(全地球測位システム)を用いた位置検出手段など、様々な位置検出手段を用いることが可能である。 The position detection unit 2c is a detection device that detects the imaging position of the capsule endoscope 2 in synchronization with the imaging of the imaging unit 2b. This imaging position is a spatial position of the capsule endoscope 2 and is determined by the X axis, the Y axis, and the Z axis. Regarding this spatial position detection, for example, there are various position detection means using the strength of electromagnetic waves, or position detection means using a small GPS (global positioning system) built in the capsule endoscope 2. It is possible to use a simple position detecting means.
姿勢検出部2dは、撮像部2bの撮像と同期して前述の撮像位置と共に、その撮像位置でのカプセル内視鏡2の撮像姿勢を検出する検出装置である。この姿勢検出部2dとしては、例えば、加速度センサやジャイロセンサなどを用いた姿勢検出部など、様々な姿勢検出部を用いることが可能である。 The posture detection unit 2d is a detection device that detects the imaging posture of the capsule endoscope 2 at the imaging position together with the above-described imaging position in synchronization with the imaging of the imaging unit 2b. As the posture detection unit 2d, various posture detection units such as a posture detection unit using an acceleration sensor, a gyro sensor, or the like can be used.
送信部2eは、撮像部2bにより撮像された画像と、位置検出部2cにより検出されたカプセル内視鏡2の撮像位置及び姿勢検出部2dにより検出されたカプセル内視鏡2の撮像姿勢とを含む情報を無線で受信装置3に送信する送信装置である。この送信部2eとしては、例えば送信アンテナなどが用いられる。 The transmission unit 2e includes the image captured by the imaging unit 2b, the imaging position of the capsule endoscope 2 detected by the position detection unit 2c, and the imaging posture of the capsule endoscope 2 detected by the posture detection unit 2d. This is a transmission device that wirelessly transmits the included information to the reception device 3. For example, a transmission antenna is used as the transmission unit 2e.
電源部2fは、各部に電力を供給する電力供給装置である。この電源部2fとしては、例えばボタン型の電池などが用いられる。なお、電池は、8時間から10時間程度の検査時間に対応するため、必要とする容量に応じて複数個設けられる。 The power supply unit 2f is a power supply device that supplies power to each unit. For example, a button-type battery is used as the power supply unit 2f. Note that a plurality of batteries are provided according to the required capacity in order to cope with an inspection time of about 8 to 10 hours.
制御部2gは、照明部2aにより器官内を照射しながら撮像部2bにより一定の時間間隔(一定の周期)で器官の内壁を撮像する制御を行う。さらに、制御部2gは、撮像部2bにより撮像した画像、位置検出部2cにより検出した撮像位置、さらに、姿勢検出部2dにより検出した撮像姿勢を含む情報を順次、送信部2eにより受信装置3に送信する制御を行う。 The control unit 2g performs control of imaging the inner wall of the organ at a constant time interval (a constant cycle) by the imaging unit 2b while irradiating the inside of the organ by the illumination unit 2a. Further, the control unit 2g sequentially transmits information including the image captured by the imaging unit 2b, the imaging position detected by the position detection unit 2c, and the imaging posture detected by the posture detection unit 2d to the reception device 3 by the transmission unit 2e. Control to send.
このカプセル内視鏡2が患者によって飲み込まれると、カプセル内視鏡2は管状の器官内を蠕動運動により進みながら、一定の時間間隔(一定の周期)で撮像を行う。この撮像では、電源部2fからの電力により照射光が照明部2aから器官の内壁に照射され、その内壁により反射された反射光は撮像部2bにより光電変換され、画像データが生成される。このとき、位置検出部2cでは、画像データの生成と同期してカプセル内視鏡2の撮像位置が検出され、同様に、姿勢検出部2dでも、画像データの生成と同期してカプセル内視鏡2の撮像姿勢が検出される。これらの画像データ、カプセル内視鏡2の撮像位置及び撮像姿勢が送信部2eにより無線通信で患者の体外にある受信装置3に送信される。画像データの生成、位置検出部2cによる撮像位置の検出、姿勢検出部2dによる撮像姿勢の検出及びデータの送信は、制御部2gによる制御の下、一定の時間間隔(例えば、数フレーム/秒)で行われる。 When the capsule endoscope 2 is swallowed by a patient, the capsule endoscope 2 performs imaging at a constant time interval (a constant cycle) while moving in a tubular organ by a peristaltic motion. In this imaging, irradiation light is irradiated from the illumination unit 2a to the inner wall of the organ by the power from the power supply unit 2f, and the reflected light reflected by the inner wall is photoelectrically converted by the imaging unit 2b to generate image data. At this time, the position detection unit 2c detects the imaging position of the capsule endoscope 2 in synchronization with the generation of the image data. Similarly, the posture detection unit 2d also detects the capsule endoscope in synchronization with the generation of the image data. 2 imaging postures are detected. The image data, the imaging position and the imaging posture of the capsule endoscope 2 are transmitted to the receiving device 3 outside the patient's body by wireless communication by the transmission unit 2e. The generation of image data, the detection of the imaging position by the position detection unit 2c, the detection of the imaging posture by the posture detection unit 2d, and the transmission of data are controlled at a constant time interval (for example, several frames / second) under the control of the control unit 2g. Done in
受信装置3は、カプセル内視鏡2から送信された情報を無線で受信する受信アンテナなどの受信部3aと、その受信した情報を記憶するフラッシュメモリなどの記憶媒体3bとを備えている。この受信装置3では、前述のカプセル内視鏡2から送信された情報、すなわち画像データ、カプセル内視鏡2の撮像位置及び撮像姿勢を含む情報が受信され、順次、記憶媒体3bに格納される。なお、記憶媒体3bは着脱可能であり、この記憶媒体3bが医用画像表示装置4に装着され、記憶媒体3b内の全情報が医用画像表示装置4に入力されることになる。 The receiving device 3 includes a receiving unit 3a such as a receiving antenna that wirelessly receives information transmitted from the capsule endoscope 2, and a storage medium 3b such as a flash memory that stores the received information. The receiving device 3 receives information transmitted from the capsule endoscope 2, that is, image data, information including the imaging position and the imaging posture of the capsule endoscope 2, and sequentially stores them in the storage medium 3b. . The storage medium 3b is detachable. The storage medium 3b is attached to the medical image display device 4, and all the information in the storage medium 3b is input to the medical image display device 4.
医用画像表示装置4は、各部を集中的に制御する制御部4aと、各種プログラムや各種データなどを記憶する記憶部4bと、その記憶部4bから各種データを取得する取得部4cと、各種処理を行う処理部4dと、各種画像を表示する表示部4eと、医師などのユーザ(利用者)からの入力操作を受け付ける操作部4fとを備えている。この医用画像表示装置4はワークステーションとして機能する。 The medical image display apparatus 4 includes a control unit 4a that centrally controls each unit, a storage unit 4b that stores various programs and various data, an acquisition unit 4c that acquires various data from the storage unit 4b, and various processes. 4d, a display unit 4e for displaying various images, and an operation unit 4f for receiving an input operation from a user (user) such as a doctor. This medical image display device 4 functions as a workstation.
制御部4aは、記憶部4bに記憶された各種プログラムや各種データなどに基づいて各部を制御する。さらに、制御部4aは、記憶部4bに記憶された各種プログラムや各種データに基づいて一連のデータ処理などを実行する。 The control unit 4a controls each unit based on various programs and various data stored in the storage unit 4b. Further, the control unit 4a executes a series of data processing based on various programs and various data stored in the storage unit 4b.
記憶部4bは、制御部4aのワークエリアとして機能するメモリに加え、各種プログラム及び各種データを記憶するメモリなどを有している。これらのメモリとしては、例えばROMやRAM、磁気ディスク装置(HDD)、フラッシュメモリ(半導体ディスク装置)などが用いられる。この記憶部4bには、受信装置3の記憶媒体3b内の全情報、すなわち全画像分の画像データ、カプセル内視鏡2の撮像位置及び撮像姿勢を含む情報が記憶される。 The storage unit 4b includes a memory for storing various programs and various data in addition to a memory functioning as a work area for the control unit 4a. As these memories, for example, a ROM, a RAM, a magnetic disk device (HDD), a flash memory (semiconductor disk device), or the like is used. The storage unit 4b stores all information in the storage medium 3b of the receiving device 3, that is, image data for all images, information including the imaging position and the imaging posture of the capsule endoscope 2.
取得部4cは、記憶部4bから画像ごとに、画像データ、カプセル内視鏡2の撮像位置及び撮像姿勢などの情報を取得し、処理部4dに送信する。なお、情報の取得は、例えば、医師などのユーザが操作部4fを入力操作して、処理部4dによる処理の実行を指示することに応じて行われる。 The acquisition unit 4c acquires information such as image data and the imaging position and imaging posture of the capsule endoscope 2 for each image from the storage unit 4b, and transmits the information to the processing unit 4d. The acquisition of information is performed in response to, for example, a user such as a doctor performing an input operation on the operation unit 4f and instructing the processing unit 4d to execute the process.
処理部4dは、カプセル内視鏡2の軌跡及び撮像方向を算出する撮像軌跡算出部11と、管状の器官に対する画像の位置を算出する画像位置算出部12と、器官を延伸方向に沿って複数の領域に分割する領域分割部13と、分割した各領域に対して複数の画像(内視鏡画像)を分類する画像分類部14と、領域ごとに画像の優先度を決定する優先度決定部15と、ヒストグラム画像や合成画像(診断画像)などの各種画像を生成する画像生成部16とを備えている。 The processing unit 4d includes an imaging trajectory calculation unit 11 that calculates the trajectory and imaging direction of the capsule endoscope 2, an image position calculation unit 12 that calculates the position of the image with respect to the tubular organ, and a plurality of organs along the extending direction. A region dividing unit 13 that divides the image into regions, an image classifying unit 14 that classifies a plurality of images (endoscopic images) for each divided region, and a priority determining unit that determines image priority for each region 15 and an image generation unit 16 that generates various images such as a histogram image and a composite image (diagnostic image).
撮像軌跡算出部11は、取得部4cから画像ごとのカプセル内視鏡2の撮像位置及び撮像姿勢に関する情報を受信し、それらの情報に応じてカプセル内視鏡2の軌跡及び撮像方向を算出し、画像位置算出部12に出力する。なお、撮像位置及び撮像姿勢に関する情報は、撮像された画像枚数に相当する時系列の位置データである。 The imaging trajectory calculation unit 11 receives information about the imaging position and orientation of the capsule endoscope 2 for each image from the acquisition unit 4c, and calculates the trajectory and imaging direction of the capsule endoscope 2 according to the information. And output to the image position calculation unit 12. Note that the information regarding the imaging position and the imaging orientation is time-series position data corresponding to the number of captured images.
画像位置算出部12は、撮像軌跡算出部11から入力されたカプセル内視鏡2の軌跡及び撮像方向に基づいて管状の器官(例えば、消化管など)に対する画像の位置を算出する。例えば、画像位置算出部12は、撮像軌跡算出部11から入力されたカプセル内視鏡2の軌跡に基づいて、その軌跡を芯線として任意の管径を持つ仮想器官である器官モデル(例えば、消化管モデルなど)を作成し、カプセル内視鏡2の撮像位置及び撮像方向から器官の内壁上の撮像領域を求め、その撮像領域の位置からその器官モデルに対する画像の位置を特定する。 The image position calculation unit 12 calculates the position of the image with respect to a tubular organ (for example, the digestive tract) based on the trajectory and the imaging direction of the capsule endoscope 2 input from the imaging trajectory calculation unit 11. For example, the image position calculation unit 12 is based on the trajectory of the capsule endoscope 2 input from the imaging trajectory calculation unit 11 and is an organ model (for example, digestion) that is a virtual organ having an arbitrary tube diameter with the trajectory serving as a core line. A tube model or the like) is created, an imaging area on the inner wall of the organ is obtained from the imaging position and imaging direction of the capsule endoscope 2, and the position of the image with respect to the organ model is specified from the position of the imaging area.
領域分割部13は、画像位置算出部12により作成された器官モデルをその延伸方向、すなわちカプセル内視鏡2の軌跡に沿って任意の距離(例えば、所定間隔あるいは所望の間隔)で複数の領域に分割する。この領域分割では、撮像軌跡算出部11により算出されたカプセル内視鏡2の軌跡を用いて、器官モデルの延伸方向の位置を基準に器官モデルを分割する。 The region dividing unit 13 includes a plurality of regions at an arbitrary distance (for example, a predetermined interval or a desired interval) along the extending direction of the organ model created by the image position calculating unit 12, that is, the trajectory of the capsule endoscope 2. Divide into In this region division, the organ model is divided on the basis of the position of the organ model in the extending direction using the locus of the capsule endoscope 2 calculated by the imaging locus calculation unit 11.
画像分類部14は、画像位置算出部12により得られた器官モデルに対する画像の位置情報を用いて、領域分割部13により分割された領域ごとに、その領域内に存在(該当)する画像を抽出し、その領域に属する画像群として分類する。なお、画像はその領域に一枚だけ存在する場合や存在しない場合もある。 The image classification unit 14 uses the position information of the image with respect to the organ model obtained by the image position calculation unit 12 to extract an image that exists (corresponds) in each region divided by the region division unit 13. Then, it is classified as an image group belonging to the area. Note that only one image may or may not exist in the area.
優先度決定部15は、ユーザによって指定された特徴に基づき、画像に対して特徴抽出を行い、その特徴量に応じて前述の領域ごとに画像群の個々(領域内の各画像)の優先度(例えば、画像を表示する優先度)、すなわち優先順位を決定する。例えば、体腔内部の出血の指標として用いられる赤色具合(色調:赤)が特徴として指定されると、各領域の画像は、特徴量である赤色具合が多い程、画像の優先度が高く設定される。なお、特徴量としては、色の具合(程度)以外にも、その色の具合(濃度)に加え、その色部分(色領域)の面積などを用いることも可能であり、さらに、それらの値をかけ合わせた数値(濃度×色領域)を用いることも可能である。 The priority determination unit 15 performs feature extraction on the image based on the feature designated by the user, and the priority of each image group (each image in the region) for each region described above according to the feature amount. (For example, priority for displaying an image), that is, a priority order is determined. For example, when the redness (color tone: red) used as an index of bleeding inside the body cavity is designated as a feature, the image priority of the image is set higher as the redness that is the feature amount is larger. The As the feature amount, in addition to the color condition (degree), in addition to the color condition (density), it is also possible to use the area of the color portion (color region), and the values thereof. It is also possible to use a numerical value obtained by multiplying (density × color region).
画像生成部16は、領域分割部13により分割された領域単位で、その領域に分類された複数の画像である画像群を、器官の進行方向の位置順もしくは撮像された時間順に並び替え、さらに、その領域ごとの画像群を各領域が並ぶ順番に並べ一覧画像を生成し、すなわち、器官の延伸方向の位置を横軸に、各領域に分類された画像群(もしくは枚数)を縦軸としてヒストグラム状に並べ、第1のヒストグラム画像を生成する。また、画像生成部16は、前述の並び替えを優先度の高い順にかえて前述同様に処理を行って一覧画像、すなわち、優先度に基づく第2のヒストグラム画像(表示画像)も生成する。さらに、画像生成部16は、ユーザによって指定された領域内の画像群を用いて、その領域内の任意方向の画像を合成し、診断画像となる合成画像を生成する。 The image generation unit 16 rearranges the image group, which is a plurality of images classified into the region, in the unit of region divided by the region division unit 13, in the order of the position of the organ in the traveling direction or in the order of the time taken. The image group for each area is arranged in the order in which each area is arranged to generate a list image. That is, the position of the organ in the extending direction is set on the horizontal axis, and the image group (or the number of sheets) classified into each area is set on the vertical axis. The first histogram image is generated by arranging in a histogram. In addition, the image generation unit 16 changes the above-described rearrangement in the order of high priority and performs the same processing as described above to generate a list image, that is, a second histogram image (display image) based on the priority. Further, the image generation unit 16 uses the image group in the region designated by the user to synthesize images in any direction within the region, and generates a composite image that becomes a diagnostic image.
なお、前述の処理部4dは、電気回路などのハードウエアで構成されても良く、あるいは、これらの機能を実行するプログラムなどのソフトウエアで構成されても良く、また、それらの両方の組合せにより構成されても良い。 Note that the processing unit 4d described above may be configured by hardware such as an electric circuit, or may be configured by software such as a program for executing these functions, or a combination of both. It may be configured.
表示部4eは、処理部4dから送信されたヒストグラム画像や合成画像、その他画像など、各種画像をカラー表示する表示装置である。この表示部4eとしては、例えば液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイなどが用いられる。 The display unit 4e is a display device that displays various images such as a histogram image, a composite image, and other images transmitted from the processing unit 4d in color. For example, a liquid crystal display or a CRT (Cathode Ray Tube) display is used as the display unit 4e.
操作部4fは、医師などのユーザにより入力操作され、画像表示や画像の切り替え、設定変更などの各種の入力操作を受け付ける入力部である。この操作部4fとしては、例えばマウスやキーボードなどの入力デバイスが用いられる。 The operation unit 4f is an input unit that is input by a user such as a doctor and receives various input operations such as image display, image switching, and setting change. As the operation unit 4f, for example, an input device such as a mouse or a keyboard is used.
次に、前述の医用画像表示装置4が行う画像表示処理について詳しく説明する。医師などのユーザが操作部4fを入力操作して画像表示処理の実行を指示すると、以下の処理が実行される。なお、ここでは、管状の器官の一例として消化管(例えば、腸管)に対する処理について説明する。 Next, image display processing performed by the medical image display device 4 described above will be described in detail. When a user such as a doctor performs an input operation on the operation unit 4f to instruct execution of an image display process, the following process is executed. Here, processing for the digestive tract (for example, intestinal tract) will be described as an example of a tubular organ.
図2に示すように、まず、取得部4cでは、記憶部4bからカプセル内視鏡2により撮像された撮像画像、そのカプセル内視鏡2の撮像位置及び撮像姿勢を読み込む(ステップS1)。 As shown in FIG. 2, the acquisition unit 4c first reads a captured image captured by the capsule endoscope 2 from the storage unit 4b, an imaging position and an imaging posture of the capsule endoscope 2 (step S1).
このステップS1では、カプセル内視鏡2により撮像された全画像が記憶部4bから読み込まれ、さらに、カプセル内視鏡2の撮像位置及び撮像姿勢も記憶部4bから全画像分読み込まれる。 In this step S1, all images captured by the capsule endoscope 2 are read from the storage unit 4b, and further, the imaging position and imaging posture of the capsule endoscope 2 are also read from the storage unit 4b for all the images.
ステップS1の処理後、処理部4dの撮像軌跡算出部11では、取得部4cにより読み込まれたカプセル内視鏡2の撮像位置及び撮像姿勢を用いて、カプセル内視鏡2の軌跡及び撮像方向を算出する(ステップS2)。 After the processing of step S1, the imaging trajectory calculation unit 11 of the processing unit 4d uses the imaging position and imaging orientation of the capsule endoscope 2 read by the acquisition unit 4c to determine the trajectory and imaging direction of the capsule endoscope 2. Calculate (step S2).
このステップS2では、図3に示すように、まず、取得部4cにより読み込まれたカプセル内視鏡2の撮像位置を時系列にたどり、カプセル内視鏡2の軌跡L1を算出し、さらに、取得部4cにより読み込まれたカプセル内視鏡2の撮像姿勢を用いて、そのカプセル内視鏡2の軌跡L1に沿った各撮像位置でカプセル内視鏡2が向いていた方向を撮像方向D1として算出する。 In step S2, as shown in FIG. 3, first, the imaging position of the capsule endoscope 2 read by the acquisition unit 4c is traced in time series, the locus L1 of the capsule endoscope 2 is calculated, and further acquired. Using the imaging posture of the capsule endoscope 2 read by the unit 4c, the direction in which the capsule endoscope 2 is oriented at each imaging position along the locus L1 of the capsule endoscope 2 is calculated as the imaging direction D1. To do.
図2に戻り、ステップS2の処理後、処理部4dの画像位置算出部12では、撮像軌跡算出部11から入力されたカプセル内視鏡2の軌跡L1及び撮像方向D1を用いて、消化管に対する画像の位置を算出する(ステップS3)。 Returning to FIG. 2, after the processing in step S <b> 2, the image position calculation unit 12 of the processing unit 4 d uses the locus L <b> 1 and the imaging direction D <b> 1 of the capsule endoscope 2 input from the imaging locus calculation unit 11. The position of the image is calculated (step S3).
このステップS3では、図4に示すように、まず、撮像軌跡算出部11で算出されたカプセル内視鏡2の軌跡L1を芯線(中心線)とし、任意の管径を持つ消化管モデルM1を作成する。次に、カプセル内視鏡2の撮像位置(画像を撮像したときの位置)とその撮像位置での撮像方向D1から消化管モデルM1の内壁上の撮像領域F1を求め、その撮像領域F1の位置に応じて、撮像された画像が消化管モデルM1上のどこに位置しているか推定し、消化管モデルM1と画像との位置を対応付けすることで、消化管に対する画像の位置を特定する。 In step S3, as shown in FIG. 4, first, a gastrointestinal tract model M1 having an arbitrary tube diameter is set with the locus L1 of the capsule endoscope 2 calculated by the imaging locus calculating unit 11 as a core line (center line). create. Next, the imaging region F1 on the inner wall of the digestive tract model M1 is obtained from the imaging position of the capsule endoscope 2 (position when the image is captured) and the imaging direction D1 at the imaging position, and the position of the imaging region F1 Accordingly, it is estimated where the captured image is located on the digestive tract model M1, and the position of the image with respect to the digestive tract is specified by associating the position of the digestive tract model M1 with the image.
前述の消化管モデルM1の生成では、消化管モデルM1の管径を算出するため、例えば消化管の太さ(年齢や体格に応じた平均的な太さ、あるいは、他の検査から得られた患者固有の太さ)などの情報が用いられる。この情報は予め記憶部4bに記憶されている。また、撮像領域F1の算出では、前述の消化管の太さなどの情報に加え、カプセル内視鏡2の視野角の情報も用いられる。この視野角の情報は前述の消化管の太さなどの情報と共に予め記憶部4bに記憶されている。例えば、撮像領域F1を算出する際には、前述の消化管の太さなどの情報を用いて撮像位置から消化管の内壁までの撮像方向D1に沿った距離(被写体距離)を算出し、その被写体距離と前述の視野角に基づいて、撮像視野、すなわち撮像領域F1を求める。 In the generation of the aforementioned digestive tract model M1, in order to calculate the diameter of the digestive tract model M1, for example, the thickness of the digestive tract (average thickness according to age and physique, or obtained from other examinations) Information such as patient specific thickness) is used. This information is stored in advance in the storage unit 4b. In addition, in the calculation of the imaging region F1, information on the viewing angle of the capsule endoscope 2 is used in addition to the information such as the thickness of the digestive tract described above. The information on the viewing angle is stored in advance in the storage unit 4b together with the information such as the thickness of the digestive tract described above. For example, when calculating the imaging region F1, the distance (subject distance) along the imaging direction D1 from the imaging position to the inner wall of the digestive tract is calculated using information such as the thickness of the digestive tract described above. Based on the subject distance and the aforementioned viewing angle, an imaging field, that is, an imaging area F1 is obtained.
ここで、前述の消化管モデルM1の作成において、カプセル内視鏡2が同じ位置で方向を変えて滞留し、軌跡L1が同じ場所で上下左右に移動する場合には、平均位置もしくは中心位置を芯線上の点として算出し直して用いても良い。また、消化管モデルM1の管径を算出する場合には、前述の消化管の太さ情報ではなく、同じ場所でカプセル内視鏡2が移動する場合の移動可能な上下及び左右の範囲で推測しても良い。また、撮像画像の位置算出においては、周辺の画像と画像内の形状などの特徴を用いて位置の補正を行っても良い。 Here, in the creation of the aforementioned digestive tract model M1, when the capsule endoscope 2 stays in the same position and changes its direction, and the locus L1 moves up and down and left and right at the same location, the average position or the center position is set. You may recalculate and use as a point on a core line. Also, when calculating the tube diameter of the digestive tract model M1, the estimation is based on the movable upper and lower and left and right ranges when the capsule endoscope 2 moves in the same place, instead of the thickness information of the aforementioned digestive tract. You may do it. In calculating the position of the captured image, the position may be corrected using features such as the surrounding image and the shape in the image.
図2に戻り、ステップS3の処理後、処理部4dの領域分割部13では、画像位置算出部12により作成された消化管モデルM1を延伸方向に沿って任意の距離で領域分割する(ステップS4)。 Returning to FIG. 2, after the processing in step S3, the region dividing unit 13 of the processing unit 4d divides the digestive tract model M1 created by the image position calculating unit 12 into regions at an arbitrary distance along the extending direction (step S4). ).
このステップS4では、図5に示すように、作成された消化管モデルM1をその延伸方向、すなわちカプセル内視鏡2の軌跡L1に沿って任意の距離、例えば、所定の等間隔で領域分割する。これにより、消化管モデルM1は複数の領域An(nは自然数である)に分割されることになる。なお、この領域分割は、ユーザにより分割位置(例えば、分割間隔など)が変更されると、再度行われる。 In this step S4, as shown in FIG. 5, the created digestive tract model M1 is divided into regions at an arbitrary distance, for example, a predetermined equal interval along the extending direction, that is, the locus L1 of the capsule endoscope 2. . Thus, the digestive tract model M1 is divided into a plurality of regions An (n is a natural number). Note that this region division is performed again when the division position (for example, the division interval) is changed by the user.
図2に戻り、ステップS4の処理後、処理部4dの画像分類部14では、領域分割部13により分割された各領域Anに対し、取得部4cにより読み込まれた画像を分類する(ステップS5)。 Returning to FIG. 2, after the processing in step S4, the image classification unit 14 of the processing unit 4d classifies the image read by the acquisition unit 4c for each region An divided by the region dividing unit 13 (step S5). .
このステップS5では、画像位置算出部12により得られた消化管モデルM1に対する画像の位置情報を基に、分割された領域Anごとに、その領域An内に存在する画像を抽出し、その領域Anに属する画像群として分類する。ただし、画像はその領域に一枚だけ存在する場合や存在しない場合もある。なお、この画像分類は、前述の領域分割が再度行われると、それに応じて再度行われる。 In this step S5, based on the position information of the image with respect to the digestive tract model M1 obtained by the image position calculation unit 12, an image existing in the area An is extracted for each divided area An, and the area An is extracted. As an image group belonging to However, there may be a case where only one image exists or does not exist in the area. Note that this image classification is performed again when the above-described region division is performed again.
ここで、前述の画像分類において、ある画像の撮像領域F1が複数の領域Anに属する場合(例えば、二つの領域Anにまたがる場合)には、両方にもしくは領域Anを占める割合が大きい方に分類されるなどの処理が行われる。なお、この分類の際の境界条件はユーザにより任意に指定されるようにしても良い。 Here, in the above-described image classification, when the imaging region F1 of a certain image belongs to a plurality of regions An (for example, when the region spans two regions An), it is classified into both or the region occupying the larger region An. The processing such as being performed is performed. The boundary condition for this classification may be arbitrarily specified by the user.
ステップS5の処理後、処理部4dの画像生成部16では、消化管の延伸方向の位置を基準に、領域Anごとに画像G1aを並べて示す第1のヒストグラム画像G1を生成し、表示部4eでは、その第1のヒストグラム画像G1を表示する(ステップS6)。 After the processing of step S5, the image generation unit 16 of the processing unit 4d generates a first histogram image G1 that shows the images G1a arranged for each region An on the basis of the position in the extending direction of the digestive tract, and the display unit 4e The first histogram image G1 is displayed (step S6).
このステップS6では、領域分割部13により分割された領域Anごとに、その領域Anに分類された画像群を消化管の進行方向の位置順もしくは撮像された時間順に並び替え、さらに、その領域Anごとの画像群を各領域Anが並ぶ順番に並べて一覧画像を生成し、すなわち、消化管の延伸方向の位置を横軸に、各領域Anに分類された画像群を縦軸としてヒストグラム状に並べ、図6に示すように、第1のヒストグラム画像G1を生成する。 In this step S6, for each area An divided by the area dividing unit 13, the image group classified into the area An is rearranged in the order of the position in the advancing direction of the digestive tract or in the time of imaging, and further the area An. A list image is generated by arranging each image group in the order in which each region An is arranged. That is, the position in the extending direction of the digestive tract is set on the horizontal axis, and the image group classified into each region An is arranged on the vertical axis. As shown in FIG. 6, the first histogram image G1 is generated.
ここで、図6には、第1のヒストグラム画像G1の一例が示されており、領域Anごとの画像G1aが縦方向に並び、さらに、その領域Anごとの画像群は横方向に各領域Anが並ぶ順番で並んでいる。なお、図6では、左から右に向かう方向が消化管の進行方向である。この図6の内視鏡検査画面には、第1のヒストグラム画像G1と一緒に、消化管モデルM1を示す消化管モデル画像G2が示されている。この消化管モデル画像G2には、カプセル内視鏡2の軌跡L1及び消化管の分割位置なども示されている。 Here, FIG. 6 shows an example of the first histogram image G1, in which the images G1a for each region An are arranged in the vertical direction, and the image group for each region An is each region An in the horizontal direction. Are arranged in the order in which they are arranged. In FIG. 6, the direction from the left to the right is the traveling direction of the digestive tract. In the endoscopic examination screen of FIG. 6, a gastrointestinal model image G2 showing the gastrointestinal model M1 is shown together with the first histogram image G1. In this digestive tract model image G2, the locus L1 of the capsule endoscope 2, the division position of the digestive tract, and the like are also shown.
その後、ユーザは前述の内視鏡検査画面を見ながら操作部4fを入力操作し、例えば、図6中の操作パネルをマウスなどにより操作して、確認したい特徴を指定し、さらに、第1のヒストグラム画像G1から診断用に用いる画像の範囲(枚数)を選択して指定する。これらの指定値は、取得部4cにより読み込まれ、優先度決定部15や画像生成部16により用いられる。なお、前述の画像範囲の指定では、例えば、ユーザが操作部4fを入力操作し、第1のヒストグラム画像G1から直接表示の対象とする画像を選択したり、消化管モデル画像G2上に消化管モデルM1内の任意範囲を指定して表示の対象とする画像を選択したりすることが可能である。 Thereafter, the user performs an input operation on the operation unit 4f while looking at the above-described endoscopic examination screen, for example, operates the operation panel in FIG. 6 with a mouse or the like, specifies a feature to be confirmed, and further performs the first operation. A range (number of images) of images used for diagnosis is selected and designated from the histogram image G1. These designated values are read by the acquisition unit 4 c and used by the priority determination unit 15 and the image generation unit 16. In the above-described image range specification, for example, the user performs an input operation on the operation unit 4f to select an image to be directly displayed from the first histogram image G1, or the digestive tract on the digestive tract model image G2. It is possible to specify an arbitrary range in the model M1 and select an image to be displayed.
図2に戻り、ステップS6の処理後、対象とする特徴及び画像が指定されたか否かが判断され(ステップS7)、その判断は特徴及び画像が指定されるまで繰り返される(ステップS7のNO)。前述のユーザによる指定に応じて、対象とする特徴及び画像が指定されたと判断されると(ステップS7)、優先度決定部15では、指定された特徴に基づいて、指定された画像を対象に特徴抽出を行い、特徴量に従って領域ごとに画像の優先度を決定する(ステップS8)。 Returning to FIG. 2, after the process of step S6, it is determined whether or not the target feature and image are specified (step S7), and the determination is repeated until the feature and image are specified (NO in step S7). . If it is determined that the target feature and image have been specified in accordance with the specification by the user (step S7), the priority determination unit 15 targets the specified image based on the specified feature. Feature extraction is performed, and the priority of the image is determined for each region in accordance with the feature amount (step S8).
このステップ8では、指定された画像から特徴を抽出し、その特徴量に応じて画像を表示する優先度を決定する。例えば、体腔内部の出血の指標として用いられる赤色具合(色調:赤)が特徴として指定された場合には、各領域Anの画像は、特徴量である赤色具合が高い程、画像の優先度が高く決定される。すなわち、その優先度は、赤色具合が最も高い画像を一番手前に、その一番手前の画像から奥に向かって順次赤色具合が低い画像を表示するように決定される。 In step 8, the feature is extracted from the designated image, and the priority for displaying the image is determined according to the feature amount. For example, when the red color (color tone: red) used as an index of bleeding inside the body cavity is designated as a feature, the image priority of the image of each region An increases as the red color, which is a feature amount, increases. Highly determined. In other words, the priority is determined so that the image with the highest red condition is displayed in the foreground, and the images with the lower red condition are displayed in order from the foremost image to the back.
なお、疾患の種類により組織が黄色に変色するもの、あるいは、黒っぽくなるものがあるため、それらの特徴を確認したい場合には、色調の黄色又は黒を特徴として指定しても良い。また、形状の特徴として消化管の延伸方向に垂直な断面を示す画像上での管輪郭の凹凸(円形からの凹み具合など)を特徴として指定し、管狭窄の指標として凹み具合の多いものを優先度の高い画像としても良い。また、分割した領域An内でのカプセル内視鏡2の滞留時間を特徴として指定し、カプセル内視鏡2の通り難い領域もしくは管狭窄の指標としてユーザに提示しても良い。複数の特徴が指定された場合には、任意の計算方法で複数の特徴量を用いて優先度を決定し、画像の並び替えを行わずにバロメータ画像の表示でその度合いを提示しても良い。ただし、このバロメータ画像の表示は、時間軸に沿ってバロメータ画像を表示する既存方法とは異なり、消化管の延伸方向の位置を基準としたバロメータ画像の表示である。 Depending on the type of disease, the tissue may change color to yellow or become dark. Therefore, when it is desired to check the characteristics, the color tone yellow or black may be designated as the characteristic. In addition, as a feature of the shape, specify the contour of the tube contour on the image showing a cross section perpendicular to the extending direction of the gastrointestinal tract (such as a dent from a circle) as a feature, and the one with a lot of dent as an index of stenosis It is good also as an image with high priority. In addition, the residence time of the capsule endoscope 2 in the divided area An may be specified as a feature, and may be presented to the user as an area difficult to pass through the capsule endoscope 2 or an index of stenosis of the tube. When a plurality of features are designated, priority may be determined using a plurality of feature amounts by an arbitrary calculation method, and the degree may be presented by displaying a barometer image without rearranging the images. . However, the display of the barometer image is a display of the barometer image based on the position in the extending direction of the digestive tract, unlike the existing method of displaying the barometer image along the time axis.
ステップS8の処理後、消化管の延伸方向の位置を基準に、領域ごとに優先度が高い順に画像を並べて示す第2のヒストグラム画像G3を生成し、表示部4eでは、その第2のヒストグラム画像G3を表示する(ステップS9)。 After the processing of step S8, a second histogram image G3 is generated that shows the images arranged in descending order of priority for each region on the basis of the position in the extending direction of the digestive tract, and the display unit 4e displays the second histogram image G3 is displayed (step S9).
このステップS9では、領域分割部13により分割された領域Anごとに、その領域Anに分類された画像群を優先度決定部15により算出された優先度の高い順に並び替え、さらに、その領域Anごとの画像群を各領域Anが並ぶ順番に並べて一覧画像を生成し、すなわち、消化管の延伸方向の位置を横軸に、各領域Anに分類されて優先度順に並ぶ画像群を縦軸としてヒストグラム状に並べ、図7に示すように、優先度に基づく第2のヒストグラム画像G3を生成する。なお、特徴が複数指定された場合には、特徴ごとに画像群の個々の優先度を決定し、その後、領域An内の画像群を特徴ごとに分類して前述と同じように第2のヒストグラム画像G3を生成する。 In this step S9, for each region An divided by the region dividing unit 13, the image group classified into the region An is rearranged in the order of the priority calculated by the priority determining unit 15, and the region An is further sorted. A list image is generated by arranging each image group in the order in which the regions An are arranged. That is, the position in the extending direction of the digestive tract is taken as the horizontal axis, and the image group classified into the regions An and arranged in order of priority is taken as the vertical axis Arranged in a histogram form, as shown in FIG. 7, a second histogram image G3 based on priority is generated. When a plurality of features are designated, the individual priority of the image group is determined for each feature, and then the image group in the region An is classified for each feature and the second histogram is obtained in the same manner as described above. An image G3 is generated.
ここで、図7には、第2のヒストグラム画像G3の一例が示されており、この第2のヒストグラム画像G3では、異なる二つの特徴(特徴1及び特徴2)ごとに表示範囲が存在し、特徴1に関する表示範囲R1と、特徴2に関する表示範囲R2とが存在する。このような表示範囲は指定される特徴の数に応じて自動的に設定される。領域Anごとの画像G1aは、表示範囲R1において特徴1に基づく優先度順に縦方向に並び、表示範囲R2において特徴2に基づく優先度順に縦方向に並んでいる。さらに、その領域Anごとの画像群は横方向に各領域Anが並ぶ順番で並んでいる。なお、図7では、左から右に向かう方向が消化管の進行方向であり、また、特徴ごとに優先度が高い画像が一番手前に存在し、優先度が低くなるほど奥に画像が位置する。 Here, FIG. 7 shows an example of the second histogram image G3. In the second histogram image G3, a display range exists for each of two different features (feature 1 and feature 2). There is a display range R1 related to the feature 1 and a display range R2 related to the feature 2. Such a display range is automatically set according to the number of specified features. The images G1a for each region An are arranged in the vertical direction in the order of priority based on the feature 1 in the display range R1, and are arranged in the vertical direction in the order of priority based on the feature 2 in the display range R2. Furthermore, the image group for each area An is arranged in the order in which the areas An are arranged in the horizontal direction. In FIG. 7, the direction from the left to the right is the advancing direction of the digestive tract, and an image having a higher priority for each feature is present in the foreground, and the lower the priority is, the deeper the image is located. .
この図7の内視鏡検査画面には、前述の第2のヒストグラム画像G3と一緒に、消化管モデルM1を示す消化管モデル画像G2が示されており、さらに、消化管の延伸方向の優先度あるいは画像の枚数を色の濃度差で示すバロメータ画像G4が示されている。なお、消化管モデル画像G2は、仮想器官としての消化管モデルM1を示す仮想器官画像である。 The endoscopic examination screen of FIG. 7 shows a gastrointestinal model image G2 showing the gastrointestinal tract model M1 together with the second histogram image G3 described above. Further, priority is given to the extending direction of the gastrointestinal tract. A barometer image G4 showing the degree or the number of images as a color density difference is shown. The gastrointestinal model image G2 is a virtual organ image showing the gastrointestinal model M1 as a virtual organ.
ここで、異なる二つの特徴(特徴1及び特徴2)が指定された場合には、特徴1及び特徴2のどちらか一方に関するバロメータ画像G4が表示されており、ユーザが操作部4fを入力操作すると、他方の特徴に関するバロメータ画像に切り替えられる。これは、二つのバロメータ画像を同時に表示するスペースが内視鏡検査画面に無い場合などに有効であり、特徴1及び特徴2のどちらのバロメータ画像も確認することが可能となる。もちろん、この切替表示ではなく、特徴1及び特徴2の両方のバロメータ画像を同時に表示するスペースが内視鏡検査画面にある場合には、特徴1及び特徴2の両方のバロメータ画像を予め表示するようにしても良い。 Here, when two different features (feature 1 and feature 2) are designated, a barometer image G4 relating to either feature 1 or feature 2 is displayed, and when the user performs an input operation on the operation unit 4f. The barometer image relating to the other feature is switched to. This is effective when there is no space for displaying two barometer images at the same time on the endoscopic examination screen, and both the barometer images of feature 1 and feature 2 can be confirmed. Of course, instead of this switching display, if there is a space on the endoscopy screen for displaying both the feature 1 and feature 2 barometer images at the same time, both the feature 1 and feature 2 barometer images are displayed in advance. Anyway.
その後、ユーザは前述の内視鏡検査画面を見ながら操作部4fを入力操作し、例えば、図7中の操作パネルをマウスなどにより操作して、確認したい領域An内の任意方向を指定する。この指定値は、取得部4cにより読み込まれて画像生成部16により用いられる。なお、領域An内の任意方向の指定では、例えば、ユーザが操作部4fを入力操作し、第2のヒストグラム画像G3から表示の対象とする領域An内の画像群を選択し、その領域An内の任意方向を選択する。 Thereafter, the user performs an input operation on the operation unit 4f while viewing the above-described endoscopic examination screen, for example, operates the operation panel in FIG. This designated value is read by the acquisition unit 4 c and used by the image generation unit 16. In the designation of an arbitrary direction in the area An, for example, the user performs an input operation on the operation unit 4f, selects a group of images in the area An to be displayed from the second histogram image G3, and within the area An. Select an arbitrary direction.
図2に戻り、ステップS9の処理後、領域An内の任意方向が指定されたか否かが判断され(ステップS10)、その判断は領域An内の任意方向が指定されるまで繰り返される(ステップS10のNO)。前述のユーザによる指定に応じて、任意方向が指定されたと判断されると(ステップS10のYES)、画像生成部16では、指定された任意方向に応じ、領域An内の画像群を合成して合成画像G5を生成し、表示部4eでは、その合成画像G5を前述の第2のヒストグラム画像G3と共に表示し(ステップS11)、処理をステップS7に戻す。 Returning to FIG. 2, after the process of step S9, it is determined whether or not an arbitrary direction in the area An is specified (step S10), and the determination is repeated until an arbitrary direction in the area An is specified (step S10). NO). If it is determined that an arbitrary direction has been specified in accordance with the above-mentioned specification by the user (YES in step S10), the image generation unit 16 combines the image group in the area An according to the specified arbitrary direction. A composite image G5 is generated, and the display unit 4e displays the composite image G5 together with the above-described second histogram image G3 (step S11), and returns the process to step S7.
このステップS11では、ユーザにより領域An内の見たい方向が指定されると、その領域An内に存在する画像を用いて、見たい方向の画像を連結し、図7に示すように、合成画像G5を生成する。このとき、使用される画像はユーザが選択した画像としても良く、また、同じ領域Anの画像が複数枚選択されている場合には、指定された特徴の優先度が高い画像、もしくは、特徴量の高い画素を用いて、合成画像G5を作成しても良い。 In this step S11, when the user designates the desired direction in the area An, the images in the desired direction are connected using the images existing in the area An. As shown in FIG. G5 is generated. At this time, the image to be used may be an image selected by the user, and when a plurality of images of the same area An are selected, an image having a high priority of the designated feature or a feature amount A composite image G5 may be created using pixels having a high height.
ここで、図7の内視鏡検査画面には、診断画像となる合成画像G5の一例が示されており、赤色の特徴T1が示されている。さらに、合成画像G5には、特徴1の特徴量が数値として示されている。この特徴量は優先度決定部15により求められている数値である。合成画像G5は奥行き感が有する画像であり、その画像の拡大なども可能である。なお、合成画像G5は前述の見たい方向が変更されると、それに応じて再生成される。このため、合成画像G5は、消化管の芯線を中心として任意の領域Anの内壁を360度示すパノラマ画像として機能するので、ユーザは自由に見たい方向を変更して読影を行うことが可能である。 Here, the endoscopic examination screen of FIG. 7 shows an example of a composite image G5 that is a diagnostic image, and a red feature T1. Furthermore, the feature quantity of feature 1 is shown as a numerical value in the composite image G5. This feature amount is a numerical value obtained by the priority determination unit 15. The composite image G5 is an image having a sense of depth, and the image can be enlarged. Note that the composite image G5 is regenerated in response to the change in the desired direction. For this reason, the composite image G5 functions as a panoramic image that shows the inner wall of an arbitrary region An 360 degrees around the core line of the digestive tract, so that the user can freely change the desired viewing direction and perform interpretation. is there.
その後、ユーザが内視鏡検査画面を見ながら操作部4fを入力操作し、例えば、図7中の操作パネルをマウスなどにより操作して、確認したい特徴や診断用に用いる画像を変更すると、ステップS7以降の処理が行われ、新たなヒストグラム画像G3や合成画像G5が生成されて表示される。この再表示処理は確認したい特徴や診断用に用いる画像の変更に応じて繰り返されることになる。また、ユーザが操作部4fを入力操作して表示終了が指示されると、前述の画像表示処理は終了される。 Thereafter, when the user performs an input operation on the operation unit 4f while looking at the endoscopic examination screen, for example, by operating the operation panel in FIG. 7 with a mouse or the like, the feature to be confirmed or the image used for diagnosis is changed. The processes after S7 are performed, and a new histogram image G3 and composite image G5 are generated and displayed. This re-display process is repeated according to the feature to be confirmed and the change of the image used for diagnosis. Further, when the user inputs an operation on the operation unit 4f to instruct the display end, the above-described image display process is ended.
このように画像表示処理では、第2のヒストグラム画像G3が診断画像となる合成画像G5と共に表示部4eにより表示されてユーザに提示される。つまり、ユーザが確認したい特徴に基づいて画像の優先度が決定され、異常と思われる画像が優先的に表示される。さらに、確認したい特徴を顕著に示す合成画像G5も作成されて提示される。これにより、読影する画像枚数を少なくすることが可能であるうえ、確認したい特徴及びその値を一枚の合成画像G5上で確認することが可能になる。これにより、読影に要する読影時間及び読影者の労力的な負担が少ないカプセル内視鏡検査を行うことができる。 Thus, in the image display process, the second histogram image G3 is displayed by the display unit 4e together with the composite image G5 serving as a diagnostic image and presented to the user. That is, the priority of the image is determined based on the feature that the user wants to confirm, and the image that seems to be abnormal is displayed with priority. Furthermore, a composite image G5 that significantly shows the feature to be confirmed is also created and presented. As a result, the number of images to be interpreted can be reduced, and the feature to be confirmed and its value can be confirmed on one composite image G5. As a result, it is possible to perform a capsule endoscopy with less interpretation time required for interpretation and less labor burden on the interpreter.
以上説明したように、本実施形態によれば、領域Anごとにその領域An内の画像群の個々の優先度に応じて領域An内の画像群を並べ、さらに、領域Anごとの画像群を領域Anの並び順に並べて第2のヒストグラム画像G3を生成し、その第2のヒストグラム画像G3を診断画像となる合成画像G5と共に表示部4eにより表示する。これにより、診断画像内の特徴領域や特徴量を確認することが容易となることに加え、診断画像の生成に使われた画像や指定した特徴外の病理所見の漏れがないかを確認することが可能となるので、読影に要する読影時間及び読影者の労力的な負担を減らすことができる。 As described above, according to the present embodiment, the image groups in the region An are arranged according to the individual priorities of the image groups in the region An for each region An, and the image groups for each region An are further arranged. A second histogram image G3 is generated in the order of arrangement of the regions An, and the second histogram image G3 is displayed on the display unit 4e together with the composite image G5 serving as a diagnostic image. This makes it easy to check the feature region and feature amount in the diagnostic image, as well as confirming that the image used to generate the diagnostic image and the pathological findings outside the specified feature are not leaked. Therefore, the interpretation time required for interpretation and the labor burden on the interpreter can be reduced.
また、画像ごとに画像における種類が異なる複数の特徴量を抽出し、領域An及び特徴量の種類ごとに画像の特徴量に応じて領域An内の画像群の各々の優先度を決定し、領域An及び特徴量の種類ごとに、領域An内の画像群の個々の画像の優先度に応じて領域An内の画像群を並べ、領域Anごとの画像群を領域Anが並ぶ順番に並べて第2のヒストグラム画像G3を生成することによって、異なる複数の特徴が指定された場合でも、特徴ごとに画像の優先度に応じて画像が並べられるので、読影効率を向上させることができ、その結果、読影時間及び読影者の労力的な負担を減らすことができる。 In addition, a plurality of feature amounts of different types in the image are extracted for each image, the priority of each image group in the region An is determined according to the feature amount of the image for each region An and each type of feature amount, For each type of An and feature amount, the image groups in the region An are arranged according to the priority of the individual images in the image group in the region An, and the image groups for each region An are arranged in the order in which the regions An are arranged. By generating the histogram image G3, even when a plurality of different features are specified, the images are arranged according to the priority of the image for each feature, so that the interpretation efficiency can be improved. Time and labor of the reader can be reduced.
また、複数の領域Anのうち同じ領域Anに分類された複数の画像を合成し、任意方向の合成画像G5を生成して表示することによって、指定された特徴を顕著に示す合成画像G5を作成して提示することが可能になるため、読影効率を向上させることができ、その結果、読影時間及び読影者の労力的な負担を減らすことができる。なお、より優先度が高い画像を用いて任意方向の合成画像G5を作成することが望ましい。 In addition, a plurality of images classified into the same region An among the plurality of regions An are combined, and a combined image G5 in an arbitrary direction is generated and displayed, thereby generating a combined image G5 that clearly shows the specified feature Therefore, it is possible to improve the interpretation efficiency. As a result, it is possible to reduce the interpretation time and the labor burden on the interpreter. Note that it is desirable to create a composite image G5 in an arbitrary direction using an image having a higher priority.
また、画像ごとのカプセル内視鏡2の撮像位置に基づいて管状の器官の延伸方向に延びる器官の芯線を求め、求めた芯線を軸心とする管状の仮想器官を求め、求めた仮想器官をその延伸方向に沿って複数の領域Anに分割することによって、実際の器官経路に則した分割を行うことが可能になるので、より正確な領域分割を実現することができる。 Further, the core line of the organ extending in the extending direction of the tubular organ is obtained based on the imaging position of the capsule endoscope 2 for each image, the tubular virtual organ whose axis is the obtained core line is obtained, and the obtained virtual organ is obtained. By dividing into a plurality of regions An along the extending direction, it becomes possible to perform division according to the actual organ path, so that more accurate region division can be realized.
また、画像ごとにカプセル内視鏡2の撮像位置及び撮像姿勢を用いて撮像位置を基準とするカプセル内視鏡2の撮像領域F1を求め、求めた画像ごとのカプセル内視鏡2の撮像領域F1に応じて器官に対する画像の位置を決定し、各領域Anに対して複数の画像を分類することによって、各画像を正確に各領域Anに分類することが可能となり、より正確な読影を行うことができる。なお、この分類方法としては、カプセル内視鏡2の撮像領域F1を用いること以外にも、カプセル内視鏡2の撮像姿勢に基づいて撮像位置を基準とする撮像方向H1を求め、その撮像位置から撮像方向H1に延びる直線(撮像方向ベクトル)と、管状の器官の内壁との交点を用いるようにしても良い。ただし、管状の器官には多数の湾曲部分が存在しているため、前述の撮像領域F1を用いた方が分類精度は高くなる。 Moreover, the imaging region F1 of the capsule endoscope 2 with the imaging position as a reference is obtained for each image using the imaging position and the imaging posture of the capsule endoscope 2, and the imaging region of the capsule endoscope 2 for each obtained image. By determining the position of the image with respect to the organ in accordance with F1 and classifying a plurality of images for each region An, each image can be accurately classified into each region An, and more accurate interpretation is performed. be able to. As this classification method, in addition to using the imaging region F1 of the capsule endoscope 2, an imaging direction H1 based on the imaging position is obtained based on the imaging posture of the capsule endoscope 2, and the imaging position is obtained. An intersection of a straight line (imaging direction vector) extending in the imaging direction H1 from the inner wall of the tubular organ may be used. However, since the tubular organ has a large number of curved portions, the classification accuracy is higher when the above-described imaging region F1 is used.
なお、分割した領域An内でのカプセル内視鏡2の滞留時間を特徴として指定し、その滞留時間をカプセル内視鏡2の通り難い位置もしくは管狭窄の指標として、器官の延伸方向の位置を基準に各撮像位置での滞留時間を表示してユーザに提示した場合には、読影効率を向上させることができ、その結果、読影時間及び読影者の労力的な負担を減らすことができる。このときの画像表示処理では、処理部4dが領域Anごとにカプセル内視鏡2の滞留時間を算出する滞留時間算出部として機能し、画像生成部16は領域Anごとに器官の延伸方向に沿って滞留時間を示す滞留時間画像を生成し、表示部4eがその滞留時間画像を表示することになる。これにより、カプセル内視鏡2の各撮像位置での滞留時間が器官の延伸方向の位置を基準に表示される。 In addition, the residence time of the capsule endoscope 2 in the divided region An is designated as a feature, and the residence time is set as a position difficult to pass through the capsule endoscope 2 or an index of the stenosis of the organ. When the dwell time at each imaging position is displayed as a reference and presented to the user, the interpretation efficiency can be improved, and as a result, the interpretation time and the burden on the interpreter can be reduced. In the image display processing at this time, the processing unit 4d functions as a residence time calculation unit that calculates the residence time of the capsule endoscope 2 for each region An, and the image generation unit 16 follows the organ extension direction for each region An. A residence time image indicating the residence time is generated, and the display unit 4e displays the residence time image. Thereby, the residence time at each imaging position of the capsule endoscope 2 is displayed based on the position of the organ in the extending direction.
また、前述の実施形態においては、消化管モデル画像G2に、消化管モデルM1に加えてカプセル内視鏡2の軌跡L1や分割位置を示しているが、これに限るものではなく、例えば、消化管モデルM1上で画像が存在する箇所あるいは存在しない箇所を色やグラデーション、パターンなどの表示により示すようにしても良い。この場合には、消化管モデルM1に対する撮像領域や非撮像領域を容易に把握することが可能となるので、読影効率を向上させることができ、その結果、読影時間及び読影者の労力的な負担を減らすことができる。また、ステップS7で指定した現在の画像範囲を色やグラデーション、パターンなどの表示により消化管モデルM1上に示すようにしても良い。この場合には、指定した現在の画像範囲が一目でわかるため、読影対象領域を容易に把握することが可能となり、読影効率を向上させることができ、その結果、読影時間及び読影者の労力的な負担を減らすことができる。 In the above-described embodiment, the locus L1 and the division position of the capsule endoscope 2 are shown in the digestive tract model image G2 in addition to the digestive tract model M1, but the present invention is not limited to this. A portion where an image exists or does not exist on the tube model M1 may be indicated by display of color, gradation, pattern, or the like. In this case, since it is possible to easily grasp the imaging region and the non-imaging region for the digestive tract model M1, it is possible to improve the interpretation efficiency. As a result, the interpretation time and the labor burden on the interpreter are reduced. Can be reduced. Further, the current image range designated in step S7 may be shown on the digestive tract model M1 by displaying colors, gradations, patterns, and the like. In this case, since the specified current image range can be known at a glance, it is possible to easily grasp the interpretation target area, and to improve the interpretation efficiency. As a result, the interpretation time and the effort of the interpreter Burden can be reduced.
以上、本発明の一実施形態を説明したが、この実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although one embodiment of the present invention has been described above, this embodiment is presented as an example and is not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.
2 カプセル内視鏡
4 医用画像表示装置
4c 取得部
4d 処理部
4e 表示部
13 領域分割部
14 画像分類部
15 優先度決定部
16 画像生成部
An 領域
F1 撮像領域
G1a 画像
G2 消化管モデル画像
G3 ヒストグラム画像
G5 合成画像
M1 消化管モデル
DESCRIPTION OF SYMBOLS 2 Capsule endoscope 4 Medical image display apparatus 4c Acquisition part 4d Processing part 4e Display part 13 Area division part 14 Image classification part 15 Priority determination part 16 Image generation part An area | region F1 Imaging area G1a Image G2 Gastrointestinal model image G3 Histogram Image G5 Composite image M1 Gastrointestinal model
Claims (9)
前記器官をその延伸方向に沿って複数の領域に分割する領域分割部と、
前記画像ごとに前記器官内撮像装置の撮像位置及び撮像姿勢を用いて前記器官に対する前記画像の位置を決定し、前記複数の領域に対して前記複数の画像を分類する画像分類部と、
前記画像ごとに前記画像の特徴量を抽出し、前記領域ごとに前記画像の特徴量に応じて前記領域内の各画像の優先度を決定する優先度決定部と、
前記領域ごとに前記領域内の各画像の優先度に応じて前記領域内の複数の画像を並べた表示画像を生成する画像生成部と、
前記表示画像を表示する表示部と、
を備えることを特徴とする医用画像表示装置。 A plurality of images captured by an intra-organ imaging device that moves in a tubular organ and images in time series; an acquisition unit that acquires an imaging position and an imaging posture of the intra-organ imaging device for each of the images;
A region dividing unit that divides the organ into a plurality of regions along the extending direction;
An image classification unit that determines the position of the image with respect to the organ using the imaging position and the imaging posture of the intra-organ imaging device for each image, and classifies the plurality of images with respect to the plurality of regions;
A priority determining unit that extracts the feature amount of the image for each image and determines the priority of each image in the region according to the feature amount of the image for each region;
An image generation unit that generates a display image in which a plurality of images in the region are arranged according to the priority of each image in the region for each region;
A display unit for displaying the display image;
A medical image display device comprising:
前記画像生成部は、前記表示画像として、前記領域及び前記特徴量の種類ごとに、前記領域内の各画像の優先度に応じて前記領域内の複数の画像を並べ、前記領域ごとの画像群を前記領域が並ぶ順番に並べた表示画像を生成することを特徴とする請求項1又は2記載の医用画像表示装置。 The priority determination unit extracts a plurality of feature amounts of different types in the image for each image, and determines each image in the region according to the feature amount of the image for each region and each type of feature amount. Determine the priority,
The image generation unit arranges a plurality of images in the region according to the priority of each image in the region for each type of the region and the feature amount as the display image, and an image group for each region The medical image display device according to claim 1, wherein a display image in which the regions are arranged in the order in which the regions are arranged is generated.
前記表示部は、前記合成画像を表示することを特徴とする請求項1ないし3のいずれか一に記載の医用画像表示装置。 The image generation unit generates a composite image in an arbitrary direction by combining a plurality of images classified into the same region among the plurality of regions.
The medical image display apparatus according to any one of claims 1 to 3, wherein the display unit displays the composite image.
前記画像生成部は、前記領域ごとに前記器官の延伸方向に沿って前記滞留時間を示す滞留時間画像を生成し、
前記表示部は、前記滞留時間画像を表示することを特徴とする請求項1ないし4のいずれか一に記載の医用画像表示装置。 A residence time calculation unit that calculates the residence time of the intra-organ imaging device for each region,
The image generation unit generates a residence time image indicating the residence time along the extending direction of the organ for each region,
The medical image display apparatus according to claim 1, wherein the display unit displays the residence time image.
前記表示部は、前記仮想器官画像を表示することを特徴とする請求項6記載の医用画像表示装置。 The image generation unit generates a virtual organ image indicating the virtual organ, the core line of the organ, and a division position of the virtual organ,
The medical image display apparatus according to claim 6, wherein the display unit displays the virtual organ image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011226485A JP5846841B2 (en) | 2011-10-14 | 2011-10-14 | Medical image display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011226485A JP5846841B2 (en) | 2011-10-14 | 2011-10-14 | Medical image display device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013085593A true JP2013085593A (en) | 2013-05-13 |
JP5846841B2 JP5846841B2 (en) | 2016-01-20 |
Family
ID=48530175
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011226485A Active JP5846841B2 (en) | 2011-10-14 | 2011-10-14 | Medical image display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5846841B2 (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015029970A1 (en) * | 2013-08-28 | 2015-03-05 | オリンパスメディカルシステムズ株式会社 | Capsular endoscopic system |
WO2015190186A1 (en) * | 2014-06-10 | 2015-12-17 | オリンパス株式会社 | Endoscope system and endoscope system operation method |
WO2016047190A1 (en) * | 2014-09-22 | 2016-03-31 | オリンパス株式会社 | Image display device, image display method, and image display program |
WO2016098665A1 (en) * | 2014-12-15 | 2016-06-23 | オリンパス株式会社 | Medical equipment system and method for operating medical equipment system |
JP2016519968A (en) * | 2013-05-29 | 2016-07-11 | カン−フアイ・ワン | Image reconstruction from in vivo multi-camera capsules |
WO2019082741A1 (en) | 2017-10-26 | 2019-05-02 | 富士フイルム株式会社 | Medical image processing device |
WO2019203006A1 (en) * | 2018-04-17 | 2019-10-24 | 富士フイルム株式会社 | Endoscope device, endoscope processor device, and endoscope image display method |
JP2019216948A (en) * | 2018-06-19 | 2019-12-26 | オリンパス株式会社 | Image processing device, operation method for image processing device, and operation program of image processing device |
JPWO2018159083A1 (en) * | 2017-03-03 | 2019-12-26 | 富士フイルム株式会社 | Endoscope system, processor device, and method of operating endoscope system |
CN110897595A (en) * | 2019-12-05 | 2020-03-24 | 重庆金山医疗技术研究院有限公司 | Motion detection method, frame rate adjustment method, capsule endoscope, recorder and system |
JP2022505205A (en) * | 2018-10-19 | 2022-01-14 | 武田薬品工業株式会社 | Image scoring for intestinal pathology |
KR20220032195A (en) * | 2020-09-07 | 2022-03-15 | 전남대학교산학협력단 | A display system for capsule endoscopic image and a method for generating 3d panoramic view |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004321603A (en) * | 2003-04-25 | 2004-11-18 | Olympus Corp | Device, method and program for image display |
JP2006320585A (en) * | 2005-05-19 | 2006-11-30 | Olympus Medical Systems Corp | Image display device |
JP2008036028A (en) * | 2006-08-03 | 2008-02-21 | Olympus Medical Systems Corp | Picture display |
JP2010240000A (en) * | 2009-04-01 | 2010-10-28 | Hoya Corp | Image processing apparatus, image processing method, and system |
JP2011135936A (en) * | 2009-12-25 | 2011-07-14 | Toshiba Corp | Image processor, medical image diagnostic apparatus, and image processing program |
-
2011
- 2011-10-14 JP JP2011226485A patent/JP5846841B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004321603A (en) * | 2003-04-25 | 2004-11-18 | Olympus Corp | Device, method and program for image display |
JP2006320585A (en) * | 2005-05-19 | 2006-11-30 | Olympus Medical Systems Corp | Image display device |
JP2008036028A (en) * | 2006-08-03 | 2008-02-21 | Olympus Medical Systems Corp | Picture display |
JP2010240000A (en) * | 2009-04-01 | 2010-10-28 | Hoya Corp | Image processing apparatus, image processing method, and system |
JP2011135936A (en) * | 2009-12-25 | 2011-07-14 | Toshiba Corp | Image processor, medical image diagnostic apparatus, and image processing program |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016519968A (en) * | 2013-05-29 | 2016-07-11 | カン−フアイ・ワン | Image reconstruction from in vivo multi-camera capsules |
JPWO2015029970A1 (en) * | 2013-08-28 | 2017-03-02 | オリンパス株式会社 | Capsule endoscope system |
US9517001B2 (en) | 2013-08-28 | 2016-12-13 | Olympus Corporation | Capsule endoscope system |
JP5841695B2 (en) * | 2013-08-28 | 2016-01-13 | オリンパス株式会社 | Capsule endoscope system |
CN105491936A (en) * | 2013-08-28 | 2016-04-13 | 奥林巴斯株式会社 | Capsular endoscopic system |
WO2015029970A1 (en) * | 2013-08-28 | 2015-03-05 | オリンパスメディカルシステムズ株式会社 | Capsular endoscopic system |
JP5945643B2 (en) * | 2014-06-10 | 2016-07-05 | オリンパス株式会社 | Endoscope system and operation method of endoscope system |
US9918614B2 (en) | 2014-06-10 | 2018-03-20 | Olympus Corporation | Endoscope system with angle-of-view display information overlapped on three-dimensional image information |
CN106028903B (en) * | 2014-06-10 | 2018-07-24 | 奥林巴斯株式会社 | The working method of endoscopic system, endoscopic system |
CN106028903A (en) * | 2014-06-10 | 2016-10-12 | 奥林巴斯株式会社 | Endoscope system and endoscope system operation method |
EP3095377A4 (en) * | 2014-06-10 | 2017-09-13 | Olympus Corporation | Endoscope system and endoscope system operation method |
WO2015190186A1 (en) * | 2014-06-10 | 2015-12-17 | オリンパス株式会社 | Endoscope system and endoscope system operation method |
JPWO2015190186A1 (en) * | 2014-06-10 | 2017-04-20 | オリンパス株式会社 | Endoscope system and operation method of endoscope system |
US9877635B2 (en) | 2014-09-22 | 2018-01-30 | Olympus Corporation | Image processing device, image processing method, and computer-readable recording medium |
JP5945648B1 (en) * | 2014-09-22 | 2016-07-05 | オリンパス株式会社 | Image processing apparatus, image processing method, and image processing program |
WO2016047190A1 (en) * | 2014-09-22 | 2016-03-31 | オリンパス株式会社 | Image display device, image display method, and image display program |
CN106455947A (en) * | 2014-09-22 | 2017-02-22 | 奥林巴斯株式会社 | Image display device, image display method, and image display program |
JP6017743B1 (en) * | 2014-12-15 | 2016-11-02 | オリンパス株式会社 | Medical device system and method for operating medical device system |
WO2016098665A1 (en) * | 2014-12-15 | 2016-06-23 | オリンパス株式会社 | Medical equipment system and method for operating medical equipment system |
US10694929B2 (en) | 2014-12-15 | 2020-06-30 | Olympus Corporation | Medical equipment system and operation method of medical equipment system |
JPWO2018159083A1 (en) * | 2017-03-03 | 2019-12-26 | 富士フイルム株式会社 | Endoscope system, processor device, and method of operating endoscope system |
US11259692B2 (en) | 2017-03-03 | 2022-03-01 | Fujifilm Corporation | Endoscope system, processor device, and method for operating endoscope system |
WO2019082741A1 (en) | 2017-10-26 | 2019-05-02 | 富士フイルム株式会社 | Medical image processing device |
CN111278349A (en) * | 2017-10-26 | 2020-06-12 | 富士胶片株式会社 | Medical image processing apparatus |
JPWO2019082741A1 (en) * | 2017-10-26 | 2020-10-22 | 富士フイルム株式会社 | Medical image processing equipment |
US11132795B2 (en) | 2017-10-26 | 2021-09-28 | Fujifilm Corporation | Medical image processing apparatus |
WO2019203006A1 (en) * | 2018-04-17 | 2019-10-24 | 富士フイルム株式会社 | Endoscope device, endoscope processor device, and endoscope image display method |
JP2019216948A (en) * | 2018-06-19 | 2019-12-26 | オリンパス株式会社 | Image processing device, operation method for image processing device, and operation program of image processing device |
JP7100505B2 (en) | 2018-06-19 | 2022-07-13 | オリンパス株式会社 | Image processing device, operation method of image processing device, and operation program of image processing device |
JP2022505205A (en) * | 2018-10-19 | 2022-01-14 | 武田薬品工業株式会社 | Image scoring for intestinal pathology |
US12094109B2 (en) | 2018-10-19 | 2024-09-17 | Takeda Pharmaceutical Company Limited | Image scoring for intestinal pathology |
CN110897595A (en) * | 2019-12-05 | 2020-03-24 | 重庆金山医疗技术研究院有限公司 | Motion detection method, frame rate adjustment method, capsule endoscope, recorder and system |
KR20220032195A (en) * | 2020-09-07 | 2022-03-15 | 전남대학교산학협력단 | A display system for capsule endoscopic image and a method for generating 3d panoramic view |
KR102462656B1 (en) * | 2020-09-07 | 2022-11-04 | 전남대학교 산학협력단 | A display system for capsule endoscopic image and a method for generating 3d panoramic view |
Also Published As
Publication number | Publication date |
---|---|
JP5846841B2 (en) | 2016-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5846841B2 (en) | Medical image display device | |
JP5394622B2 (en) | Medical guide system | |
JP5676058B1 (en) | Endoscope system and method for operating endoscope system | |
JP5771757B2 (en) | Endoscope system and method for operating endoscope system | |
JP5675227B2 (en) | Endoscopic image processing apparatus, operation method, and program | |
JP4676021B2 (en) | Diagnosis support apparatus, diagnosis support program, and diagnosis support method | |
US20080281189A1 (en) | Medical guiding system | |
US9517001B2 (en) | Capsule endoscope system | |
US20080306379A1 (en) | Medical guiding system | |
US9661995B2 (en) | Capsule endoscope system, operating method of image display, and computer-readable recording medium | |
JP2006288495A (en) | Image processor | |
JP6445784B2 (en) | Image diagnosis support apparatus, processing method thereof, and program | |
CN104918534B (en) | Endoscopic system | |
JP2012010275A (en) | Information processing device, information processing method and program thereof | |
WO2012165572A1 (en) | Medical image display apparatus and medical image diagnostic apparatus | |
JP2009028362A (en) | Medical image processor and medical image diagnosis apparatus | |
CN107249427A (en) | Medical treatment device, medical image generation method and medical image generation program | |
WO2022070782A1 (en) | Program, information processing method, and endoscope system | |
US8902305B2 (en) | System and method for managing face data | |
JPWO2016080331A1 (en) | Medical equipment | |
JP2010069208A (en) | Image processing device, image processing method, and image processing program | |
JP2022071617A (en) | Endoscope system and endoscope device | |
US9542772B2 (en) | Virtual endoscope image-generating device, method, and program | |
JP2019136241A (en) | Image processing device, image processing method, and image processing program | |
JP2013063179A (en) | Observation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140922 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150624 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150626 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20150703 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150824 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151027 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151124 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5846841 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |