JP2010259629A - Image processor, control method for the same, and program - Google Patents

Image processor, control method for the same, and program Download PDF

Info

Publication number
JP2010259629A
JP2010259629A JP2009112983A JP2009112983A JP2010259629A JP 2010259629 A JP2010259629 A JP 2010259629A JP 2009112983 A JP2009112983 A JP 2009112983A JP 2009112983 A JP2009112983 A JP 2009112983A JP 2010259629 A JP2010259629 A JP 2010259629A
Authority
JP
Japan
Prior art keywords
imaging
image
tomographic image
area
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009112983A
Other languages
Japanese (ja)
Other versions
JP5404167B2 (en
Inventor
Kenji Morita
憲司 守田
Akihiro Katayama
昭宏 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009112983A priority Critical patent/JP5404167B2/en
Publication of JP2010259629A publication Critical patent/JP2010259629A/en
Application granted granted Critical
Publication of JP5404167B2 publication Critical patent/JP5404167B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a mechanism for observing the progress depending on the past image, and setting an imaging area effective for diagnosis. <P>SOLUTION: A tomographic image acquiring section 101 acquires a first tomographic image of an eye portion imaged in the past. A first imaging area calculating section 104 calculates a first imaging area in a first tomographic image using the first tomographic image and an eyeground image imaged by an eyeground image imaging section 120. A position extracting section 103 for a significant region extracts the position of a significant section of the eye section from the eyeground image, and an imaging size acquiring section 105 acquires an imaging size to be imaged by a tomographic image imaging section 130. A second imaging area calculating section 108 calculates a second imaging area to image the eye portion by the tomographic image imaging section 130 based on the information on the first imaging area, the information on the position of the significant region and the information on the imaging size. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、被写体を撮影して得られた画像の処理を行う画像処理装置及びその制御方法、当該制御方法等をコンピュータに実行させるためのプログラム、並びに、当該プログラムを記憶したコンピュータ読み取り可能な記憶媒体に関するものである。特に、被写体として眼部を撮影して得られた画像の処理を行うものに用いて好適である。   The present invention relates to an image processing apparatus that processes an image obtained by photographing a subject, a control method thereof, a program for causing a computer to execute the control method, and a computer-readable storage that stores the program It relates to the medium. In particular, it is suitable for use in processing an image obtained by photographing an eye part as a subject.

例えば、眼科における画像診断では、従来から広く用いられてきた眼底画像に加えて、近年、断層画像を用いることにより、被検者の眼部における網膜層内部の状態を3次元的に観察することが可能である。したがって、断層画像を用いた診断は、疾病の診断をより的確に行うために有用であると期待されている。   For example, in diagnostic imaging in ophthalmology, in addition to fundus images that have been widely used in the past, in recent years tomographic images have been used to three-dimensionally observe the internal state of the retina layer in the eye of the subject. Is possible. Therefore, diagnosis using tomographic images is expected to be useful for more accurately diagnosing diseases.

上述した眼底画像は、例えば、眼底カメラや走査型レーザー検眼鏡(Scanning_Laser_Ophthalmoscope:SLO)、IRなどを用いて撮像される。また、上述した断層画像は、光干渉断層計(Optical_Coherence_Tomography:OCT)などを用いて撮像される。   The above-described fundus image is captured using, for example, a fundus camera, a scanning laser ophthalmoscope (SLO), IR, or the like. Further, the above-described tomographic image is taken using an optical coherence tomography (Optical_Coherence_Tomography: OCT) or the like.

図6は、OCTを用いて撮影された、眼部の網膜における黄斑部の断層画像600の一例を示す模式図である。
OCTによる眼部の断層画像600は、3次元的に得られる。図6において、断面画像T1〜Tnは、黄斑部の二次元断面画像(B−scan画像)である。
FIG. 6 is a schematic diagram illustrating an example of a tomographic image 600 of the macular region in the retina of the eye, which is captured using OCT.
A tomographic image 600 of the eye by OCT is obtained three-dimensionally. In FIG. 6, cross-sectional images T 1 to T n are two-dimensional cross-sectional images (B-scan images) of the macular portion.

図7は、図6に示す断面画像T1〜Tnを深度方向に積算して作成した積算画像700の一例を示す模式図である。
ここで、深度方向とは、図6のz方向であり、また、深度方向に積算する処理とは、図6のz方向の各深度位置における光強度(輝度値)を足し合わせる処理である。
FIG. 7 is a schematic diagram showing an example of an integrated image 700 created by integrating the cross-sectional images T 1 to T n shown in FIG. 6 in the depth direction.
Here, the depth direction is the z direction in FIG. 6, and the process of integrating in the depth direction is a process of adding the light intensity (luminance value) at each depth position in the z direction of FIG. 6.

図8は、眼底画像800の一例を示す模式図である。
黄斑部の断層画像投影領域803は、図6に示す断層画像600を−z方向から投影し、当該眼底画像800中の、断層画像600に対応する領域を示したものである。
FIG. 8 is a schematic diagram illustrating an example of a fundus image 800.
The tomographic image projection area 803 of the macular portion is an area corresponding to the tomographic image 600 in the fundus image 800 by projecting the tomographic image 600 shown in FIG.

このように断層画像では、眼底画像に比べて眼底部分の中の狭い領域のみしか撮影できず、図8に示す視神経乳頭部801及び黄斑部802の両方を撮像することが不可能であることが一般的である。   As described above, in the tomographic image, only a narrow region in the fundus portion can be imaged compared to the fundus image, and it is impossible to image both the optic disc 801 and the macula 802 shown in FIG. It is common.

従来、例えば、下記の特許文献1には、断層画像撮影装置において、眼底部の特定の位置を撮影するための技術が提案されている。また、例えば、下記の特許文献2には、眼底画像撮影装置において、過去に撮影した病変部分を設定しておき、次回の撮影時の関心領域の位置、大きさ、露出等を設定する技術が提案されている。   Conventionally, for example, the following Patent Document 1 proposes a technique for photographing a specific position of the fundus in a tomographic imaging apparatus. Further, for example, in Patent Document 2 below, there is a technique for setting a lesion portion captured in the past and setting the position, size, exposure, etc. of a region of interest at the next imaging in the fundus image capturing apparatus. Proposed.

特開2007−185244号公報JP 2007-185244 A 特開2001−275979号公報Japanese Patent Laid-Open No. 2001-2751979

しかしながら、上述した従来の技術では、以下の課題があった。   However, the conventional techniques described above have the following problems.

特許文献1では、同一の断層画像撮影装置で撮影された断層画像を利用することのみしか考慮されていない。そのため、例えば、断層画像撮影装置の性能が向上し、撮影可能領域が拡大した場合には、撮影領域を決定することができずに、操作者が撮影領域を指定する必要がある。また、その場合以前の撮影領域とその場合以後の撮影領域とがずれてしまい、経過観察が行い難くなる。また、例えば、視神経乳頭部や黄斑部等の、眼部の重要部位を考慮して、撮影領域を決定することもできない。   In Patent Document 1, only the use of tomographic images captured by the same tomographic imaging apparatus is considered. Therefore, for example, when the performance of the tomographic imaging apparatus is improved and the imageable area is enlarged, the imaging area cannot be determined and the operator needs to specify the imaging area. In this case, the previous imaging area and the subsequent imaging area are shifted from each other, making it difficult to perform follow-up observation. In addition, for example, an imaging region cannot be determined in consideration of important parts of the eye, such as the optic nerve head and the macula.

また、特許文献2には、上述したように、過去に撮影した画像(以下、「過去画像」と呼ぶ)の関心領域の設定に応じて、次回の撮影時の関心領域の位置、大きさ、露出等の撮影条件を設定することが提案されている。しかしながら、特許文献2では、撮影対象が眼底画像であるため、そもそも撮影可能領域が広く、撮影可能領域が拡大することは考慮されていない。また、特許文献2では、撮影装置の性能が向上し、より広い領域が撮影可能になった場合、効果的な撮影領域を設定することは考慮されていない。   In addition, as described above, Patent Document 2 discloses the position, size, and size of a region of interest at the next shooting according to the setting of the region of interest of an image captured in the past (hereinafter referred to as “past image”). It has been proposed to set shooting conditions such as exposure. However, in Patent Document 2, since the photographing target is a fundus image, the imageable region is wide in the first place, and it is not considered that the imageable region is enlarged. In Patent Document 2, when the performance of the photographing apparatus is improved and a wider area can be photographed, setting an effective photographing area is not considered.

本発明は、このような問題点に鑑みてなされたものであり、過去画像との比較による経過観察を可能とし、且つ、診断に有効な撮影領域の設定を可能とする仕組みを提供することを目的とする。   The present invention has been made in view of such problems, and provides a mechanism that enables follow-up observation by comparison with a past image and enables setting of an imaging region effective for diagnosis. Objective.

本発明の画像処理装置は、過去に撮影された被写体の第1の断層画像を取得する断層画像取得手段と、前記第1の断層画像の撮影領域である第1の撮影領域を含む前記被写体の広範な撮影領域に係る広範画像を画像記憶部に記憶する記憶手段と、前記第1の断層画像と前記広範画像を用いて、前記第1の撮影領域を算出する第1の撮影領域算出手段と、前記広範画像の中から、前記被写体の重要部位の位置を抽出する重要部位の位置抽出手段と、前記被写体の第2の撮影領域における断層画像を撮影する断層画像撮影手段と、前記断層画像撮影手段で撮影可能な撮影サイズの情報を取得する撮影サイズ取得手段と、前記第1の撮影領域の情報、前記重要部位の位置の情報、及び、前記撮影サイズの情報に基づいて、前記第2の撮影領域を算出する第2の撮影領域算出手段とを有する。   An image processing apparatus according to the present invention includes a tomographic image acquisition unit configured to acquire a first tomographic image of a subject photographed in the past, and a first photographing region that is a photographing region of the first tomographic image. Storage means for storing a wide-area image relating to a wide imaging area in an image storage unit; and first imaging area calculation means for calculating the first imaging area using the first tomographic image and the wide-area image; A position extracting unit for extracting an important part of the subject from the wide image, a tomographic image taking unit for taking a tomographic image of the subject in a second imaging region, and the tomographic imaging Based on imaging size acquisition means for acquiring imaging size information that can be imaged by the means, information on the first imaging area, information on the position of the important part, and information on the imaging size, the second Calculate shooting area And a second imaging area calculating unit that.

本発明の画像処理装置の制御方法は、画像の処理を行う画像処理装置の制御方法であって、過去に撮影された被写体の第1の断層画像を取得する断層画像取得ステップと、前記第1の断層画像の撮影領域である第1の撮影領域を含む前記被写体の広範な撮影領域に係る広範画像を画像記憶部に記憶する記憶ステップと、前記第1の断層画像と前記広範画像を用いて、前記第1の撮影領域を算出する第1の撮影領域算出ステップと、前記広範画像の中から、前記被写体の重要部位の位置を抽出する重要部位の位置抽出ステップと、前記被写体の第2の撮影領域における断層画像を撮影する断層画像撮影手段から、当該断層画像撮影手段で撮影可能な撮影サイズの情報を取得する撮影サイズ取得ステップと、前記第1の撮影領域の情報、前記重要部位の位置の情報、及び、前記撮影サイズの情報に基づいて、前記第2の撮影領域を算出する第2の撮影領域算出ステップとを有する。   An image processing apparatus control method according to the present invention is an image processing apparatus control method for processing an image, wherein a tomographic image acquisition step of acquiring a first tomographic image of a subject photographed in the past; A storage step of storing, in an image storage unit, a wide range image related to a wide range of shooting areas of the subject including a first shooting area that is a shooting area of the tomographic image, and using the first tomographic image and the wide range image A first imaging area calculating step for calculating the first imaging area; an important part position extracting step for extracting an important part position of the subject from the wide image; and a second of the subject. An imaging size acquisition step for acquiring imaging size information that can be imaged by the tomographic image imaging means from a tomographic imaging means for imaging a tomographic image in the imaging area; information on the first imaging area; Information-position, and, based on information of the image size, and a second imaging area calculating step of calculating the second imaging area.

本発明のプログラムは、前記画像処理装置の各手段としてコンピュータを機能させるためのものである。
本発明のプログラムにおける他の態様は、前記画像処理装置の制御方法の各ステップをコンピュータに実行させるためのものである。
The program of the present invention is for causing a computer to function as each means of the image processing apparatus.
Another aspect of the program of the present invention is for causing a computer to execute each step of the control method of the image processing apparatus.

本発明のコンピュータ読み取り可能な記憶媒体は、前記プログラムを記憶する。   The computer-readable storage medium of the present invention stores the program.

本発明によれば、過去画像との比較による経過観察を可能とし、且つ、診断に有効な撮影領域の設定を可能とする仕組みを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the mechanism which enables the follow-up observation by the comparison with a past image and the setting of the imaging region effective for a diagnosis can be provided.

本発明の実施形態に係る眼部画像撮影システム(画像処理システム)の概略構成の一例を示す模式図である。1 is a schematic diagram illustrating an example of a schematic configuration of an eye image capturing system (image processing system) according to an embodiment of the present invention. 図1に示す第1の撮影領域算出部の内部構成の一例を示す模式図である。It is a schematic diagram which shows an example of an internal structure of the 1st imaging | photography area | region calculation part shown in FIG. 本発明の実施形態に係る眼部画像撮影装置(画像処理装置)の制御方法における処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence in the control method of the eye part imaging device (image processing device) concerning the embodiment of the present invention. 図3のステップS103における第1の撮影領域の位置算出処理の詳細な処理手順の一例を示すフローチャートである。FIG. 4 is a flowchart illustrating an example of a detailed processing procedure of a first imaging region position calculation process in step S <b> 103 of FIG. 3. FIG. 図1の画像撮影制御部に適用可能なハードウェア構成の一例を示す模式図である。It is a schematic diagram which shows an example of the hardware constitutions applicable to the image photography control part of FIG. OCTを用いて撮影された、眼部の網膜における黄斑部の断層画像の一例を示す模式図である。It is a schematic diagram which shows an example of the tomographic image of the macular part in the retina of an eye part image | photographed using OCT. 図6に示す断面画像T1〜Tnを深度方向に積算して作成した積算画像の一例を示す模式図である。FIG. 7 is a schematic diagram showing an example of an accumulated image created by integrating the cross-sectional images T 1 to T n shown in FIG. 6 in the depth direction. 眼底画像の一例を示す模式図である。It is a schematic diagram which shows an example of a fundus image.

以下に、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。なお、以下に示す実施形態においては、本発明に係る画像処理装置として、被検者の眼部における画像を撮影する眼部画像撮影装置を適用した例について説明する。また、以下に示す実施形態においては、被写体として眼部を適用した例について説明するが、本発明においてはこれに限定されるわけではなく、例えば、断層画像の撮影対象となるものであれば如何なる被写体も適用可能である。また、以下に示す実施形態は、一例に過ぎず、本発明は、図示された構成等に限定されるものではない。   Hereinafter, embodiments (embodiments) for carrying out the present invention will be described with reference to the drawings. In the embodiment described below, an example in which an eye image capturing device that captures an image in the eye of a subject is applied as the image processing device according to the present invention will be described. In the embodiment described below, an example in which an eye part is applied as a subject will be described. However, the present invention is not limited to this example. For example, any object can be used as long as it is a tomographic image capturing target. A subject can also be applied. Further, the embodiment described below is merely an example, and the present invention is not limited to the illustrated configuration.

図1は、本発明の実施形態に係る眼部画像撮影システム(画像処理システム)10の概略構成の一例を示す模式図である。
眼部画像撮影システム10は、図1に示すように、眼部画像撮影装置(画像処理装置)100、LAN200、及び、画像データベース300を有して構成されている。
FIG. 1 is a schematic diagram illustrating an example of a schematic configuration of an eye image capturing system (image processing system) 10 according to an embodiment of the present invention.
As shown in FIG. 1, the eye image capturing system 10 includes an eye image capturing device (image processing device) 100, a LAN 200, and an image database 300.

眼部画像撮影装置100は、LAN200を介して、過去画像を格納する画像データベース300と接続されている。即ち、眼部画像撮影装置100は、画像データベース300から過去画像を取得し、また、画像データベース300に対して撮影した画像を過去画像として保存できるように構成されている。   The eye image capturing apparatus 100 is connected via the LAN 200 to an image database 300 that stores past images. That is, the eye image capturing apparatus 100 is configured to acquire a past image from the image database 300 and to store an image captured in the image database 300 as a past image.

眼部画像撮影装置100は、図1に示すように、画像撮影制御部110、眼底画像撮影部120、及び、断層画像撮影部130を有して構成されている。   As shown in FIG. 1, the eye image capturing apparatus 100 includes an image capturing control unit 110, a fundus image capturing unit 120, and a tomographic image capturing unit 130.

また、画像撮影制御部110は、図1に示すように、断層画像取得部101、画像記憶部102、第1の撮影領域算出部104、撮影サイズ取得部105、撮影誤差取得部106、及び、第3の撮影領域算出部107を有して構成されている。さらに、画像撮影制御部110は、図1に示すように、重要部位の位置抽出部103、第2の撮影領域算出部108、撮影指示部109、画像情報出力部111、及び、画像表示部112を有して構成されている。   In addition, as shown in FIG. 1, the image capturing control unit 110 includes a tomographic image acquisition unit 101, an image storage unit 102, a first imaging region calculation unit 104, an imaging size acquisition unit 105, an imaging error acquisition unit 106, and A third imaging area calculation unit 107 is included. Further, as shown in FIG. 1, the image capturing control unit 110 includes an important part position extracting unit 103, a second imaging region calculating unit 108, an imaging instruction unit 109, an image information output unit 111, and an image display unit 112. It is comprised.

眼底画像撮影部120は、例えば、走査型レーザー検眼鏡(Scanning_Laser_Ophthalmoscope:SLO)を利用して、被検者の眼部における眼底画像を撮影する。なお、本例では、眼底画像撮影部120がSLOを利用して眼底画像を撮影するものとしているが、例えば、IRなどを利用して眼底画像を撮影するものであってもよい。   The fundus image photographing unit 120 photographs a fundus image in the eye part of the subject using, for example, a scanning laser ophthalmoscope (Scanning_Laser_Ophthalmoscope: SLO). In this example, the fundus image capturing unit 120 captures a fundus image using SLO. However, for example, the fundus image capture unit 120 may capture a fundus image using IR or the like.

断層画像撮影部130は、被検者の眼部における断層画像を撮影する。なお、本例では、断層画像撮影部130がスペクトラルドメイン方式のOCTを利用して断層画像を撮影するものとするが、他方式を利用して断層画像を撮影するものであってもよい。   The tomographic image capturing unit 130 captures a tomographic image of the subject's eye. In this example, the tomographic image capturing unit 130 captures a tomographic image using the spectral domain method of OCT. However, the tomographic image may be captured using another method.

眼底画像撮影部120と断層画像撮影部130とは、相互に接続されており、例えば特許文献1等に示されている既知の手法により、眼底画像を常に撮影しながら、断層画像の撮影を行うことができるように構成されている。具体的には、それぞれの画像の撮影に使うレーザーの位置関係を制御することによって、眼底画像上における任意の位置の断層画像を撮影することが可能に構成されている。   The fundus image capturing unit 120 and the tomographic image capturing unit 130 are connected to each other and, for example, capture a tomographic image while always capturing a fundus image by a known method disclosed in Patent Document 1 or the like. It is configured to be able to. Specifically, it is configured such that a tomographic image at an arbitrary position on the fundus image can be captured by controlling the positional relationship of lasers used for capturing each image.

断層画像取得部101は、画像データベース300から過去画像を取得して画像記憶部102に記憶する。ここで、断層画像取得部101において、画像データベース300から取得する過去の断層画像を第1の断層画像とする。なお、第1の断層画像としては、例えば、断層画像撮影部130以外の他の断層画像撮影部で撮影された画像も適用できる。   The tomographic image acquisition unit 101 acquires past images from the image database 300 and stores them in the image storage unit 102. Here, the tomographic image acquisition unit 101 sets the past tomographic image acquired from the image database 300 as the first tomographic image. Note that, as the first tomographic image, for example, an image captured by a tomographic image capturing unit other than the tomographic image capturing unit 130 can also be applied.

画像記憶部102は、断層画像取得部101で取得した過去画像を記憶するとともに、眼底画像撮影部120で撮影された眼底画像及び断層画像撮影部130で撮影された断層画像を記憶して、格納する。   The image storage unit 102 stores the past image acquired by the tomographic image acquisition unit 101, and stores and stores the fundus image captured by the fundus image capturing unit 120 and the tomographic image captured by the tomographic image capturing unit 130. To do.

重要部位の位置抽出部103は、画像記憶部102に記憶されている画像を取り込み、例えば視神経乳頭部や黄斑部などの重要部位の位置を抽出し、この情報を第2の撮影領域算出部108に出力する。   The important part position extraction unit 103 takes in the image stored in the image storage unit 102, extracts the positions of important parts such as the optic nerve head and the macula, and uses this information as the second imaging region calculation unit 108. Output to.

第1の撮影領域算出部104は、画像記憶部102に記憶されている画像から過去画像の撮影領域(第1の撮影領域)の位置を算出し、この情報を第3の撮影領域算出部107に出力する。   The first shooting area calculation unit 104 calculates the position of the shooting area (first shooting area) of the past image from the image stored in the image storage unit 102, and uses this information as the third shooting area calculation unit 107. Output to.

撮影サイズ取得部105は、断層画像撮影部130から当該断層画像撮影部130で撮影可能な最大撮影サイズの情報を取得し、この情報を第3の撮影領域算出部107及び第2の撮影領域算出部108に出力する。   The imaging size acquisition unit 105 acquires information on the maximum imaging size that can be imaged by the tomographic image imaging unit 130 from the tomographic image imaging unit 130, and uses this information as a third imaging area calculation unit 107 and a second imaging area calculation. Output to the unit 108.

撮影誤差取得部106は、断層画像撮影部130で撮影するときに発生する撮影位置の誤差を取得し、この情報を第3の撮影領域算出部107に出力する。   The imaging error acquisition unit 106 acquires an error of the imaging position that occurs when the tomographic image imaging unit 130 performs imaging, and outputs this information to the third imaging area calculation unit 107.

第3の撮影領域算出部107は、撮影サイズ取得部105及び撮影誤差取得部106からの情報を用いて第1の撮影領域算出部104から出力された第1の撮影領域における周囲の領域(第3の撮影領域)の位置を算出する。そして、第3の撮影領域算出部107は、第3の撮影領域の位置に係る情報を第2の撮影領域算出部108に出力する。   The third imaging area calculation unit 107 uses the information from the imaging size acquisition unit 105 and the imaging error acquisition unit 106 to use the information about the surrounding area (first area) output from the first imaging area calculation unit 104. 3) is calculated. Then, the third imaging area calculation unit 107 outputs information related to the position of the third imaging area to the second imaging area calculation unit 108.

第2の撮影領域算出部108は、重要部位の位置抽出部103からの重要部位の位置情報、撮影サイズ取得部105からの最大撮影サイズの情報及び第3の撮影領域算出部107からの第3の撮影領域の位置情報を用いて、第2の撮影領域の位置を算出する。ここで、第2の撮影領域は、断層画像撮影部130において実際に撮影を行う撮影領域である。   The second imaging region calculation unit 108 includes the position information of the important part from the position extraction unit 103 of the important part, the information on the maximum imaging size from the imaging size acquisition unit 105, and the third information from the third imaging region calculation unit 107. The position of the second shooting area is calculated using the position information of the shooting area. Here, the second imaging area is an imaging area where the tomographic image imaging unit 130 actually performs imaging.

撮影指示部109は、第2の撮影領域算出部108で算出された第2の撮影領域の位置情報を断層画像撮影部130に送信し、断層画像撮影部130に対して当該第2の撮影領域の断層画像の撮影を行う旨の指示を出す。これにより、断層画像撮影部130において、第2の撮影領域について断層画像(第2の断層画像)の撮影が行われ、この第2の断層画像が画像記憶部102に記憶される。   The imaging instruction unit 109 transmits the position information of the second imaging area calculated by the second imaging area calculation unit 108 to the tomographic image imaging unit 130, and transmits the second imaging area to the tomographic image imaging unit 130. An instruction to take a tomographic image is issued. Thereby, the tomographic image capturing unit 130 captures a tomographic image (second tomographic image) for the second imaging region, and the second tomographic image is stored in the image storage unit 102.

画像情報出力部111は、画像記憶部102に記憶された第2の断層画像を取得して、LAN200を介して第2の断層画像を画像データベース300に出力する。   The image information output unit 111 acquires the second tomographic image stored in the image storage unit 102 and outputs the second tomographic image to the image database 300 via the LAN 200.

画像表示部112は、画像記憶部102に記憶されている眼底画像や第2の断層画像等を表示する。   The image display unit 112 displays a fundus image, a second tomographic image, and the like stored in the image storage unit 102.

次に、図1に示す第1の撮影領域算出部104の内部構成について説明する。
図2は、図1に示す第1の撮影領域算出部104の内部構成の一例を示す模式図である。この図2には、第1の撮影領域算出部104の内部構成以外に、第1の撮影領域算出部104と接続される画像記憶部102及び第3の撮影領域算出部107も図示している。
Next, the internal configuration of the first imaging area calculation unit 104 shown in FIG. 1 will be described.
FIG. 2 is a schematic diagram illustrating an example of an internal configuration of the first imaging region calculation unit 104 illustrated in FIG. In addition to the internal configuration of the first imaging area calculation unit 104, FIG. 2 also illustrates an image storage unit 102 and a third imaging area calculation unit 107 connected to the first imaging area calculation unit 104. .

第1の撮影領域算出部104は、図2に示すように、積算画像作成部1041、断層画像特徴抽出部1042、眼底画像特徴抽出部1043、及び、位置合わせ部1044を有して構成されている。これらの各構成部については、図4のフローチャートを用いた説明の中で併せて説明を行う。   As shown in FIG. 2, the first imaging region calculation unit 104 includes an integrated image creation unit 1041, a tomographic image feature extraction unit 1042, a fundus image feature extraction unit 1043, and an alignment unit 1044. Yes. Each of these components will be described together in the description using the flowchart of FIG.

次に、眼部画像撮影装置100の制御方法における処理の流れについて説明する。   Next, the flow of processing in the control method of the eye image capturing apparatus 100 will be described.

図3は、本発明の実施形態に係る眼部画像撮影装置(画像処理装置)100の制御方法における処理手順の一例を示すフローチャートである。   FIG. 3 is a flowchart showing an example of a processing procedure in the control method of the eye image capturing device (image processing device) 100 according to the embodiment of the present invention.

<ステップS101>
まず、ステップS101において、断層画像取得部101は、画像データベース300に保存されている第1の断層画像を取得する処理を行う。具体的に、断層画像取得部101は、画像データベース300に保存されている第1の断層画像の中から、撮影対象となる被検者の第1の断層画像を取得し、これを画像記憶部102に保存する。この際、断層画像取得部101は、画像データベース300が保持している当該第1の断層画像における被検眼に関する情報を取得し、この情報も画像記憶部102に保存する。ここで、被検眼に関する情報とは、例えば、被検者(患者)の氏名、年齢、性別や、検査対象が右眼であるか左眼であるかなどの情報である。
<Step S101>
First, in step S <b> 101, the tomographic image acquisition unit 101 performs processing for acquiring a first tomographic image stored in the image database 300. Specifically, the tomographic image acquisition unit 101 acquires a first tomographic image of the subject to be imaged from the first tomographic images stored in the image database 300, and this is acquired as an image storage unit. Save to 102. At this time, the tomographic image acquisition unit 101 acquires information about the eye to be examined in the first tomographic image held in the image database 300 and stores this information in the image storage unit 102. Here, the information on the eye to be examined is information such as the name, age, and sex of the subject (patient) and whether the examination target is the right eye or the left eye.

<ステップS102>
続いて、ステップS102において、画像撮影制御部110は、眼底画像撮影部120で撮影された眼底画像を眼底画像撮影部120から取得し、当該眼底画像を画像記憶部102に記憶する処理を行う。ここで、眼底画像撮影部120で撮影された眼底画像は、断層画像取得部101で取得した第1の断層画像の撮影領域である第1の撮影領域を含む眼部の広範な撮影領域に係る広範画像に相当するものである。また、この眼底画像を画像記憶部102に記憶する処理を行う画像撮影制御部110は、記憶手段を構成する。
<Step S102>
Subsequently, in step S <b> 102, the image capturing control unit 110 performs processing for acquiring the fundus image captured by the fundus image capturing unit 120 from the fundus image capturing unit 120 and storing the fundus image in the image storage unit 102. Here, the fundus image photographed by the fundus image photographing unit 120 relates to a wide photographing region of the eye part including the first photographing region which is the photographing region of the first tomographic image obtained by the tomographic image obtaining unit 101. It corresponds to a wide image. The image capturing control unit 110 that performs processing for storing the fundus image in the image storage unit 102 constitutes a storage unit.

<ステップS103>
続いて、ステップS103において、第1の撮影領域算出部104は、画像記憶部102に記憶されている眼底画像及び第1の断層画像を用いて、第1の断層画像の撮影領域(第1の撮影領域)の位置を算出する処理を行う。具体的に、例えば、眼底画像の撮影領域の中から、第1の断層画像に相当する領域を第1の撮影領域として算出する。そして、第1の撮影領域算出部104は、第1の撮影領域の位置情報を第3の撮影領域算出部107に出力する。
<Step S103>
Subsequently, in step S103, the first imaging region calculation unit 104 uses the fundus image and the first tomographic image stored in the image storage unit 102 to capture the first tomographic imaging region (the first tomographic image). The processing for calculating the position of the shooting area is performed. Specifically, for example, an area corresponding to the first tomographic image is calculated as the first imaging area from the imaging area of the fundus image. Then, the first shooting area calculation unit 104 outputs the position information of the first shooting area to the third shooting area calculation unit 107.

図8は、上述したように眼底画像の模式図であり、第1の撮影領域803は、眼底画像の眼底画像中での対応領域である。即ち、図8の例では、第1の撮影領域算出部104は、第1の撮影領域803の眼底画像中での位置を算出する。また、本実施形態では、眼底画像中における第1の断層画像の位置によって、断層画像の位置を定義する。このように、眼底画像を利用することによって、第1の断層画像中に含まれていない重要部位に関する処理を正確に行うことができる。このステップS103の処理の詳細については、図4を用いて後述する。   FIG. 8 is a schematic diagram of a fundus image as described above, and the first imaging region 803 is a corresponding region in the fundus image of the fundus image. That is, in the example of FIG. 8, the first imaging region calculation unit 104 calculates the position of the first imaging region 803 in the fundus image. In the present embodiment, the position of the tomographic image is defined by the position of the first tomographic image in the fundus image. In this manner, by using the fundus image, it is possible to accurately perform processing related to an important part that is not included in the first tomographic image. Details of the processing in step S103 will be described later with reference to FIG.

<ステップS104>
続いて、ステップS104において、重要部位の位置抽出部103は、画像記憶部102に記憶されている眼底画像の中から、重要部位の位置を抽出し、この情報を第2の撮影領域算出部108に出力する。
<Step S104>
Subsequently, in step S104, the position extraction unit 103 of the important part extracts the position of the important part from the fundus image stored in the image storage unit 102, and uses this information as the second imaging region calculation unit 108. Output to.

本実施形態では、眼部の黄斑部及び視神経乳頭部の位置を重要部位として抽出(検出)する例について説明を行うが、検出する対象としては眼部の様々な重要部位が考えられ、本例で示す黄斑部と視神経乳頭部の抽出に限定されるものではない。   In this embodiment, an example of extracting (detecting) the position of the macular portion of the eye and the position of the optic nerve head as an important part will be described. However, various important parts of the eye can be considered as targets to be detected. It is not limited to the extraction of the macular portion and the optic papilla shown in FIG.

ここで、ステップS104の処理の詳細について説明する。
まず、重要部位の位置抽出部103は、眼底画像から血管の抽出を行う。この際、血管は細い線状構造を有しているため、重要部位の位置抽出部103は、線状構造を強調するフィルタを用いて血管を抽出する。ここで、線状構造を強調するフィルタとしては、例えば、線分を構造要素としたときに構造要素内での画像濃度値の平均値と構造要素を囲む局所領域内での平均値の差を計算するフィルタを利用する。ただし、このフィルタに限らず、例えばSobelフィルタのような差分フィルタを利用してもよい。また、濃度値画像の画素ごとにヘッセ行列の固有値を計算し、結果として得られる2つの固有値の組み合わせから線分状の領域(即ち血管)を抽出してもよい。さらには、単純に線分を構造要素とするトップハット演算を行ってもよい。
Here, details of the processing in step S104 will be described.
First, the position extraction unit 103 of the important part extracts blood vessels from the fundus image. At this time, since the blood vessel has a thin linear structure, the position extraction unit 103 of the important part extracts the blood vessel using a filter that emphasizes the linear structure. Here, as a filter for emphasizing a linear structure, for example, when a line segment is a structural element, a difference between an average value of image density values in the structural element and an average value in a local region surrounding the structural element is calculated. Use a filter to calculate. However, the present invention is not limited to this filter, and a differential filter such as a Sobel filter may be used. Alternatively, the eigenvalue of the Hessian matrix may be calculated for each pixel of the density value image, and a line segment area (that is, blood vessel) may be extracted from the combination of the two eigenvalues obtained as a result. Furthermore, a top hat calculation may be performed simply using a line segment as a structural element.

本実施形態において重要部位とする視神経乳頭部は、血管が集まっており、且つ、周辺部に比べてその画像の輝度が高い。したがって、重要部位の位置抽出部103は、視神経乳頭部の抽出に際しては、このような画像特徴に注目して抽出を行う。   In the present embodiment, the optic nerve head, which is an important part, has blood vessels, and the brightness of the image is higher than that of the peripheral part. Therefore, when extracting the optic nerve head, the position extraction unit 103 of an important part pays attention to such image features and performs extraction.

また、本実施形態において重要部位とする黄斑部は眼底部のほぼ中央にあり、本実施形態において重要部位とする視神経乳頭部は黄斑部よりも顔の中央寄り、即ち鼻寄りの位置にあり、視神経乳頭部に集まった血管は、黄斑部を取り囲むように走っている。したがって、重要部位の位置抽出部103は、黄斑部及び視神経乳頭部の抽出に際しては、このような解剖学的特徴に注目して抽出を行う。   In addition, the macular portion as an important site in the present embodiment is in the center of the fundus, and the optic nerve head as an important site in the present embodiment is closer to the center of the face than the macula, that is, closer to the nose, Blood vessels gathered in the optic nerve head run so as to surround the macula. Therefore, the position extraction unit 103 of the important part performs the extraction while paying attention to such an anatomical feature when extracting the macula and the optic nerve head.

本実施形態では、重要部位の位置抽出部103は、視神経乳頭部及び黄斑部の位置を抽出し、その位置情報を第2の撮影領域算出部108に出力する。また、図7及び図8の画像中においては、第1の断層画像には黄斑部802が含まれているが視神経乳頭部801は含まれておらず、−x方向に視神経乳頭部801がある。このように、重要部位が第1の断層画像中に含まれているかどうか、また、含まれていない重要部位が、相対的に断層画像を撮影した部分からどちらの方向に含まれているかといった情報も、重要部位の位置抽出部103から第2の撮影領域算出部108に出力する。   In the present embodiment, the position extraction unit 103 of the important part extracts the positions of the optic nerve head and the macula, and outputs the position information to the second imaging region calculation unit 108. In the images of FIGS. 7 and 8, the first tomographic image includes the macular portion 802 but does not include the optic papilla 801, and has the optic papilla 801 in the -x direction. . As described above, information on whether or not an important part is included in the first tomographic image and in which direction the important part not included is relatively included from the part obtained by capturing the tomographic image. Also, the position is extracted from the position extraction unit 103 of the important part to the second imaging region calculation unit 108.

<ステップS105>
続いて、ステップS105において、撮影サイズ取得部105は、断層画像撮影部130から、断層画像(第2の断層画像)を撮影可能な領域のサイズ情報を取得し、これを第3の撮影領域算出部107及び第2の撮影領域算出部108に出力する。
<Step S105>
Subsequently, in step S105, the imaging size acquisition unit 105 acquires size information of an area where the tomographic image (second tomographic image) can be imaged from the tomographic image imaging unit 130, and calculates the third imaging area calculation. Output to the unit 107 and the second imaging region calculation unit 108.

ここで、断層画像撮影部130の撮影可能領域は、図6のx、yのそれぞれの方向のサイズとして表すことが可能である。本実施形態では、第1の断層画像における撮影領域よりも、断層画像撮影部130の撮影可能領域の方が大きいことを前提としている。なお、z方向、つまり、網膜の厚み方向の位置及びサイズに関しては、現状の断層画像撮影部で、一般に十分な厚みの計測が可能である。そのため、従来の断層画像撮影部で一般的に行われているコヒーレンスゲートの自動調節により、網膜の深さ方向の位置を調整することによって、全網膜層を撮影可能である。この際、コヒーレンスゲートの調整は、手動で行ってもよい。   Here, the imageable area of the tomographic image imaging unit 130 can be expressed as the sizes in the x and y directions in FIG. In the present embodiment, it is assumed that the photographic area of the tomographic image photographing unit 130 is larger than the photographic area in the first tomographic image. In addition, regarding the position and size in the z direction, that is, the thickness direction of the retina, it is generally possible to measure a sufficient thickness with the current tomographic imaging unit. Therefore, the entire retinal layer can be imaged by adjusting the position of the retina in the depth direction by automatic adjustment of a coherence gate generally performed in a conventional tomographic imaging unit. At this time, the coherence gate may be adjusted manually.

<ステップS106>
続いて、ステップS106において、第3の撮影領域算出部107は、第1の撮影領域算出部104からの第1の撮影領域の位置情報、撮影サイズ取得部105からの撮影可能サイズ情報及び撮影誤差取得部106からの撮影誤差情報に基づいて、第1の撮影領域における周囲の領域である第3の撮影領域の位置を算出する。ここで、第3の撮影領域は、第1の撮影領域の周囲に、撮影誤差と同じか、それよりも大きな幅の領域を有するように算出される。そして、第3の撮影領域算出部107は、撮影誤差を考慮した第3の撮影領域の位置情報を第2の撮影領域算出部108に出力する。
<Step S106>
Subsequently, in step S106, the third shooting area calculation unit 107 detects the position information of the first shooting area from the first shooting area calculation unit 104, the shootable size information from the shooting size acquisition unit 105, and the shooting error. Based on the photographing error information from the acquisition unit 106, the position of the third photographing region, which is a surrounding region in the first photographing region, is calculated. Here, the third imaging area is calculated so as to have an area having a width equal to or larger than the imaging error around the first imaging area. Then, the third shooting area calculation unit 107 outputs position information of the third shooting area in consideration of shooting errors to the second shooting area calculation unit 108.

ここで、ステップS106の処理の具体例を説明する。
例えば、第1の撮影領域の位置を(x1、y1)、第1の撮影領域のサイズを(x1w、y1w)とする。
断層画像撮影部130において指定した位置から撮影誤差が(xd、yd)であるとし、当該撮影誤差を考慮した第3の撮影領域804の位置を(xr、yr)、そのサイズを(xrw、yrw)とする。すると、第3の撮影領域804の位置(xr、yr)、及び、そのサイズ(xrw、yrw)は、以下の(1)式、(2)式、(3)式、及び、(4)式により計算することができる。
xr=x1−xd ・・・ (1)
yr=y1−yd ・・・ (2)
xrw=x1w+xd*2 ・・・ (3)
yrw=y1w+yd*2 ・・・ (4)
Here, a specific example of the process of step S106 will be described.
For example, the position of the first imaging area is (x1, y1), and the size of the first imaging area is (x1w, y1w).
Assume that the imaging error is (xd, yd) from the position specified in the tomographic imaging unit 130, the position of the third imaging region 804 considering the imaging error is (xr, yr), and the size is (xrw, yrw). ). Then, the position (xr, yr) and the size (xrw, yrw) of the third imaging region 804 are expressed by the following equations (1), (2), (3), and (4). Can be calculated.
xr = x1-xd (1)
yr = y1-yd (2)
xrw = x1w + xd * 2 (3)
yrw = y1w + yd * 2 (4)

つまり、第1の撮影領域の周囲には、x方向にxd、y方向にydの誤差を吸収するための撮影領域(第3の撮影領域)が確保される。仮に、撮影誤差を考慮した第3の撮影領域804を断層画像撮影部130に撮影領域として撮影指示すれば、撮影時の誤差があっても過去画像と同じ領域が含まれる断層画像を取得することが可能である。なお、もし断層画像撮影部130における位置ずれによる撮影誤差が、画像診断上無視できる場合には、第3の撮影領域算出部107は、第1の撮影領域算出部104から入力された位置情報をそのまま第2の撮影領域算出部108に出力する。   That is, an imaging region (third imaging region) for absorbing an error of xd in the x direction and yd in the y direction is secured around the first imaging region. If the third imaging region 804 considering the imaging error is indicated as an imaging region to the tomographic image imaging unit 130, a tomographic image including the same region as the past image is obtained even if there is an error in imaging. Is possible. Note that if the imaging error due to the positional shift in the tomographic imaging unit 130 can be ignored in the image diagnosis, the third imaging region calculation unit 107 uses the positional information input from the first imaging region calculation unit 104. The data is output to the second imaging area calculation unit 108 as it is.

<ステップS107>
続いて、ステップS107において、第2の撮影領域算出部108は、まず、第3の撮影領域算出部107から必ず含むべき第3の撮影領域の位置情報を取得する。同様に、第2の撮影領域算出部108は、撮影サイズ取得部105から撮影可能なサイズ情報(最大撮影サイズ情報)を取得し、重要部位の位置抽出部103から実際の撮影領域に加えたい重要部位の位置情報を取得する。そして、第2の撮影領域算出部108は、これらの取得した情報を用いて、断層画像撮影部130において実際に撮影を行う第2の撮影領域の位置を算出し、この情報を撮影指示部109に出力する。
<Step S107>
Subsequently, in step S <b> 107, the second imaging area calculation unit 108 first acquires position information of the third imaging area that should be included from the third imaging area calculation unit 107. Similarly, the second imaging area calculation unit 108 acquires the size information (maximum imaging size information) that can be imaged from the imaging size acquisition unit 105, and adds the important area to the actual imaging area from the important part position extraction unit 103. Acquire location information of the part. Then, using the acquired information, the second imaging area calculation unit 108 calculates the position of the second imaging area where the tomographic image imaging unit 130 actually performs imaging, and uses this information as the imaging instruction unit 109. Output to.

ここで、ステップS107の処理の具体例を説明する。
第2の撮影領域算出部108は、第3の撮影領域算出部107からの第3の撮影領域(図8の804)を第1の断層画像に含まれていない重要部位の方向に領域を拡大して、第2の撮影領域の位置を算出する。例えば、撮影サイズ取得部105で取得した断層画像撮影部130で撮影可能なサイズを(x2w、y2w)とすると、撮影拡大可能なx方向、y方向の大きさ(xe、ye)は、以下の(5)式及び(6)式により計算することができる。
xe=x2w−xrw ・・・ (5)
ye=y2w−yrw ・・・ (6)
Here, a specific example of the process of step S107 will be described.
The second imaging region calculation unit 108 enlarges the third imaging region (804 in FIG. 8) from the third imaging region calculation unit 107 in the direction of the important part not included in the first tomographic image. Then, the position of the second imaging region is calculated. For example, when the size that can be captured by the tomographic image capturing unit 130 acquired by the capturing size acquisition unit 105 is (x2w, y2w), the size in the x direction and the y direction (xe, ye) that can be expanded is as follows. It can be calculated by the equations (5) and (6).
xe = x2w−xrw (5)
ye = y2w−yrw (6)

本実施形態における第1の断層画像の例では、重要部位のうち、黄斑部が含まれる一方で視神経乳頭部は含まれていないため、ここでは、−x方向に視神経乳頭部があることが検出されている。そのため、第2の撮影領域算出部108は、第3の撮影領域に対して、y方向に関しては正負均等に撮影領域を拡張し、また、x方向に関しては負の方向に撮影領域を拡張して、第2の撮影領域の位置を算出する。具体的に、第2の撮影領域を(x2、y2)とすると、以下の(7)式及び(8)式により計算することができる。
x2=xr−xe ・・・ (7)
y2=yr−(ye/2) ・・・ (8)
In the example of the first tomographic image in the present embodiment, among the important parts, the macular portion is included but the optic papilla is not included. Therefore, it is detected here that the optic papilla is in the −x direction. Has been. Therefore, the second imaging area calculation unit 108 extends the imaging area in the positive and negative directions in the y direction and extends the imaging area in the negative direction in the x direction with respect to the third imaging area. Then, the position of the second imaging region is calculated. Specifically, when the second imaging region is (x2, y2), it can be calculated by the following equations (7) and (8).
x2 = xr−xe (7)
y2 = yr− (ye / 2) (8)

ここで、図8に示す眼底画像中では、第2の撮影領域805の部分に対応する撮影領域の位置が算出されることになる。   Here, in the fundus image shown in FIG. 8, the position of the imaging region corresponding to the portion of the second imaging region 805 is calculated.

<ステップS108>
続いて、ステップS108において、撮影指示部109は、断層画像撮影部130及び眼底画像撮影部120を制御して、第2の撮影領域算出部108で算出された第2の撮影領域に対応する眼部の領域の画像の撮影を行う。このステップS108の処理により、断層画像撮影部130で撮影された断層画像は、第2の断層画像を構成する。
<Step S108>
Subsequently, in step S108, the imaging instruction unit 109 controls the tomographic image imaging unit 130 and the fundus image imaging unit 120 to correspond to the eye corresponding to the second imaging area calculated by the second imaging area calculation unit 108. The image of the area is taken. By the processing in step S108, the tomographic image captured by the tomographic image capturing unit 130 forms a second tomographic image.

なお、本実施形態において、断層画像撮影部130は、眼底画像撮影部120と連動しており、例えば特許文献1に示されている方法により、眼底画像中の特定の位置の断層画像を撮影することができるように構成されている。また、断層画像撮影部130は、眼底画像中における任意の位置の断層画像が撮影可能であれば、どのような方式によって、断層画像の撮影位置決めを行ってもよい。   In the present embodiment, the tomographic image capturing unit 130 is linked to the fundus image capturing unit 120 and captures a tomographic image at a specific position in the fundus image, for example, by the method disclosed in Patent Document 1. It is configured to be able to. Further, the tomographic image capturing unit 130 may perform tomographic image positioning by any method as long as a tomographic image at an arbitrary position in the fundus image can be captured.

次に、図3のステップS103における第1の撮影領域の位置算出処理の詳細な処理について説明する。   Next, detailed processing of the position calculation processing of the first imaging region in step S103 of FIG. 3 will be described.

図4は、図3のステップS103における第1の撮影領域の位置算出処理の詳細な処理手順の一例を示すフローチャートである。以下、図2に示す第1の撮影領域算出部104の各構成部の説明とともに、図4のフローチャートの説明を行う。   FIG. 4 is a flowchart illustrating an example of a detailed processing procedure of the position calculation process of the first imaging region in step S103 of FIG. Hereinafter, the flowchart of FIG. 4 will be described together with the description of each component of the first imaging region calculation unit 104 shown in FIG.

<ステップS201>
積算画像作成部1041は、画像記憶部102に記憶されている眼底画像と断層画像(第1の断層画像)との位置合わせを行うために、各断面画像(例えばB−scan画像)を深度方向に積算した積算画像を作成する処理を行う。そして、積算画像作成部1041は、作成した積算画像を断層画像特徴抽出部1042に出力する。
<Step S201>
The accumulated image creation unit 1041 performs the cross-sectional image (for example, B-scan image) in the depth direction in order to align the fundus image stored in the image storage unit 102 and the tomographic image (first tomographic image). A process of creating an integrated image integrated in the above is performed. Then, the accumulated image creation unit 1041 outputs the created accumulated image to the tomographic image feature extraction unit 1042.

図6には、上述したように、眼部の網膜における黄斑部の断面画像T1〜Tnが示されており、図7には、上述したように、図6の断面画像T1〜Tnから作成した積算画像が示されている。ここで、深度方向とは、図6のz方向であり、また、深度方向に積算する処理とは、図6のz方向の各深度位置における光強度(輝度値)を足し合わせる処理である。なお、事前に網膜層全体の検出が可能な場合には、ステップS201において、網膜層内の任意の層のみ加算し、より明瞭な積算画像を生成してもよい。 As described above, FIG. 6 shows cross-sectional images T 1 to T n of the macula in the retina of the eye, and FIG. 7 shows cross-sectional images T 1 to T of FIG. 6 as described above. The accumulated image created from n is shown. Here, the depth direction is the z direction in FIG. 6, and the process of integrating in the depth direction is a process of adding the light intensity (luminance value) at each depth position in the z direction of FIG. If the entire retinal layer can be detected in advance, only an arbitrary layer within the retinal layer may be added in step S201 to generate a clearer integrated image.

ここで、図7の積算画像内の曲線は血管を示しており、また、画像中心の円形は黄斑部を示している。眼底の断層画像において、血管がある場所は、血管より深部の位置における光の反射光強度は弱くなりやすく、z方向に積算した値は、血管がない場所に比べて小さくなることが知られている。そのため、積算画像を作成することで、血管とそれ以外とでコントラストのある画像を得ることができる。   Here, the curve in the integrated image in FIG. 7 indicates a blood vessel, and the circle at the center of the image indicates a macular portion. In a fundus tomographic image, it is known that the reflected light intensity of light at a position deeper than the blood vessel tends to be weak in a place where there is a blood vessel, and the value integrated in the z direction is smaller than the place where there is no blood vessel. Yes. Therefore, by creating an integrated image, it is possible to obtain an image having a contrast between the blood vessel and the rest.

<ステップS202>
続いて、ステップS202において、断層画像特徴抽出部1042及び眼底画像特徴抽出部1043は、それぞれ、第1の断層画像及び眼底画像の特徴を抽出する処理を行う。
<Step S202>
Subsequently, in step S202, the tomographic image feature extraction unit 1042 and the fundus image feature extraction unit 1043 perform processing for extracting features of the first tomographic image and fundus image, respectively.

断層画像特徴抽出部1042は、積算画像作成部1041で作成された、第1の断層画像の積算画像に対して特徴抽出を行い、この情報を位置合わせ部1044に出力する。   The tomographic image feature extraction unit 1042 performs feature extraction on the accumulated image of the first tomographic image created by the accumulated image creation unit 1041 and outputs this information to the alignment unit 1044.

具体的に、断層画像特徴抽出部1042は、特徴抽出として血管抽出を行う。この際、血管は細い線状構造を有しているため、断層画像特徴抽出部1042は、線状構造を強調するフィルタを用いて血管を抽出する。ここで、線状構造を強調するフィルタとしては、例えば、線分を構造要素としたときに構造要素内での画像濃度値の平均値と構造要素を囲む局所領域内での平均値の差を計算するフィルタを利用する。ただし、このフィルタに限らず、例えばSobelフィルタのような差分フィルタを利用してもよい。また、濃度値画像の画素ごとにヘッセ行列の固有値を計算し、結果として得られる2つの固有値の組み合わせから線分状の領域(即ち血管)を抽出してもよい。さらには、単純に線分を構造要素とするトップハット演算でもよい。   Specifically, the tomographic image feature extraction unit 1042 performs blood vessel extraction as feature extraction. At this time, since the blood vessel has a thin linear structure, the tomographic image feature extraction unit 1042 extracts the blood vessel using a filter that emphasizes the linear structure. Here, as a filter for emphasizing a linear structure, for example, when a line segment is a structural element, a difference between an average value of image density values in the structural element and an average value in a local region surrounding the structural element is calculated. Use a filter to calculate. However, the present invention is not limited to this filter, and a differential filter such as a Sobel filter may be used. Alternatively, the eigenvalue of the Hessian matrix may be calculated for each pixel of the density value image, and a line segment area (that is, blood vessel) may be extracted from the combination of the two eigenvalues obtained as a result. Furthermore, a top-hat operation using a line segment as a structural element may be used.

一方、眼底画像特徴抽出部1043は、画像記憶部102から入力した眼底画像に対して特徴抽出を行い、この情報を位置合わせ部1044に出力する。   On the other hand, the fundus image feature extraction unit 1043 performs feature extraction on the fundus image input from the image storage unit 102, and outputs this information to the alignment unit 1044.

具体的に、眼底画像特徴抽出部1043は、断層画像特徴抽出部1042と同様に、特徴抽出として血管抽出を行う。
この際、血管は細い線状構造を有しているため、眼底画像特徴抽出部1043は、線状構造を強調するフィルタを用いて血管を抽出する。ここで、線状構造を強調するフィルタとしては、例えば、線分を構造要素としたときに構造要素内での画像濃度値の平均値と構造要素を囲む局所領域内での平均値の差を計算するフィルタを利用する。ただし、このフィルタに限らず、例えばSobelフィルタのような差分フィルタを利用してもよい。また、濃度値画像の画素ごとにヘッセ行列の固有値を計算し、結果として得られる2つの固有値の組み合わせから線分状の領域(即ち血管)を抽出してもよい。さらには、単純に線分を構造要素とするトップハット演算でもよい。
Specifically, the fundus image feature extraction unit 1043 performs blood vessel extraction as feature extraction in the same manner as the tomographic image feature extraction unit 1042.
At this time, since the blood vessel has a thin linear structure, the fundus image feature extraction unit 1043 extracts the blood vessel using a filter that emphasizes the linear structure. Here, as a filter for emphasizing a linear structure, for example, when a line segment is a structural element, a difference between an average value of image density values in the structural element and an average value in a local region surrounding the structural element is calculated. Use a filter to calculate. However, the present invention is not limited to this filter, and a differential filter such as a Sobel filter may be used. Alternatively, the eigenvalue of the Hessian matrix may be calculated for each pixel of the density value image, and a line segment area (that is, blood vessel) may be extracted from the combination of the two eigenvalues obtained as a result. Furthermore, a top-hat operation using a line segment as a structural element may be used.

<ステップS203>
続いて、ステップS203において、位置合わせ部1044は、断層画像特徴抽出部1042で抽出された断層画像の特徴と、眼底画像特徴抽出部1043で抽出された眼底画像の特徴とに基づいて、位置合わせの処理を行う。これにより、第1の撮影領域の位置が定まることになる。
<Step S203>
Subsequently, in step S203, the registration unit 1044 performs registration based on the feature of the tomographic image extracted by the tomographic image feature extraction unit 1042 and the feature of the fundus image extracted by the fundus image feature extraction unit 1043. Perform the process. As a result, the position of the first imaging region is determined.

この位置合わせ部1044による位置合わせ処理の結果は、眼底画像を基準画像とした、積算画像のスケール(Sx、Sy)、位置座標(x、y)、回転(rot)のパラメータからなる第1の撮影領域の位置情報として第3の撮影領域算出部107に出力される。 The result of the alignment process by the alignment unit 1044 is a first image including parameters of scale (S x , S y ), position coordinates (x, y), and rotation (rot) of the accumulated image using the fundus image as a reference image. The position information of one shooting area is output to the third shooting area calculation unit 107.

位置合わせ部1044では、画像同士の位置を合わせるため、本実施形態では、解剖学的に特徴的な領域として血管を用いている。具体的に、位置合わせ部1044は、積算画像と眼底画像からそれぞれ抽出された血管を用いて、画像間の位置合わせを行う。この位置合わせを行う際には、2つの画像間の類似度を表す評価値を事前に定義し、この評価値が最も良くなるように画像の変形を行う。評価値としては、前段の処理で得られた積算画像の血管領域と眼底画像の血管領域のと重なりの程度を表す値や、血管の分岐部など特徴的な幾何形状を有する領域に注目した時の対応ランドマーク間の距離などが利用できる。また、本実施形態では、解剖学的に特徴的な領域として血管を利用したが、視神経乳頭領域のようなその他の解剖学的特徴や、疾患により生じた白斑や出血領域を利用しても良い。さらに、血管などの解剖学的特徴にのみ注目するのではなく、画像全体から計算される評価値、例えば輝度値の平均2乗誤差、相関係数、相互情報量なども利用可能である。   In the alignment unit 1044, in order to align the positions of the images, in this embodiment, blood vessels are used as anatomically characteristic regions. Specifically, the registration unit 1044 performs registration between images using blood vessels extracted from the accumulated image and the fundus image. When this alignment is performed, an evaluation value representing the similarity between two images is defined in advance, and the image is deformed so that the evaluation value becomes the best. As the evaluation value, attention is paid to a value indicating the degree of overlap between the blood vessel region of the accumulated image and the blood vessel region of the fundus image obtained in the previous stage, or a region having a characteristic geometric shape such as a blood vessel bifurcation. The distance between corresponding landmarks can be used. In this embodiment, blood vessels are used as anatomically characteristic regions. However, other anatomical features such as the optic nerve head region, vitiligo and bleeding regions caused by diseases may be used. . Further, not only attention is paid to anatomical features such as blood vessels, but evaluation values calculated from the entire image, for example, mean square error of luminance values, correlation coefficient, mutual information amount, and the like can also be used.

次に、図1の画像撮影制御部110に適用可能なハードウェア構成について説明する。
図5は、図1の画像撮影制御部110に適用可能なハードウェア構成の一例を示す模式図である。
Next, a hardware configuration applicable to the image capturing control unit 110 in FIG. 1 will be described.
FIG. 5 is a schematic diagram illustrating an example of a hardware configuration applicable to the image capturing control unit 110 in FIG.

画像撮影制御部110は、例えば、図5に示すように、CPU501、RAM502、ROM503、外部記憶装置504、モニタ505、キーボード506、マウス507、インターフェイス508、及び、バス509のハードウェア構成を有して構成される。   For example, as shown in FIG. 5, the image capturing control unit 110 has a hardware configuration of a CPU 501, a RAM 502, a ROM 503, an external storage device 504, a monitor 505, a keyboard 506, a mouse 507, an interface 508, and a bus 509. Configured.

ここで、図1の断層画像取得部101、撮影サイズ取得部105、撮影誤差取得部106、撮影指示部109及び画像情報出力部111は、例えば、図5のCPU501及び外部記憶装置504のプログラム並びにインターフェイス508から構成される。また、図1の画像記憶部102は、例えば、図5のRAM502、ROM503或いは外部記憶装置504から構成される。また、図1の重要部位の位置抽出部103、第1の撮影領域算出部104、第3の撮影領域算出部107及び第2の撮影領域算出部108は、例えば、図5のCPU501及び外部記憶装置504のプログラムから構成される。また、図1の画像表示部112は、例えば、図5のモニタ505から構成される。   Here, the tomographic image acquisition unit 101, the imaging size acquisition unit 105, the imaging error acquisition unit 106, the imaging instruction unit 109, and the image information output unit 111 in FIG. 1 are, for example, programs of the CPU 501 and the external storage device 504 in FIG. The interface 508 is configured. The image storage unit 102 in FIG. 1 includes, for example, the RAM 502, the ROM 503, or the external storage device 504 in FIG. Further, the position extraction unit 103, the first imaging region calculation unit 104, the third imaging region calculation unit 107, and the second imaging region calculation unit 108 in FIG. 1 are, for example, the CPU 501 and the external storage in FIG. The program of the device 504 is configured. Further, the image display unit 112 in FIG. 1 includes, for example, the monitor 505 in FIG.

CPU501は、例えばROM503或いは外部記憶装置504に格納されたプログラムやデータを用いて、画像撮影制御部110全体の制御を行う。   The CPU 501 controls the entire image capturing control unit 110 using programs and data stored in the ROM 503 or the external storage device 504, for example.

RAM502は、ROM503或いは外部記憶装置504からロードされたプログラムやデータを一時的に記憶するエリアを備えるとともに、CPU501が各種の処理を行うために必要とするワークエリアを備える。   The RAM 502 includes an area for temporarily storing programs and data loaded from the ROM 503 or the external storage device 504, and a work area necessary for the CPU 501 to perform various processes.

ROM503は、一般にコンピュータのBIOSや設定データなどを格納している。外部記憶装置504は、ハードディスクドライブなどの大容量情報記憶装置として機能する装置であって、ここにオペレーティングシステム(OS)やCPU501が実行するプログラム等が保存されている。また、本実施形態の説明において既知としている情報は、外部記憶装置504に保存されており、必要に応じてRAM502にロードされる。   The ROM 503 generally stores a computer BIOS and setting data. The external storage device 504 is a device that functions as a large-capacity information storage device such as a hard disk drive, and stores an operating system (OS), a program executed by the CPU 501, and the like. Information known in the description of the present embodiment is stored in the external storage device 504 and loaded into the RAM 502 as necessary.

モニタ505は、液晶ディスプレイなどにより構成されており、CPU501の制御に基づいて、各種の情報や画像を表示する。   The monitor 505 is composed of a liquid crystal display or the like, and displays various information and images based on the control of the CPU 501.

キーボード506及びマウス507は、入力デバイスであり、操作者は、これらを用いて、各種の指示を画像撮影制御部110に与えることができる。   A keyboard 506 and a mouse 507 are input devices, and an operator can give various instructions to the image capturing control unit 110 using these devices.

インターフェイス508は、画像撮影制御部110と外部の機器(例えば、眼底画像撮影部120及び断層画像撮影部130や、LAN200を介した画像データベース300)との間で各種の情報やデータの送受信を行うためのものである。例えば、インターフェイス508は、IEEE1394やUSB、イーサネットポート(登録商標)等によって構成される。また、インターフェイス508を介して取得された各種の情報やデータは、外部記憶装置504に記憶され、必要に応じて、RAM502にロードされる。また、バス509は、上述した各構成部(501〜508)を相互に通信可能に接続する。   The interface 508 transmits and receives various types of information and data between the image capturing control unit 110 and external devices (for example, the fundus image capturing unit 120, the tomographic image capturing unit 130, and the image database 300 via the LAN 200). Is for. For example, the interface 508 is configured by IEEE 1394, USB, Ethernet port (registered trademark), or the like. Various information and data acquired through the interface 508 are stored in the external storage device 504 and loaded into the RAM 502 as necessary. The bus 509 connects the above-described components (501 to 508) so that they can communicate with each other.

本実施形態の眼部画像撮影装置100によれば、過去画像が存在し、より広い領域の撮影が可能な場合に、過去画像との比較による経過観察が可能であり、且つ、診断に有効な撮影領域の設定が可能である。診断に有効な撮影領域の設定の際に、撮影時の位置ずれ誤差を考慮しているため、過去画像における撮影領域を確実に撮影することができる。   According to the eye image capturing apparatus 100 of the present embodiment, when a past image exists and a wider area can be captured, follow-up observation by comparison with the past image is possible and effective for diagnosis. The shooting area can be set. When setting an imaging region effective for diagnosis, since a positional deviation error at the time of imaging is taken into consideration, the imaging region in the past image can be reliably captured.

(本発明の他の実施形態)
前述した本発明の実施形態に係る眼部画像撮影装置100を構成する図1の各手段は、コンピュータのCPU501が外部記憶装置504に記憶されているプログラムを実行することによって実現できる。同様に、眼部画像撮影装置100の制御方法を示す図3及び図4の各ステップは、コンピュータのCPU501が外部記憶装置504に記憶されているプログラムを実行することによって実現できる。このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記録媒体は本発明に含まれる。
(Other embodiments of the present invention)
1 constituting the eye image capturing apparatus 100 according to the embodiment of the present invention described above can be realized by the CPU 501 of the computer executing a program stored in the external storage device 504. Similarly, each step of FIG. 3 and FIG. 4 showing the control method of the eye image capturing device 100 can be realized by the CPU 501 of the computer executing a program stored in the external storage device 504. This program and a computer-readable recording medium storing the program are included in the present invention.

また、本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。   In addition, the present invention can be implemented as, for example, a system, apparatus, method, program, storage medium, or the like. Specifically, the present invention may be applied to a system including a plurality of devices. You may apply to the apparatus which consists of one apparatus.

なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラム(実施形態では図3及び図4に示すフローチャートに対応したプログラム)を、システム或いは装置に直接、或いは遠隔から供給するものを含む。そして、そのシステム或いは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合も本発明に含まれる。   In the present invention, a software program (in the embodiment, a program corresponding to the flowcharts shown in FIGS. 3 and 4) for supplying the functions of the above-described embodiment is supplied directly or remotely to a system or apparatus. Including. The present invention also includes a case where the system or the computer of the apparatus is achieved by reading and executing the supplied program code.

したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。   In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, and the like.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RWなどがある。また、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などもある。   Examples of the recording medium for supplying the program include a flexible disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, and CD-RW. In addition, there are magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R), and the like.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、前記ホームページから本発明のコンピュータプログラムそのもの、若しくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。   As another program supply method, a browser on a client computer is used to connect to an Internet home page. The computer program itself of the present invention or a compressed file including an automatic installation function can be downloaded from the homepage by downloading it to a recording medium such as a hard disk.

また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, the present invention includes a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer.

また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、ダウンロードした鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. Let The downloaded key information can be used to execute the encrypted program and install it on the computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。   Further, the functions of the above-described embodiments are realized by the computer executing the read program. In addition, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can also be realized by the processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。   Further, the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments are realized by the processing.

なお、前述した実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

10:眼部画像撮影システム(画像処理システム)、100:眼部画像撮影装置(画像処理装置)、101:断層画像取得部、102:画像記憶部、103:重要部位の位置抽出部、104:第1の撮影領域算出部、105:撮影サイズ取得部、106:撮影誤差取得部、107:第3の撮影領域算出部、108:第2の撮影領域算出部、109:撮影指示部、110:画像撮影制御部、111:画像情報出力部、112:画像表示部、120:眼底画像撮影部、130:断層画像撮影部、200:LAN、300:画像データベース 10: eye image capturing system (image processing system), 100: eye image capturing device (image processing device), 101: tomographic image acquisition unit, 102: image storage unit, 103: position extraction unit of important part, 104: First imaging area calculation unit, 105: imaging size acquisition unit, 106: imaging error acquisition unit, 107: third imaging area calculation unit, 108: second imaging area calculation unit, 109: imaging instruction unit, 110: Image capturing control unit 111: Image information output unit 112: Image display unit 120: Fundus image capturing unit 130: Tomographic image capturing unit 200: LAN 300: Image database

Claims (8)

過去に撮影された被写体の第1の断層画像を取得する断層画像取得手段と、
前記第1の断層画像の撮影領域である第1の撮影領域を含む前記被写体の広範な撮影領域に係る広範画像を画像記憶部に記憶する記憶手段と、
前記第1の断層画像と前記広範画像を用いて、前記第1の撮影領域を算出する第1の撮影領域算出手段と、
前記広範画像の中から、前記被写体の重要部位の位置を抽出する重要部位の位置抽出手段と、
前記被写体の第2の撮影領域における断層画像を撮影する断層画像撮影手段と、
前記断層画像撮影手段で撮影可能な撮影サイズの情報を取得する撮影サイズ取得手段と、
前記第1の撮影領域の情報、前記重要部位の位置の情報、及び、前記撮影サイズの情報に基づいて、前記第2の撮影領域を算出する第2の撮影領域算出手段と
を有することを特徴とする画像処理装置。
A tomographic image acquisition means for acquiring a first tomographic image of a subject photographed in the past;
Storage means for storing, in an image storage unit, a wide-area image relating to a wide imaging area of the subject including the first imaging area that is the imaging area of the first tomographic image;
First imaging area calculation means for calculating the first imaging area using the first tomographic image and the broad image;
An important part position extracting means for extracting an important part position of the subject from the wide image;
Tomographic image photographing means for photographing a tomographic image in a second photographing region of the subject;
Imaging size acquisition means for acquiring imaging size information that can be captured by the tomographic image imaging means;
And second imaging area calculation means for calculating the second imaging area based on the information on the first imaging area, the information on the position of the important part, and the information on the imaging size. An image processing apparatus.
前記被写体は、眼部であり、
前記重要部位の位置抽出手段は、前記重要部位として、少なくとも、前記眼部の黄斑部または視神経乳頭部における位置を算出することを特徴とする請求項1に記載の画像処理装置。
The subject is an eye;
The image processing apparatus according to claim 1, wherein the position extraction unit of the important part calculates at least a position of the eye in the macula or optic papilla as the important part.
前記第2の撮影領域算出手段は、前記第1の撮影領域を含むとともに、前記第1の撮影領域に含まれていない前記重要部位の方向に撮影領域を拡大した撮影領域を前記第2の撮影領域として算出することを特徴とする請求項1又は2に記載の画像処理装置。   The second imaging region calculation means includes the first imaging region and an imaging region that is an enlarged imaging region in the direction of the important part not included in the first imaging region. The image processing apparatus according to claim 1, wherein the image processing apparatus calculates the area. 前記断層画像撮影手段の撮影誤差を取得する撮影誤差取得手段と、
前記第1の撮影領域を含むとともに、前記第1の撮影領域の周囲に前記撮影誤差に基づく領域を設けた第3の撮影領域を算出する第3の撮影領域算出手段と
を更に有し、
前記第2の撮影領域算出手段は、前記第3の撮影領域の情報、前記重要部位の位置の情報、及び、前記撮影サイズの情報を用いて、前記第2の撮影領域を算出することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
An imaging error acquisition means for acquiring an imaging error of the tomographic image imaging means;
A third imaging area calculating means for calculating a third imaging area including the first imaging area and providing an area based on the imaging error around the first imaging area;
The second imaging region calculation means calculates the second imaging region using the information of the third imaging region, the information of the position of the important part, and the information of the imaging size. The image processing apparatus according to any one of claims 1 to 3.
画像の処理を行う画像処理装置の制御方法であって、
過去に撮影された被写体の第1の断層画像を取得する断層画像取得ステップと、
前記第1の断層画像の撮影領域である第1の撮影領域を含む前記被写体の広範な撮影領域に係る広範画像を画像記憶部に記憶する記憶ステップと、
前記第1の断層画像と前記広範画像を用いて、前記第1の撮影領域を算出する第1の撮影領域算出ステップと、
前記広範画像の中から、前記被写体の重要部位の位置を抽出する重要部位の位置抽出ステップと、
前記被写体の第2の撮影領域における断層画像を撮影する断層画像撮影手段から、当該断層画像撮影手段で撮影可能な撮影サイズの情報を取得する撮影サイズ取得ステップと、
前記第1の撮影領域の情報、前記重要部位の位置の情報、及び、前記撮影サイズの情報に基づいて、前記第2の撮影領域を算出する第2の撮影領域算出ステップと
を有することを特徴とする画像処理装置の制御方法。
A control method for an image processing apparatus that performs image processing,
A tomographic image acquisition step of acquiring a first tomographic image of a subject photographed in the past;
A storage step of storing, in an image storage unit, a wide-area image relating to a wide imaging area of the subject including a first imaging area that is an imaging area of the first tomographic image;
A first imaging region calculation step of calculating the first imaging region using the first tomographic image and the wide-range image;
An important part position extracting step for extracting an important part position of the subject from the wide image; and
An imaging size acquisition step of acquiring information on imaging size that can be imaged by the tomographic image imaging means from the tomographic image imaging means for imaging the tomographic image in the second imaging area of the subject;
And a second imaging region calculation step of calculating the second imaging region based on the information on the first imaging region, the information on the position of the important part, and the information on the imaging size. A control method of the image processing apparatus.
請求項1乃至4のいずれか1項に記載の画像処理装置の各手段としてコンピュータを機能させるためのプログラム。   The program for functioning a computer as each means of the image processing apparatus of any one of Claims 1 thru | or 4. 請求項5に記載の画像処理装置の制御方法の各ステップをコンピュータに実行させるためのプログラム。   A program for causing a computer to execute each step of the control method of the image processing apparatus according to claim 5. 請求項6又は7に記載のプログラムを記憶したことを特徴とするコンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 6 or 7.
JP2009112983A 2009-05-07 2009-05-07 Image processing apparatus, control method therefor, and program Expired - Fee Related JP5404167B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009112983A JP5404167B2 (en) 2009-05-07 2009-05-07 Image processing apparatus, control method therefor, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009112983A JP5404167B2 (en) 2009-05-07 2009-05-07 Image processing apparatus, control method therefor, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013226839A Division JP5730375B2 (en) 2013-10-31 2013-10-31 Image processing apparatus, control method therefor, and program

Publications (2)

Publication Number Publication Date
JP2010259629A true JP2010259629A (en) 2010-11-18
JP5404167B2 JP5404167B2 (en) 2014-01-29

Family

ID=43358242

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009112983A Expired - Fee Related JP5404167B2 (en) 2009-05-07 2009-05-07 Image processing apparatus, control method therefor, and program

Country Status (1)

Country Link
JP (1) JP5404167B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012213466A (en) * 2011-03-31 2012-11-08 Canon Inc Optical coherence tomography apparatus, method for controlling optical coherence tomography apparatus, program, and ophthalmologic system
JP2013059551A (en) * 2011-09-14 2013-04-04 Topcon Corp Fundus observation apparatus
US20140013847A1 (en) * 2012-07-13 2014-01-16 Sicpa Holding Sa Method and system for authenticating a timepiece
JP2015195950A (en) * 2014-04-01 2015-11-09 キヤノン株式会社 Ophthalmologic apparatus and control method
US9465367B2 (en) 2012-07-13 2016-10-11 Sicpa Holding Sa Method and system for authenticating using external excitation
JP2017056050A (en) * 2015-09-17 2017-03-23 キヤノン株式会社 Ophthalmic apparatus and control method therefor, and program
EP2458550A3 (en) * 2010-11-26 2017-04-12 Canon Kabushiki Kaisha Analysis of retinal images
US9772607B2 (en) 2013-08-23 2017-09-26 Sicpa Holding Sa Method and system for authenticating a device
US10251547B2 (en) 2015-01-08 2019-04-09 Canon Kabushiki Kaisha Ophthalmic apparatus, control method, and computer readable storage medium
US10331086B2 (en) 2012-07-13 2019-06-25 Sicpa Holding Sa Method and system for authenticating a timepiece

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007325831A (en) * 2006-06-09 2007-12-20 Topcon Corp Fundus observation apparatus, ophthalmologic image processing apparatus, and ophthalmologic image processing program
JP2008029467A (en) * 2006-07-27 2008-02-14 Nidek Co Ltd Ophthalmic photographing apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007325831A (en) * 2006-06-09 2007-12-20 Topcon Corp Fundus observation apparatus, ophthalmologic image processing apparatus, and ophthalmologic image processing program
JP2008029467A (en) * 2006-07-27 2008-02-14 Nidek Co Ltd Ophthalmic photographing apparatus

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2458550A3 (en) * 2010-11-26 2017-04-12 Canon Kabushiki Kaisha Analysis of retinal images
JP2012213466A (en) * 2011-03-31 2012-11-08 Canon Inc Optical coherence tomography apparatus, method for controlling optical coherence tomography apparatus, program, and ophthalmologic system
JP2013059551A (en) * 2011-09-14 2013-04-04 Topcon Corp Fundus observation apparatus
US9545201B2 (en) 2011-09-14 2017-01-17 Kabushiki Kaisha Topcon Fundus observation apparatus
US20140013847A1 (en) * 2012-07-13 2014-01-16 Sicpa Holding Sa Method and system for authenticating a timepiece
US10331086B2 (en) 2012-07-13 2019-06-25 Sicpa Holding Sa Method and system for authenticating a timepiece
US9285777B2 (en) * 2012-07-13 2016-03-15 Sicpa Holding Sa Method and system for authenticating a timepiece
US9465367B2 (en) 2012-07-13 2016-10-11 Sicpa Holding Sa Method and system for authenticating using external excitation
US9772607B2 (en) 2013-08-23 2017-09-26 Sicpa Holding Sa Method and system for authenticating a device
JP2015195950A (en) * 2014-04-01 2015-11-09 キヤノン株式会社 Ophthalmologic apparatus and control method
US10524654B2 (en) 2014-04-01 2020-01-07 Canon Kabushiki Kaisha Ophthalmologic apparatus and control method thereof, processing apparatus and processing method
US10251547B2 (en) 2015-01-08 2019-04-09 Canon Kabushiki Kaisha Ophthalmic apparatus, control method, and computer readable storage medium
JP2017056050A (en) * 2015-09-17 2017-03-23 キヤノン株式会社 Ophthalmic apparatus and control method therefor, and program

Also Published As

Publication number Publication date
JP5404167B2 (en) 2014-01-29

Similar Documents

Publication Publication Date Title
JP5404167B2 (en) Image processing apparatus, control method therefor, and program
JP5955163B2 (en) Image processing apparatus and image processing method
JP4909377B2 (en) Image processing apparatus, control method therefor, and computer program
JP6463038B2 (en) Image alignment apparatus, method and program
JP4466968B2 (en) Image processing apparatus, image processing method, program, and program storage medium
KR101373935B1 (en) Ophthalmic apparatus, control method of an ophthalmic apparatus and computer readable storage medium
JP4850892B2 (en) Fundus image display apparatus, control method therefor, and computer program
JP2020093076A (en) Medical image processing device, learned model, medical image processing method and program
JP5739323B2 (en) Optical coherence tomography eye registration method
KR101609025B1 (en) Image processing apparatus, image processing method, and storage medium
US20110007957A1 (en) Imaging apparatus and control method therefor
JP5730375B2 (en) Image processing apparatus, control method therefor, and program
JP2010035607A (en) Diagnosis supporting apparatus, method therefor, program, and recording medium
JP5208145B2 (en) Tomographic imaging apparatus, tomographic imaging method, program, and program storage medium
JP5631339B2 (en) Image processing apparatus, image processing method, ophthalmic apparatus, ophthalmic system, and computer program
WO2020075345A1 (en) Medical image processing device, medical image processing method, and program
JP5723093B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP2011224264A (en) Tomographic image observation apparatus, and method and program for controlling display of tomographic image
JP2011120657A (en) Image processing apparatus, image processing method, and program
JP2012161595A (en) Image processor and image processing method
KR20180116090A (en) Medical navigation system and the method thereof
JP4527471B2 (en) 3D fundus image construction and display device
JP2007105352A (en) Difference image display device, difference image display method, and program thereof
JP6041924B2 (en) Ophthalmologic apparatus, imaging region determination method, and program
JP5474011B2 (en) Ophthalmic system, ophthalmic apparatus, tomographic image acquisition method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130430

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131029

R151 Written notification of patent or utility model registration

Ref document number: 5404167

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees