JPWO2019107342A1 - Panorama fundus image generator and program - Google Patents

Panorama fundus image generator and program Download PDF

Info

Publication number
JPWO2019107342A1
JPWO2019107342A1 JP2019557231A JP2019557231A JPWO2019107342A1 JP WO2019107342 A1 JPWO2019107342 A1 JP WO2019107342A1 JP 2019557231 A JP2019557231 A JP 2019557231A JP 2019557231 A JP2019557231 A JP 2019557231A JP WO2019107342 A1 JPWO2019107342 A1 JP WO2019107342A1
Authority
JP
Japan
Prior art keywords
fundus image
fundus
image
coefficient
overlapping region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019557231A
Other languages
Japanese (ja)
Inventor
克己 薮崎
克己 薮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kowa Co Ltd
Original Assignee
Kowa Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kowa Co Ltd filed Critical Kowa Co Ltd
Publication of JPWO2019107342A1 publication Critical patent/JPWO2019107342A1/en
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

パノラマ眼底画像生成装置は、位置決め部により位置関係が決定された第1眼底画像と第2眼底画像との重複領域に含まれる対象画素の画素値として、第1眼底画像の対象画素に対応する第1画素の画素値に第1係数を乗算した値と、第2眼底画像の対象画素に対応する第2画素の画素値に第2係数を乗算した値との和を導出し、導出した画素値を用いて、第1眼底画像と第2眼底画像とを合成したパノラマ眼底画像を生成する画像合成部と、を備える。The panoramic fundus image generator corresponds to the target pixel of the first fundus image as the pixel value of the target pixel included in the overlapping region of the first fundus image and the second fundus image whose positional relationship is determined by the positioning unit. The sum of the value obtained by multiplying the pixel value of one pixel by the first coefficient and the value obtained by multiplying the pixel value of the second pixel corresponding to the target pixel of the second fundus image by the second coefficient is derived, and the derived pixel value is derived. It is provided with an image synthesizing unit that generates a panoramic fundus image by synthesizing a first fundus image and a second fundus image.

Description

本発明は、パノラマ眼底画像生成装置、およびプログラムに関する。 The present invention relates to a panoramic fundus image generator and a program.

従来、瞳孔から光を入射させて、眼底からの反射光に基づいて、眼底画像を撮像する撮像装置が知られている。この種の撮像装置においては、被検者に固視灯を注視させて撮影を行うが、その固視灯の位置を変えることにより、眼底の異なる場所を撮影することができる(例えば、特許文献1参照)。またこのように撮影された同一被検眼の画像をつなぎ合わせることにより広い範囲の眼底画像を取得する方法がパノラマ撮影方法として知られている(例えば、特許文献2参照)。しかしながらこのように複数の眼底画像を繋ぎ合わせてパノラマ画像を生成する場合、眼底が平面でないため各画像において歪みが生じ、複数の眼底画像の重複部分において、同一の血管が繋がらないことが知られている。これに対して、歪み補正の処理を施した眼底画像を用いてパノラマ画像を生成するものが知られている(例えば、特許文献3参照)。 Conventionally, there is known an imaging device that injects light from the pupil and captures a fundus image based on the reflected light from the fundus. In this type of imaging device, the subject is gazed at the fixation lamp for imaging, and by changing the position of the fixation lamp, it is possible to image a different place of the fundus (for example, Patent Document). 1). Further, a method of acquiring a wide range of fundus images by stitching the images of the same eye to be taken in this way is known as a panoramic photographing method (see, for example, Patent Document 2). However, when a panoramic image is generated by connecting a plurality of fundus images in this way, it is known that distortion occurs in each image because the fundus is not flat, and the same blood vessel is not connected in the overlapping portion of the plurality of fundus images. ing. On the other hand, there is known that a panoramic image is generated using a fundus image that has been subjected to distortion correction processing (see, for example, Patent Document 3).

特開2004−135941号公報Japanese Unexamined Patent Publication No. 2004-135941 特開2009−112617号公報JP-A-2009-112617 特開2017−55916号公報JP-A-2017-55916

しかしながら、従来の技術では、血管同士を繋げたパノラマ画像の繋ぎ目部分に線が入ってしまったり、繋ぎ目部分で血管が切れてしまう、ずれてしまう、二重に出現する、太さが変わる、あるいは消失する場合等があった。 However, in the conventional technique, a line is inserted at the joint part of the panoramic image connecting the blood vessels, the blood vessel is cut or shifted at the joint part, it appears twice, and the thickness changes. , Or disappeared in some cases.

本発明は、このような事情を考慮してなされたものであり、眼底画像同士を繋いだパノラマ眼底画像の必要な情報を維持しつつ自然な見た目とすることができるパノラマ眼底画像生成装置、およびプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and is a panoramic fundus image generator capable of maintaining a natural appearance while maintaining necessary information of panoramic fundus images in which fundus images are connected to each other. One of the purposes is to provide a program.

上記問題を解決する本発明の一態様は、同一の被検眼について、前記被検眼の眼底における互いに異なる範囲を撮像した複数の眼底画像を取得する取得部と、前記取得部により取得された複数の眼底画像に対して、歪みを補正する処理を施す歪補正部と、前記歪補正部により歪みを補正する処理が施された複数の眼底画像のうち互いに繋ぎ合わされる第1眼底画像と第2眼底画像について、それぞれの眼底画像における特徴箇所に基づいて、前記第1眼底画像と前記第2眼底画像とを繋ぐ際の位置関係を決定する位置決め部と、前記位置決め部により位置関係が決定された前記第1眼底画像と前記第2眼底画像との重複領域に含まれる対象画素の画素値として、前記第1眼底画像の対象画素に対応する第1画素の画素値に第1係数を乗算した値と、前記第2眼底画像の対象画素に対応する第2画素の画素値に第2係数を乗算した値との和を導出し、前記導出した画素値を用いて、前記第1眼底画像と前記第2眼底画像とを合成したパノラマ眼底画像を生成する画像合成部と、を備えるパノラマ眼底画像生成装置である。 One aspect of the present invention for solving the above problem is an acquisition unit that acquires a plurality of fundus images obtained by imaging different ranges of the same eye to be examined in the fundus of the eye, and a plurality of acquisition units acquired by the acquisition unit. A distortion correction unit that corrects distortion of the fundus image, and a first and second fundus images that are joined to each other among a plurality of fundus images that have been subjected to distortion correction processing by the distortion correction unit. Regarding the image, the positioning unit that determines the positional relationship when connecting the first fundus image and the second fundus image based on the feature points in each fundus image, and the positioning unit that determines the positional relationship by the positioning unit. As the pixel value of the target pixel included in the overlapping region of the first fundus image and the second fundus image, the value obtained by multiplying the pixel value of the first pixel corresponding to the target pixel of the first fundus image by the first coefficient. , The sum of the pixel value of the second pixel corresponding to the target pixel of the second fundus image multiplied by the second coefficient is derived, and the derived pixel value is used to obtain the first fundus image and the first fundus image. It is a panoramic fundus image generation device including an image compositing unit for generating a panoramic fundus image obtained by combining two fundus images.

本発明によれば、眼底画像同士を繋いだパノラマ眼底画像の必要な情報を維持しつつ自然な見た目とすることができる。 According to the present invention, it is possible to obtain a natural appearance while maintaining the necessary information of the panoramic fundus images in which the fundus images are connected to each other.

実施形態に係るパノラマ眼底画像生成装置を含む眼底撮像システム1の全体構成を示す図である。It is a figure which shows the whole structure of the fundus imaging system 1 including the panoramic fundus image generator which concerns on embodiment. 撮像装置5の正面図である。It is a front view of the image pickup apparatus 5. 第1眼底画像F11の一例を示す図である。It is a figure which shows an example of the 1st fundus image F11. 第2眼底画像F21の一例を示す図である。It is a figure which shows an example of the 2nd fundus image F21. 第1眼底画像F11に対して歪補正処理を施した画像の一例を示す図である。It is a figure which shows an example of the image which performed the strain correction processing on the 1st fundus image F11. 第2眼底画像F21に対して歪補正処理を施した画像の一例を示す図である。It is a figure which shows an example of the image which performed the strain correction processing on the 2nd fundus image F21. 第1眼底画像F12の血管構造を表す血管構造画像F13の一例を示す図である。It is a figure which shows an example of the blood vessel structure image F13 which shows the blood vessel structure of the first fundus image F12. 第2眼底画像F22の血管構造を表す血管構造画像F23の一例を示す図である。It is a figure which shows an example of the blood vessel structure image F23 which shows the blood vessel structure of the 2nd fundus image F22. パノラマ眼底画像の繋ぎ合わせ方について説明するための参照図である。It is a reference figure for demonstrating how to connect panoramic fundus images. 第1係数と第2係数との関係の一例を示す図である。It is a figure which shows an example of the relationship between the 1st coefficient and the 2nd coefficient. 重複領域画素の画素値の導出方法の具体例を示す図である。It is a figure which shows the specific example of the derivation method of the pixel value of the overlap area pixel. パノラマ眼底画像生成装置100による処理の一例を示すフローチャートである。It is a flowchart which shows an example of processing by a panoramic fundus image generation apparatus 100. 画像合成部129による処理の一例を示すフローチャートである。It is a flowchart which shows an example of the processing by the image composition part 129. 五枚の眼底画像の連結した一例を示す図である。It is a figure which shows an example which connected the five fundus images. 同一領域において三以上の眼底画像が重なる場合の一例を示す図である。It is a figure which shows an example of the case where three or more fundus images overlap in the same region. 切除後の眼底画像の重複について説明するための図である。It is a figure for demonstrating duplication of fundus images after excision. 第1係数と第2係数との関係の別の例を示す図である。It is a figure which shows another example of the relationship between a 1st coefficient and a 2nd coefficient.

以下、図面を参照し、本発明のパノラマ眼底画像生成装置およびプログラムの実施形態について説明する。 Hereinafter, embodiments of the panoramic fundus image generator and program of the present invention will be described with reference to the drawings.

図1は、実施形態に係るパノラマ眼底画像生成装置を含む眼底撮像システム1の全体構成を示す図である。図1に示す通り、眼底撮像システム1は、撮像装置5と、パノラマ眼底画像生成装置100とを備える。撮像装置5とパノラマ眼底画像生成装置100とは、有線で接続されてもよく、Bluetooth(登録商標)等の近距離無線通信で接続されてもよい。また、撮像装置5とパノラマ眼底画像生成装置100は、ネットワークNWを用いて互いに通信してもよい。ネットワークNWは、例えば、WAN(Wide Area Network)、LAN(Local Area Network)、インターネット、プロバイダ装置、無線基地局、専用回線などのうちの一部または全部を含む。 FIG. 1 is a diagram showing an overall configuration of a fundus imaging system 1 including a panoramic fundus image generator according to an embodiment. As shown in FIG. 1, the fundus imaging system 1 includes an imaging device 5 and a panoramic fundus image generating device 100. The image pickup device 5 and the panoramic fundus image generation device 100 may be connected by wire or by short-range wireless communication such as Bluetooth (registered trademark). Further, the image pickup device 5 and the panoramic fundus image generation device 100 may communicate with each other using the network NW. The network NW includes, for example, a part or all of WAN (Wide Area Network), LAN (Local Area Network), the Internet, a provider device, a radio base station, a dedicated line, and the like.

図2は、撮像装置5の正面図である。図2に示す通り、撮像装置5は、顎台10と、ベース15と、撮像部20とを備える。顎台10は、被検者の顎を載せる部分である。ベース15は、顎台10と撮像部20とを支持している。ベース15は、所定範囲内で水平方向(図中の矢印R,L方向)の移動が可能なように、撮像部20を支持している。これにより、検査者は、顎台10に顎が載せられた状態の被検者の眼を撮像部20が撮像できるように、顎台10と撮像部20との相対的な位置関係を調整することができる。 FIG. 2 is a front view of the image pickup apparatus 5. As shown in FIG. 2, the image pickup device 5 includes a jaw base 10, a base 15, and an image pickup unit 20. The chin rest 10 is a portion on which the subject's chin is placed. The base 15 supports the chin rest 10 and the imaging unit 20. The base 15 supports the imaging unit 20 so that it can move in the horizontal direction (arrows R and L in the drawing) within a predetermined range. As a result, the examiner adjusts the relative positional relationship between the jaw base 10 and the imaging unit 20 so that the imaging unit 20 can image the eyes of the subject with the jaw resting on the jaw base 10. be able to.

撮像部20は、例えば、走査型レーザー検眼鏡(Scanning Laser Ophthalmoscope:SLO)である。なお、撮像部20は、CCDカメラを用いて眼底画像を撮像する眼底カメラであってもよい。 The imaging unit 20 is, for example, a scanning laser ophthalmoscope (SLO). The image pickup unit 20 may be a fundus camera that captures a fundus image using a CCD camera.

撮像部20は、同一の被検眼について、被検眼の眼底における互いに異なる範囲を撮像し、撮像した複数の眼底画像の画像データを出力する。互いに異なる範囲には、一部において同一領域を含むものも含まれる。撮像部20は、瞳孔から入射する光の入射位置や入射角度を変えることにより、互いに異なる範囲を撮像する。また、撮像部20は、被検眼に対する眼底カメラの対物レンズの相対的な位置を変更することにより、互いに異なる範囲を撮像してもよい。 The imaging unit 20 images different ranges of the same eye to be inspected in the fundus of the eye to be inspected, and outputs image data of a plurality of captured fundus images. The ranges that differ from each other include those that partially include the same region. The imaging unit 20 images different ranges by changing the incident position and the incident angle of the light incident from the pupil. Further, the imaging unit 20 may image different ranges by changing the relative position of the objective lens of the fundus camera with respect to the eye to be inspected.

次に、図1に戻って、パノラマ眼底画像生成装置100について説明する。図1に示す通り、パノラマ眼底画像生成装置100は、例えば、通信部111と、入力部113と、表示部115と、記憶部117と、撮像制御部121と、取得部123と、歪補正部125と、位置決め部127と、画像合成部129とを備える。 Next, returning to FIG. 1, the panoramic fundus image generation device 100 will be described. As shown in FIG. 1, the panoramic fundus image generator 100 includes, for example, a communication unit 111, an input unit 113, a display unit 115, a storage unit 117, an imaging control unit 121, an acquisition unit 123, and a distortion correction unit. It includes 125, a positioning unit 127, and an image composition unit 129.

通信部111は、有線あるいは無線で接続される撮像装置5との間で、情報の送受信を行う。また、通信部111は、セルラー網やWi−Fi網等を用いて、ネットワークNWに接続するためのハードウェア(例えば、アンテナおよび送受信装置)などを有していてもよい。 The communication unit 111 transmits / receives information to / from the image pickup device 5 connected by wire or wirelessly. Further, the communication unit 111 may have hardware (for example, an antenna and a transmission / reception device) for connecting to the network NW using a cellular network, a Wi-Fi network, or the like.

入力部113は、各種キー、ボタン、ダイヤルスイッチ、マウスなどのうち一部または全部を含む。また、入力部113は、例えば、表示部115と一体として形成されるタッチパネルTPであってもよい。 The input unit 113 includes a part or all of various keys, buttons, dial switches, a mouse, and the like. Further, the input unit 113 may be, for example, a touch panel TP formed integrally with the display unit 115.

表示部115は、例えば、LCD(Liquid Crystal Display)や有機EL(Electroluminescence)表示装置などである。 The display unit 115 is, for example, an LCD (Liquid Crystal Display), an organic EL (Electroluminescence) display device, or the like.

記憶部117は、例えば、RAM(Random Access Memory)やROM(Read Only Memory)、SSD(Solid State Drive)などのフラッシュメモリ、HDD(Hard Disk Drive)などである。記憶部117には、例えば、眼底画像データ171、係数データ173などの情報が格納される。 The storage unit 117 is, for example, a flash memory such as a RAM (Random Access Memory), a ROM (Read Only Memory), an SSD (Solid State Drive), an HDD (Hard Disk Drive), or the like. Information such as fundus image data 171 and coefficient data 173 is stored in the storage unit 117.

眼底画像データ171は、撮像装置5により撮像された眼底画像の画像データ(以下、単に眼底画像と記す)である。なお、眼底画像データ171には、歪補正部125、位置決め部127、画像合成部129などにより処理された画像データが含まれてもよい。眼底画像には、識別情報(以下、画像IDと記す)が割り当てられており、各眼底画像が撮像された眼底内の位置を示す情報や、被検者を示す情報等が対応付けられている。 The fundus image data 171 is image data of the fundus image captured by the imaging device 5 (hereinafter, simply referred to as a fundus image). The fundus image data 171 may include image data processed by the distortion correction unit 125, the positioning unit 127, the image composition unit 129, and the like. Identification information (hereinafter referred to as an image ID) is assigned to the fundus image, and information indicating the position in the fundus where each fundus image is captured, information indicating the subject, and the like are associated with each other. ..

係数データ173は、複数の眼底画像を繋いでパノラマ眼底画像を生成する際に用いられる係数である。この係数については、後述する。 The coefficient data 173 is a coefficient used when a plurality of fundus images are connected to generate a panoramic fundus image. This coefficient will be described later.

撮像制御部121、取得部123、歪補正部125、位置決め部127、および画像合成部129は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めコンピュータのHDD(Hard Disk Drive)やフラッシュメモリ等の記憶装置に格納されていてもよいし、DVDやCD−ROM等の着脱可能な記憶媒体に格納されており、記憶媒体がドライブ装置に装着されることで記憶装置にインストールされてもよい。 The image pickup control unit 121, the acquisition unit 123, the distortion correction unit 125, the positioning unit 127, and the image composition unit 129 are realized by, for example, a hardware processor such as a CPU (Central Processing Unit) executing a program (software). To. In addition, some or all of these components are hardware (circuits) such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), and GPU (Graphics Processing Unit). It may be realized by the part (including circuitry), or it may be realized by the cooperation of software and hardware. The program may be stored in advance in a storage device such as a computer's HDD (Hard Disk Drive) or flash memory, or is stored in a removable storage medium such as a DVD or CD-ROM, and the storage medium is a drive. It may be installed in the storage device by being attached to the device.

撮像制御部121は、入力部113により受け付けられた検査者の指示に基づいて、撮像装置5を制御する。例えば、検査者によりパノラマ眼底画像の撮像が指示された場合、撮像制御部121は、互いに異なる範囲を撮像するよう撮像装置5を制御する。 The image pickup control unit 121 controls the image pickup device 5 based on the inspector's instruction received by the input unit 113. For example, when an inspector instructs to capture a panoramic fundus image, the imaging control unit 121 controls the imaging device 5 to capture images in different ranges.

取得部123は、通信部111を用いて、撮像装置5により撮像された眼底画像を取得する。取得部123は、取得した眼底画像を、記憶部117の眼底画像データ171に格納する。また、取得部123は、取得した眼底画像を、直接、歪補正部125に出力してもよい。以下、取得部123が、眼底画像として、図3に示す第1眼底画像F11と、図4に示す第2眼底画像F21とを取得した例を交えて、説明する。 The acquisition unit 123 acquires the fundus image captured by the image pickup device 5 by using the communication unit 111. The acquisition unit 123 stores the acquired fundus image in the fundus image data 171 of the storage unit 117. Further, the acquisition unit 123 may directly output the acquired fundus image to the strain correction unit 125. Hereinafter, an example will be described in which the acquisition unit 123 acquires the first fundus image F11 shown in FIG. 3 and the second fundus image F21 shown in FIG. 4 as the fundus image.

図3(a)は、第1眼底画像F11の一例を示す図である。図3(b)は、図3(a)に示す一部領域F11aの模式図である。図4(a)は、第2眼底画像F21の一例を示す図である。図4(b)は、図4(a)に示す一部領域F21aの模式図である。図3(b)に示すθ1と図4(b)に示すθ2とは、それぞれ同じ分岐点における分岐角度である。第1眼底画像F11と第2眼底画像F21とは、同一の被検眼について、被検眼の眼底における互いに異なる範囲を撮像した眼底画像である。第1眼底画像F11と第2眼底画像F21は、装置の光学系と被検眼(瞳孔)との相対位置を変えて、照明光が前眼部に入射する入射角度を変えることで異なる場所を撮像した画像である。図示の通り、第1眼底画像F11と第2眼底画像F21には、眼底部分(明るいところ)と、それ以外の外縁部分(暗いところ)が含まれる。第1眼底画像F11と第2眼底画像F21における眼底部分は、円に近い形状をしている。 FIG. 3A is a diagram showing an example of the first fundus image F11. FIG. 3B is a schematic view of a partial region F11a shown in FIG. 3A. FIG. 4A is a diagram showing an example of the second fundus image F21. FIG. 4B is a schematic view of a partial region F21a shown in FIG. 4A. Θ1 shown in FIG. 3B and θ2 shown in FIG. 4B are branch angles at the same branch point, respectively. The first fundus image F11 and the second fundus image F21 are fundus images obtained by capturing different ranges of the same eye to be examined in the fundus of the eye to be inspected. The first fundus image F11 and the second fundus image F21 capture different locations by changing the relative positions of the optical system of the device and the eye to be inspected (pupil) and changing the incident angle at which the illumination light is incident on the anterior segment of the eye. It is an image that was made. As shown in the figure, the first fundus image F11 and the second fundus image F21 include a fundus portion (bright area) and other outer edge portions (dark area). The fundus portion in the first fundus image F11 and the second fundus image F21 has a shape close to a circle.

歪補正部125は、記憶部117から読み出した眼底画像(あるいは、取得部123から入力する眼底画像)に対して、歪みを補正する処理(以下、歪補正処理と記す)を施す。歪補正処理は、球体である被検眼の眼底を平面で表したときに生じる歪みを補正する処理である。また、歪補正部125は、眼底画像に含まれる眼底部分の画像の形状を、正方形に近似させるように歪みを補正してもよい。図5(a)は、図3(a)に示す第1眼底画像F11に対して歪補正処理を施した画像(第1眼底画像F12)の一例を示す図である。図5(b)は、図5(a)に示す一部領域F12aの模式図である。同様に図6(a)は、図4(a)に示す第2眼底画像F21に対して歪補正処理を施した画像(第2眼底画像F22)の一例を示す図である。図6(b)は、図6(a)に示す一部領域F22aの模式図である。図5(b)に示すθ3と図6(b)に示すθ4とは、それぞれ同じ分岐点における分岐角度である。 The distortion correction unit 125 performs a distortion correction process (hereinafter, referred to as a distortion correction process) on the fundus image read from the storage unit 117 (or the fundus image input from the acquisition unit 123). The strain correction process is a process for correcting the strain that occurs when the fundus of the eye to be inspected, which is a sphere, is represented by a plane. Further, the distortion correction unit 125 may correct the distortion so that the shape of the image of the fundus portion included in the fundus image is approximated to a square. FIG. 5A is a diagram showing an example of an image (first fundus image F12) obtained by performing strain correction processing on the first fundus image F11 shown in FIG. 3A. FIG. 5B is a schematic view of a partial region F12a shown in FIG. 5A. Similarly, FIG. 6A is a diagram showing an example of an image (second fundus image F22) obtained by subjecting the second fundus image F21 shown in FIG. 4A to distortion correction processing. FIG. 6B is a schematic view of a partial region F22a shown in FIG. 6A. Θ3 shown in FIG. 5B and θ4 shown in FIG. 6B are branch angles at the same branch point, respectively.

この歪み補正を行う効果の一例を説明する。例えばF11中の視神経乳頭部の上部方向の血管の分岐点において、その血管の分岐角度:θ1は44.2°であるが、F21中での同じ場所での分岐角度:θ2は38.5°になっている。よってθ1とθ2とが約4°も異なるので、このままF11とF21で繋ぎ合わせをしても、境界部分での血管がうまく繋がらないことが予想できる。そこで両画像について歪み補正処理をすると、F12での分岐角度:θ3は42.7°、F22での分岐角度:θ4は43.0°と、ほとんど差はなくなったので、良好な繋ぎ合わせができると考えられる。 An example of the effect of performing this distortion correction will be described. For example, at the bifurcation of a blood vessel in the upper direction of the optic nerve head in F11, the bifurcation angle of the blood vessel: θ1 is 44.2 °, but the bifurcation angle at the same location in F21: θ2 is 38.5 °. It has become. Therefore, since θ1 and θ2 are different by about 4 °, it can be expected that the blood vessels at the boundary portion will not be connected well even if the F11 and F21 are connected as they are. Therefore, when distortion correction processing is performed on both images, the branch angle at F12: θ3 is 42.7 °, and the branch angle at F22: θ4 is 43.0 °, so there is almost no difference, so a good connection can be achieved. it is conceivable that.

位置決め部127は、歪補正処理が施された複数の眼底画像のうち、互いに繋ぎ合わされる第1眼底画像F12と第2眼底画像F22との位置関係(以下、両画像の位置関係とも記す)を決定する。位置決め部127は、それぞれの眼底画像における血管の位置に基づき、第1眼底画像F12と第2眼底画像F22の重複領域において同一の血管が重なるように、両画像を繋ぐ際の位置関係を決定する。 The positioning unit 127 determines the positional relationship between the first fundus image F12 and the second fundus image F22 (hereinafter, also referred to as the positional relationship of both images) that are joined to each other among the plurality of fundus images that have undergone distortion correction processing. decide. The positioning unit 127 determines the positional relationship when connecting the two images so that the same blood vessels overlap in the overlapping region of the first fundus image F12 and the second fundus image F22, based on the positions of the blood vessels in each fundus image. ..

例えば、位置決め部127は、眼底画像に含まれる血管の分岐点の特徴量を取得し、取得した特徴量に基づいて、両画像の位置関係を決定する。具体的に言うと、位置決め部127は、眼底画像を画像処理することにより、分岐点における血管の角度や形状を示す特徴量を取得し、特徴量が類似する分岐点同士が重なるようにして、両画像の位置関係を決定する。 For example, the positioning unit 127 acquires the feature amount of the branch point of the blood vessel included in the fundus image, and determines the positional relationship between the two images based on the acquired feature amount. Specifically, the positioning unit 127 acquires a feature amount indicating the angle and shape of the blood vessel at the bifurcation point by performing image processing on the fundus image so that the bifurcation points having similar feature amounts overlap each other. Determine the positional relationship between both images.

位置決め部127は、例えば、眼底画像を画像処理することにより、図7,8に示すような血管構造画像F13、F23を取得する。図7は、第1眼底画像F12の血管構造を表す血管構造画像F13の一例を示す図である。図8は、第2眼底画像F22の血管構造を表す血管構造画像F23の一例を示す図である。位置決め部127は、血管構造画像F13、F23を用いて、特徴量が類似する分岐点同士が重なるように、両画像の位置関係を決定する。 The positioning unit 127 acquires the blood vessel structure images F13 and F23 as shown in FIGS. 7 and 8 by performing image processing on the fundus image, for example. FIG. 7 is a diagram showing an example of a blood vessel structure image F13 showing a blood vessel structure of the first fundus image F12. FIG. 8 is a diagram showing an example of a blood vessel structure image F23 showing the blood vessel structure of the second fundus image F22. The positioning unit 127 uses the blood vessel structure images F13 and F23 to determine the positional relationship between the two images so that the bifurcation points having similar feature amounts overlap each other.

上述のように、歪補正部125により歪補正処理が施された眼底画像F12,F22に基づく血管構造画像F13,F23を用いて、両画像の位置関係を決定することにより、血管構造の歪みを防止し、同一の血管の重なる位置が一致する可能性が高めることができる。 As described above, the distortion of the blood vessel structure is determined by determining the positional relationship between the two images using the blood vessel structure images F13 and F23 based on the fundus images F12 and F22 that have been subjected to the distortion correction processing by the distortion correction unit 125. It can be prevented and the possibility that the overlapping positions of the same blood vessels match can be increased.

画像合成部129は、位置決め部127により決定された位置関係において、重複領域に含まれる画素(以下、重複領域画素と記す)の画素値を導出し、導出した重複領域画素の画素値を用いて、第1眼底画像F12と第2眼底画像F22とを合成したパノラマ眼底画像F31を生成する。画素値は、例えば、輝度であるが、色彩ごとの強度を示す値であってもよい。 The image synthesizing unit 129 derives the pixel values of the pixels included in the overlapping region (hereinafter referred to as overlapping region pixels) in the positional relationship determined by the positioning unit 127, and uses the derived pixel values of the overlapping region pixels. , A panoramic fundus image F31 is generated by combining the first fundus image F12 and the second fundus image F22. The pixel value is, for example, brightness, but may be a value indicating the intensity of each color.

ここで、図9を参照して、パノラマ眼底画像F31の繋ぎ合わせ方の一例について説明する。図9は、パノラマ眼底画像の繋ぎ合わせ方について説明するための参照図である。
図示の例では、各画像のX軸とY軸とが一致しており、回転方向における歪みはないものとする。
Here, an example of how to connect the panoramic fundus images F31 will be described with reference to FIG. FIG. 9 is a reference diagram for explaining how to join the panoramic fundus images.
In the illustrated example, it is assumed that the X-axis and the Y-axis of each image coincide with each other and there is no distortion in the rotation direction.

図9に示す通り、第1眼底画像F12は、第2眼底画像F22との重複部分である重複領域R14と、それ以外の非重複領域R15,R16とを含む。第2眼底画像F22は、第1眼底画像F11との重複部分である重複領域R24と、それ以外の非重複領域R25,R26とを含む。なお、非重複領域R16,R26は、画像合成部129により切除される外縁部である。図3,4に示した通り、眼底画像の外縁部は黒くなっている。画像合成部129は、他の眼底画面と重複する方の辺において黒(輝度値が0)が含まれる部分(非重複領域R16,R26)を切除する。 As shown in FIG. 9, the first fundus image F12 includes an overlapping region R14 which is an overlapping portion with the second fundus image F22, and other non-overlapping regions R15 and R16. The second fundus image F22 includes an overlapping region R24 which is an overlapping portion with the first fundus image F11, and other non-overlapping regions R25 and R26. The non-overlapping regions R16 and R26 are outer edges cut by the image synthesizing unit 129. As shown in FIGS. 3 and 4, the outer edge of the fundus image is black. The image synthesizing unit 129 cuts out the portions (non-overlapping regions R16 and R26) including black (luminance value is 0) on the side overlapping with the other fundus screen.

パノラマ眼底画像F31は、重複領域R14と重複領域R24とに基づく重複領域R32と、第1眼底画像F11の非重複領域R15と、第2眼底画像F21の非重複領域R25とを含む。パノラマ眼底画像F31は、画像合成部129により、外縁部において黒(輝度値が0)が含まれる部分がトリミングされている。なお、画像合成部129は、非重複領域R16,R26を切除する段階で、他の辺の黒が含まれる部分を切除してもよい。 The panoramic fundus image F31 includes an overlapping region R32 based on the overlapping region R14 and the overlapping region R24, a non-overlapping region R15 of the first fundus image F11, and a non-overlapping region R25 of the second fundus image F21. In the panoramic fundus image F31, a portion including black (luminance value is 0) is trimmed at the outer edge portion by the image synthesizing unit 129. The image synthesizing unit 129 may cut off a portion of the other side including black at the stage of cutting out the non-overlapping regions R16 and R26.

位置決め部127により第1眼底画像F12と第2眼底画像F22とが位置決めされた状態(以下、両画像が位置決めされた状態と記す)で、重複領域R14においてY軸方向の中心に設定される中心線L1、および、重複領域R24においてY軸方向の中心に設定される中心線L2は、重複領域R32における中心線L3と一致する。つまり、中心線L3は、重複領域R32において、非重複領域R15までの距離と、非重複領域R25までの距離とが等しくなる位置に設定される。 A center set at the center in the Y-axis direction in the overlapping region R14 in a state where the first fundus image F12 and the second fundus image F22 are positioned by the positioning unit 127 (hereinafter, both images are referred to as positioned states). The line L1 and the center line L2 set at the center in the Y-axis direction in the overlapping area R24 coincide with the center line L3 in the overlapping area R32. That is, the center line L3 is set at a position in the overlapping region R32 where the distance to the non-overlapping region R15 and the distance to the non-overlapping region R25 are equal.

図9に示す例では、重複領域R32を構成する各画素は、重複領域R14に含まれる一画素、および、重複領域R24に含まれる一画素と、それぞれ対応している。つまり、重複領域R32を構成する各画素は、両画像が位置決めされた状態で、重なる両画素(重複領域R14に含まれる一画素と重複領域R24に含まれる一画素)に対応している。このようにして、重複領域R32を構成する各画素と対応する重複領域R14,R24に含まれる一画素を、対応する画素という。 In the example shown in FIG. 9, each pixel constituting the overlapping region R32 corresponds to one pixel included in the overlapping region R14 and one pixel included in the overlapping region R24, respectively. That is, each pixel constituting the overlapping region R32 corresponds to both overlapping pixels (one pixel included in the overlapping region R14 and one pixel included in the overlapping region R24) in a state where both images are positioned. In this way, one pixel included in the overlapping areas R14 and R24 corresponding to each pixel constituting the overlapping area R32 is referred to as a corresponding pixel.

画像合成部129は、重複領域R32に含まれる各重複領域画素の画素値として、重複領域R14における対応する画素の画素値に第1係数を乗算した値(第1画素値)と、重複領域R24における対応する画素の画素値に第2係数を乗算した値(第2画素値)との和を導出する。 The image synthesizing unit 129 sets the pixel value of each overlapping region pixel included in the overlapping region R32 to a value obtained by multiplying the pixel value of the corresponding pixel in the overlapping region R14 by the first coefficient (first pixel value) and the overlapping region R24. The sum of the pixel value of the corresponding pixel in (2) multiplied by the second coefficient (second pixel value) is derived.

第1係数と第2係数とは、所定の関係を有する。図10を参照して、第1係数と第2係数との関係の一例について説明する。図10は、第1係数と第2係数との関係の一例を示す図である。 The first coefficient and the second coefficient have a predetermined relationship. An example of the relationship between the first coefficient and the second coefficient will be described with reference to FIG. FIG. 10 is a diagram showing an example of the relationship between the first coefficient and the second coefficient.

図10(a)に示す通り、第1係数C1は、非重複領域R15において一定値であり、C1=1(100%)である。また、第1係数C1は、重複領域R14において、徐々に0(0%)となるように設定される。例えば、重複領域R14に含まれる画素のうち、最も非重複領域R15に近い画素に対応する第1係数C1は、1である。また、重複領域R14に含まれる画素のうち、最も非重複領域R15から遠い画素に対応する第1係数C1は、0である。また、第1係数C1は、一定の傾きを有し、重複領域R14における中心線L1と一致する画素において0.5(50%)である。 As shown in FIG. 10A, the first coefficient C1 is a constant value in the non-overlapping region R15, and C1 = 1 (100%). Further, the first coefficient C1 is set so as to gradually become 0 (0%) in the overlapping region R14. For example, among the pixels included in the overlapping region R14, the first coefficient C1 corresponding to the pixel closest to the non-overlapping region R15 is 1. Further, among the pixels included in the overlapping region R14, the first coefficient C1 corresponding to the pixel farthest from the non-overlapping region R15 is 0. Further, the first coefficient C1 has a constant inclination and is 0.5 (50%) in the pixels that coincide with the center line L1 in the overlapping region R14.

図10(b)に示す通り、第2係数C2は、非重複領域R25において一定値であり、C2=1(100%)である。また、第2係数C2は、重複領域R24において、徐々に0(0%)となるように設定される。例えば、重複領域R24に含まれる画素のうち、最も非重複領域R25に近い画素に対応する第2係数C2は、1である。また、重複領域R24に含まれる画素のうち、最も非重複領域R25から遠い画素に対応する第2係数C2は、0である。また、第2係数C2は、一定の傾きを有し、重複領域R24における中心線L2と一致する画素において0.5(50%)である。 As shown in FIG. 10B, the second coefficient C2 is a constant value in the non-overlapping region R25, and C2 = 1 (100%). Further, the second coefficient C2 is set so as to gradually become 0 (0%) in the overlapping region R24. For example, among the pixels included in the overlapping region R24, the second coefficient C2 corresponding to the pixel closest to the non-overlapping region R25 is 1. Further, among the pixels included in the overlapping region R24, the second coefficient C2 corresponding to the pixel farthest from the non-overlapping region R25 is 0. Further, the second coefficient C2 has a constant inclination and is 0.5 (50%) in the pixels corresponding to the center line L2 in the overlapping region R24.

つまり、画像合成部129は、重複領域R32のうち中心線L3よりも第1眼底画像F12の非重複領域R15に近い領域に含まれる画素については、第1係数C1を第2係数C2よりも大きくする。画像合成部129は、重複領域R32のうち中心線L3よりも第2眼底画像F22の非重複領域R25に近い領域に含まれる画素については、第2係数C2を第1係数C1よりも大きくする。画像合成部129は、重複領域R32のうち第1眼底画像F12の非重複領域R15に近い重複領域画素ほど、第1係数C1を大きくし、且つ、第2係数C2を小さくする。画像合成部129は、重複領域R32のうち第2眼底画像F22の非重複領域R25に近い重複領域画素ほど、第2係数C2を大きくし、且つ、第1係数C1を小さくする。 That is, the image synthesizing unit 129 sets the first coefficient C1 to be larger than the second coefficient C2 for the pixels included in the overlapping area R32 that is closer to the non-overlapping area R15 of the first fundus image F12 than the center line L3. To do. The image synthesizing unit 129 sets the second coefficient C2 to be larger than the first coefficient C1 for the pixels included in the overlapping area R32 that is closer to the non-overlapping area R25 of the second fundus image F22 than the center line L3. The image synthesizing unit 129 increases the first coefficient C1 and decreases the second coefficient C2 as the overlapping region pixels closer to the non-overlapping region R15 of the first fundus image F12 in the overlapping region R32. The image synthesizing unit 129 increases the second coefficient C2 and decreases the first coefficient C1 as the overlapping region pixels closer to the non-overlapping region R25 of the second fundus image F22 in the overlapping region R32.

また、両係数では、重複領域R32に含まれるそれぞれの画素について設置される第1係数と第2係数との和は1となる、という関係が成り立つ。 Further, in both coefficients, the relationship that the sum of the first coefficient and the second coefficient installed for each pixel included in the overlapping region R32 is 1 is established.

次に、図11を参照し、重複領域画素の画素値の導出方法の具体例について説明する。
図11は、重複領域画素の画素値の導出方法の具体例を示す図である。図11(a)に、全ての重複領域R32の画素の配列の一例を示す。例えば、重複領域R32には、X軸方向に6個、Y軸方向に10個、合計60個の画素が配置されている。なお、図示の例では、説明を簡略化するために少ない画素数で説明している。各画素には、P11〜P70までの符号が付されているものとする。全ての符号の図示は省略するが、Y軸方向において、一ずつ加算された値の符号が付されている。
Next, with reference to FIG. 11, a specific example of a method for deriving the pixel values of the overlapping region pixels will be described.
FIG. 11 is a diagram showing a specific example of a method for deriving the pixel values of the overlapping region pixels. FIG. 11A shows an example of the arrangement of pixels in all the overlapping regions R32. For example, in the overlapping region R32, 6 pixels in the X-axis direction and 10 pixels in the Y-axis direction, for a total of 60 pixels, are arranged. In the illustrated example, the number of pixels is small for the sake of simplicity. It is assumed that each pixel is designated by P11 to P70. Although the illustration of all the symbols is omitted, the symbols of the values added one by one in the Y-axis direction are attached.

図11(b)(c)(d)には、それぞれ第1眼底画像F12、第2眼底画像F22、パノラマ眼底画像F31の一部を示す。図示の通り、重複領域R14,R24における画素の配列も、重複領域R32における画素の配列と同じであり、重複領域画素と対応する画素については、同じ符号を用いて説明する。 11 (b), (c), and (d) show a part of the first fundus image F12, the second fundus image F22, and the panoramic fundus image F31, respectively. As shown in the figure, the arrangement of the pixels in the overlapping areas R14 and R24 is also the same as the arrangement of the pixels in the overlapping area R32, and the pixels corresponding to the overlapping area pixels will be described using the same reference numerals.

重複領域R14の各画素において、以下の通りの第1係数C1が設定されている。
画素P11〜P20は、第1係数C1=1
画素P21〜P30は、第1係数C1=0.8
画素P31〜P40は、第1係数C1=0.6
画素P41〜P50は、第1係数C1=0.4
画素P51〜P60は、第1係数C1=0.2
画素P61〜P70は、第1係数C1=0
The following first coefficient C1 is set in each pixel of the overlapping region R14.
Pixels P11 to P20 have a first coefficient C1 = 1.
Pixels P21 to P30 have a first coefficient C1 = 0.8.
Pixels P31 to P40 have a first coefficient C1 = 0.6.
Pixels P41 to P50 have a first coefficient C1 = 0.4.
Pixels P51 to P60 have a first coefficient C1 = 0.2.
Pixels P61 to P70 have a first coefficient C1 = 0.

重複領域R24の各画素において、以下の通りの第2係数C2が設定されている。
画素P11〜P20は、第1係数C1=0
画素P21〜P30は、第1係数C1=0.2
画素P31〜P40は、第1係数C1=0.4
画素P41〜P50は、第1係数C1=0.6
画素P51〜P60は、第1係数C1=0.8
画素P61〜P70は、第1係数C1=1
The following second coefficient C2 is set in each pixel of the overlapping region R24.
Pixels P11 to P20 have a first coefficient C1 = 0.
Pixels P21 to P30 have a first coefficient C1 = 0.2.
Pixels P31 to P40 have a first coefficient C1 = 0.4.
Pixels P41 to P50 have a first coefficient C1 = 0.6.
Pixels P51 to P60 have a first coefficient C1 = 0.8.
Pixels P61 to P70 have a first coefficient C1 = 1.

このように、第1眼底画像F12と第2眼底画像F22とが位置決めされた状態で、重なっている画素(同じ符号の画素)において、第1係数と第2係数との和は1となっている。 In this way, with the first fundus image F12 and the second fundus image F22 positioned, the sum of the first coefficient and the second coefficient is 1 in the overlapping pixels (pixels having the same code). There is.

例えば、画像合成部129は、重複領域画素P35の画素値として、以下のような計算を実行する。
重複領域R14の画素P35の画素値(77)×第1係数C1(0.6)
+重複領域R24の画素P35の画素値(26)×第2係数C2(0.4)=57
このようにして、画像合成部129は、重複領域画素P11〜P70の画素値を導出する。
For example, the image synthesizing unit 129 executes the following calculation as the pixel value of the overlapping region pixel P35.
Pixel value (77) of pixel P35 of overlapping region R14 x first coefficient C1 (0.6)
+ Pixel value (26) of pixel P35 in overlapping region R24 x second coefficient C2 (0.4) = 57
In this way, the image synthesizing unit 129 derives the pixel values of the overlapping region pixels P11 to P70.

次に、図12を参照して、パノラマ眼底画像生成装置100の処理例について説明する。図12は、パノラマ眼底画像生成装置100による処理の一例を示すフローチャートである。 Next, a processing example of the panoramic fundus image generation device 100 will be described with reference to FIG. FIG. 12 is a flowchart showing an example of processing by the panoramic fundus image generator 100.

図12に示す通り、撮像制御部121は、入力部113により、検査者から撮像指示を受け付けたか否かを判定する(ステップS11)。撮像制御部121は、撮像指示を受け付けるまで、ステップS11の処理を繰り返す。撮像指示を受け付けた場合、撮像制御部121は、指示に従って撮像装置5を制御する(ステップS12)。そして、撮像装置5により、眼底画像が撮像される。取得部123は、撮像装置5により撮像された眼底画像を取得する(ステップS13)。次いで、撮像制御部121は、指示された全ての範囲を撮像したか否かを判定する(ステップS14)。全ての範囲を撮像していない場合、撮像制御部121は、ステップS12に戻って処理を繰り返す。例えば、撮像制御部121は、レーザー光の入射角度を変更して異なる範囲を撮像するように撮像装置5に指示する。 As shown in FIG. 12, the imaging control unit 121 determines whether or not an imaging instruction has been received from the inspector by the input unit 113 (step S11). The image pickup control unit 121 repeats the process of step S11 until it receives an image pickup instruction. When the image pickup instruction is received, the image pickup control unit 121 controls the image pickup apparatus 5 according to the instruction (step S12). Then, the fundus image is imaged by the image pickup device 5. The acquisition unit 123 acquires the fundus image captured by the imaging device 5 (step S13). Next, the image pickup control unit 121 determines whether or not the entire designated range has been imaged (step S14). If the entire range has not been imaged, the image pickup control unit 121 returns to step S12 and repeats the process. For example, the image pickup control unit 121 instructs the image pickup apparatus 5 to change the incident angle of the laser beam to image a different range.

指定された全ての範囲を撮像した場合、歪補正部125は、取得部123により取得された全ての眼底画像に対して、歪補正処理を施す(ステップS15)。次いで、位置決め部127は、眼底画像に含まれる血管の分岐点の特徴量を取得する(ステップS16)。
位置決め部127は、取得した特徴量に基づいて、歪補正処理が施された複数の眼底画像のうち、互いに繋ぎ合わされる第1眼底画像と第2眼底画像の位置関係を決定する(ステップS17)。画像合成部129は、位置決め部127により決定された位置関係において、重複領域画素の画素値を導出し、導出した重複領域画素の画素値を用いて、第1眼底画像と第2眼底画像とを合成したパノラマ眼底画像を生成する(ステップS18)。そして、画像合成部129は、生成したパノラマ眼底画像を、表示部115に表示させる(ステップS19)。
When the entire designated range is imaged, the strain correction unit 125 performs the strain correction process on all the fundus images acquired by the acquisition unit 123 (step S15). Next, the positioning unit 127 acquires the feature amount of the branch point of the blood vessel included in the fundus image (step S16).
Based on the acquired features, the positioning unit 127 determines the positional relationship between the first fundus image and the second fundus image that are joined to each other among the plurality of fundus images that have undergone distortion correction processing (step S17). .. The image synthesizing unit 129 derives the pixel values of the overlapping region pixels in the positional relationship determined by the positioning unit 127, and uses the derived pixel values of the overlapping region pixels to obtain the first fundus image and the second fundus image. A composite panoramic fundus image is generated (step S18). Then, the image synthesizing unit 129 displays the generated panoramic fundus image on the display unit 115 (step S19).

次に、図13を参照して、画像合成部129の処理例について説明する。図13は、画像合成部129による処理の一例を示すフローチャートである。 Next, a processing example of the image synthesizing unit 129 will be described with reference to FIG. FIG. 13 is a flowchart showing an example of processing by the image synthesizing unit 129.

画像合成部129は、位置決め部127により位置関係が決定された第1眼底画像および第2眼底画像のそれぞれにおける重複領域を決定する(ステップS171)。ここで、画像合成部129は、決定した重複領域において、それぞれの中心線を決定してもよい。
次いで、画像合成部129は、重複領域画素に対応する画素ごとに、第1眼底画像の重複領域に含まれる画素の画素値に第1係数を乗算した第1画素値を導出するとともに(ステップS172)、第2眼底画像の重複領域に含まれる画素の画素値に第2係数を乗算した第2画素値を導出する(ステップS173)。画像合成部129は、ステップS172で導出した第1画素値と、ステップS173において導出した第2画素値とを和を導出し、重複領域画素の画素値とする(ステップS174)。そして、画像合成部129は、全ての重複領域画素に対応する画素について上記処理を実行するまで、ステップS172に戻って処理を繰り返す(ステップS175)。
The image synthesizing unit 129 determines the overlapping region in each of the first fundus image and the second fundus image whose positional relationship is determined by the positioning unit 127 (step S171). Here, the image synthesizing unit 129 may determine each center line in the determined overlapping region.
Next, the image synthesizing unit 129 derives a first pixel value obtained by multiplying the pixel value of the pixel included in the overlapping region of the first fundus image by the first coefficient for each pixel corresponding to the overlapping region pixel (step S172). ), The second pixel value is derived by multiplying the pixel value of the pixel included in the overlapping region of the second fundus image by the second coefficient (step S173). The image synthesizing unit 129 derives the sum of the first pixel value derived in step S172 and the second pixel value derived in step S173 to obtain the pixel value of the overlapping region pixel (step S174). Then, the image synthesizing unit 129 returns to step S172 and repeats the process until the process is executed for the pixels corresponding to all the overlapping region pixels (step S175).

全ての重複領域画素の画素値を導出した場合、画像合成部129は、導出した重複領域画素の画素値、第1眼底画像の非重複領域に含まれる画素の画素値、および、第2眼底画像の非重複領域に含まれる画素の画素値に基づいて、パノラマ眼底画像を生成する(ステップS176)。 When the pixel values of all the overlapping region pixels are derived, the image synthesizing unit 129 determines the pixel values of the derived overlapping region pixels, the pixel values of the pixels included in the non-overlapping region of the first fundus image, and the second fundus image. A panoramic fundus image is generated based on the pixel values of the pixels included in the non-overlapping region of (step S176).

パノラマ眼底画像生成装置100は、上述したような処理により、二枚に限られず、三枚以上の眼底画像を繋げてパノラマ眼底画像を生成してもよい。例えば、図14に示すように、五枚の眼底画像を連結してパノラマ眼底画像を生成してもよい。図14は、五枚の眼底画像の連結した一例を示す図である。図14に示す通り、眼底画像F101の左右方向には、それぞれ、眼底画像F102,F103が連結されている。また、眼底画像F102には眼底画像F104が、眼底画像F103には眼底画像F105が、それぞれ連結されている。 The panoramic fundus image generation device 100 may generate a panoramic fundus image by connecting not only two images but also three or more fundus images by the processing as described above. For example, as shown in FIG. 14, five fundus images may be connected to generate a panoramic fundus image. FIG. 14 is a diagram showing an example in which five fundus images are connected. As shown in FIG. 14, the fundus images F102 and F103 are connected in the left-right direction of the fundus image F101, respectively. Further, the fundus image F104 is connected to the fundus image F102, and the fundus image F105 is connected to the fundus image F103.

以上説明した実施形態のパノラマ眼底画像生成装置100によれば、重複領域画素の画素値として、第1眼底画像の画素値による影響と、第2眼底画像の画素値による影響の両方を考慮することができる。また、係数を用いて、重複領域画素に対する各眼底画像の画素値による影響を調整することができる。これにより、画像同士を繋いだパノラマ画像の必要な情報を維持しつつ自然な見た目とすることができる。 According to the panoramic fundus image generator 100 of the embodiment described above, both the influence of the pixel value of the first fundus image and the influence of the pixel value of the second fundus image are considered as the pixel values of the overlapping region pixels. Can be done. In addition, the coefficient can be used to adjust the influence of the pixel value of each fundus image on the overlapping region pixels. As a result, it is possible to obtain a natural appearance while maintaining the necessary information of the panoramic image in which the images are connected to each other.

これに対して、例えば、二枚の眼底画像を重複させることなく繋ぎ合わせた場合、繋ぎ目部分が不自然な見た目となる。また、見た目を自然にするために、二枚の眼底画像を重複させて繋ぎ合わせるとともに、対応する画素において明るい方の画素値を採用してパノラマ眼底画像を生成した場合、必要な情報を維持できない場合があった。これは、血管の方がそれ以外の部分よりも暗いため、明るい方の画素値を採用すると、血管の一部が消失したような画像となるためである。画像合成部129は、上述したように、係数を用いて両画像の画素値を所定の割合ずつ用いて重複領域画素の画素値を決定することにより、このような問題を解決することができる。 On the other hand, for example, when two fundus images are joined without overlapping, the joint portion has an unnatural appearance. In addition, when two fundus images are overlapped and spliced together in order to make the appearance natural, and a panoramic fundus image is generated by adopting the brighter pixel value in the corresponding pixel, the necessary information cannot be maintained. There was a case. This is because the blood vessel is darker than the other parts, and if the brighter pixel value is adopted, the image looks like a part of the blood vessel disappears. As described above, the image synthesizing unit 129 can solve such a problem by determining the pixel values of the overlapping region pixels by using the pixel values of both images in a predetermined ratio by using the coefficients.

[同一領域において三以上の眼底画像が重なる場合について]
上述では、パノラマ眼底画像を生成する際における二枚の眼底画像を繋ぎ合わせる場面に着目して説明したが、以下では、同一領域において、三枚以上の眼底画像が重なる眼底画像の合成手法について説明する。
[When three or more fundus images overlap in the same area]
In the above, the description focused on the scene where two fundus images are joined when generating a panoramic fundus image, but the following describes a method for synthesizing a fundus image in which three or more fundus images overlap in the same region. To do.

図15は、同一領域において三以上の眼底画像が重なる場合の一例を示す図である。図15に示す通り、眼底画像F111の左右方向には、それぞれ、眼底画像F112,F113が連結され、且つ、眼底画像F111の上下方向には、それぞれ眼底画像F114,F115が連結されている。眼底画像F111は、各頂点において、三以上の眼底画像が重なっている。例えば、眼底画像F111は、眼底画像F113と重複する領域の一部において、眼底画像F114とも重複している。 FIG. 15 is a diagram showing an example of a case where three or more fundus images overlap in the same region. As shown in FIG. 15, the fundus images F112 and F113 are connected in the left-right direction of the fundus image F111, and the fundus images F114 and F115 are connected in the vertical direction of the fundus image F111, respectively. In the fundus image F111, three or more fundus images are overlapped at each vertex. For example, the fundus image F111 also overlaps with the fundus image F114 in a part of the region overlapping with the fundus image F113.

このように、三以上の眼底画像が同一領域において重なる場合、画像合成部129は、三以上の眼底画像が重なる重複領域において二つの眼底画像のみが重複するように、眼底画像の一部を切除する。例えば、画像合成部129は、切断線L4において、眼底画像F113の一つの頂点を含む領域を切除し、眼底画像F114の一つの頂点を含む領域を切除する。切断線L4は、例えば、眼底画像F113と眼底画像F114との辺が交わる二点を結んだ線である。 In this way, when three or more fundus images overlap in the same region, the image synthesizing unit 129 cuts a part of the fundus image so that only two fundus images overlap in the overlapping region where the three or more fundus images overlap. To do. For example, the image synthesizing unit 129 cuts a region including one apex of the fundus image F113 and a region including one apex of the fundus image F114 at the cutting line L4. The cutting line L4 is, for example, a line connecting two points where the sides of the fundus image F113 and the fundus image F114 intersect.

切除された後の眼底画像F113,F114の一例を、図16に示す。図16は、切除後の眼底画像の重複について説明するための図である。図16に示す例では、わかりやすいように眼底画像F113,F114の切断部分に隙間を開けているが、画像合成部129は、隙間がないように画像の一部を切除している。こうすることにより、重複領域において二つの眼底画像のみが重なるようになるため、画像合成部129は、上述と同様の処理を行うことにより、パノラマ眼底画像を生成することができる。 An example of fundus images F113 and F114 after excision is shown in FIG. FIG. 16 is a diagram for explaining duplication of fundus images after excision. In the example shown in FIG. 16, a gap is formed in the cut portion of the fundus images F113 and F114 for easy understanding, but the image synthesizing unit 129 cuts a part of the image so that there is no gap. By doing so, only the two fundus images overlap in the overlapping region, so that the image synthesizing unit 129 can generate a panoramic fundus image by performing the same processing as described above.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.

例えば、位置決め部127は、非重複領域に対する重複領域の割合に基づいて、両画像の位置関係を決定してもよい。例えば、重複領域の割合は、非重複領域の半分程度であることが好ましい。また、重複領域の大きさを画素数で予め決定してもよい。重複領域の大きさをある程度確保することにより、繋ぎ目部分を平滑化することができる。 For example, the positioning unit 127 may determine the positional relationship between the two images based on the ratio of the overlapping region to the non-overlapping region. For example, the ratio of the overlapping region is preferably about half of the non-overlapping region. Further, the size of the overlapping region may be determined in advance by the number of pixels. By securing the size of the overlapping region to some extent, the joint portion can be smoothed.

例えば、画像合成部129は、重複領域R32のX軸方向の長さや画素数に基づいて、第1係数と第2係数を決定してもよい。例えば、画像合成部129は、上述したような所定の関係を満たした係数となるように、X軸方向における係数の刻み(間隔)を決定する。 For example, the image synthesizing unit 129 may determine the first coefficient and the second coefficient based on the length of the overlapping region R32 in the X-axis direction and the number of pixels. For example, the image synthesizing unit 129 determines the step (interval) of the coefficient in the X-axis direction so that the coefficient satisfies the predetermined relationship as described above.

また、画像合成部129は、各眼底画像の重複領域における輝度の平均値に基づいて、第1係数と第2係数を決定してもよい。例えば、第1眼底画像の重複領域の方が、第2眼底画像の重複領域に比べて、輝度値の平均値が高い(つまり全体的に明るい場合)、図10を用いて説明した第1係数に0.2を加算した値を調整後第1係数とし、図10を用いて説明した第1係数から0.2を減算した値を調整後第2係数としてもよい。画像合成部129は、調整後第1係数と調整後第2係数とを用いて、上述したように、重複領域画素の画素値を導出する。 Further, the image synthesizing unit 129 may determine the first coefficient and the second coefficient based on the average value of the brightness in the overlapping region of each fundus image. For example, the overlapping region of the first fundus image has a higher average brightness value (that is, when it is bright overall) than the overlapping region of the second fundus image, and the first coefficient described with reference to FIG. 10 The value obtained by adding 0.2 to may be used as the adjusted first coefficient, and the value obtained by subtracting 0.2 from the first coefficient described with reference to FIG. 10 may be used as the adjusted second coefficient. The image synthesizing unit 129 derives the pixel values of the overlapping region pixels by using the adjusted first coefficient and the adjusted second coefficient as described above.

第1係数と第2係数は、図10に示す関係に限られない。例えば、非重複領域における傾きは一定値に限られず、図17に示すように緩やかなカーブを描くような傾きであってもよい。 The first coefficient and the second coefficient are not limited to the relationship shown in FIG. For example, the slope in the non-overlapping region is not limited to a constant value, and may be a slope that draws a gentle curve as shown in FIG.

1…眼底撮像システム、5…撮像装置5、10…顎台、15…ベース、20…撮像部、100…パノラマ眼底画像生成装置、111…通信部、113…入力部、115…表示部、117…記憶部、121…撮像制御部、123…取得部、125…歪補正部、127…位置決め部、129…画像合成部、171…眼底画像データ、173…係数データ 1 ... fundus imaging system, 5 ... imaging device 5, 10 ... jaw stand, 15 ... base, 20 ... imaging unit, 100 ... panoramic fundus image generator, 111 ... communication unit, 113 ... input unit, 115 ... display unit 117 ... Storage unit, 121 ... Imaging control unit, 123 ... Acquisition unit, 125 ... Distortion correction unit, 127 ... Positioning unit, 129 ... Image composition unit, 171 ... Fundus image data, 173 ... Coefficient data

Claims (7)

同一の被検眼について、前記被検眼の眼底における互いに異なる範囲を撮像した複数の眼底画像を取得する取得部と、
前記取得部により取得された複数の眼底画像に対して、歪みを補正する処理を施す歪補正部と、
前記歪補正部により歪みを補正する処理が施された複数の眼底画像のうち互いに繋ぎ合わされる第1眼底画像と第2眼底画像について、それぞれの眼底画像における特徴箇所に基づいて、前記第1眼底画像と前記第2眼底画像とを繋ぐ際の位置関係を決定する位置決め部と、
前記位置決め部により位置関係が決定された前記第1眼底画像と前記第2眼底画像との重複領域に含まれる対象画素の画素値として、前記第1眼底画像の対象画素に対応する第1画素の画素値に第1係数を乗算した値と、前記第2眼底画像の対象画素に対応する第2画素の画素値に第2係数を乗算した値との和を導出し、前記導出した画素値を用いて、前記第1眼底画像と前記第2眼底画像とを合成したパノラマ眼底画像を生成する画像合成部と、
を備えるパノラマ眼底画像生成装置。
An acquisition unit that acquires a plurality of fundus images of the same eye to be inspected, which are images of different ranges in the fundus of the eye to be inspected.
A distortion correction unit that performs distortion correction processing on a plurality of fundus images acquired by the acquisition unit, and
The first fundus image and the second fundus image, which are joined to each other among the plurality of fundus images processed to correct the distortion by the distortion correction unit, are based on the feature points in the respective fundus images. A positioning unit that determines the positional relationship when connecting the image and the second fundus image, and
As the pixel value of the target pixel included in the overlapping region of the first fundus image and the second fundus image whose positional relationship is determined by the positioning unit, the first pixel corresponding to the target pixel of the first fundus image The sum of the pixel value multiplied by the first coefficient and the pixel value of the second pixel corresponding to the target pixel of the second fundus image multiplied by the second coefficient is derived, and the derived pixel value is obtained. An image synthesizing unit that generates a panoramic fundus image by synthesizing the first fundus image and the second fundus image.
A panoramic fundus image generator equipped with.
前記画像合成部は、
前記重複領域において、前記第1眼底画像の非重複領域までの距離と、前記第2眼底画像の非重複領域までの距離とが等しくなる中心線に関して、
前記重複領域のうち前記中心線よりも前記第1眼底画像の非重複領域に近い領域に含まれる画素については、前記第1係数を前記第2係数よりも大きくし、
前記重複領域のうち前記中心線よりも前記第2眼底画像の非重複領域に近い領域に含まれる画素については、前記第2係数を前記第1係数よりも大きくする、
請求項1に記載のパノラマ眼底画像生成装置。
The image synthesizing unit
Regarding the center line in which the distance to the non-overlapping region of the first fundus image and the distance to the non-overlapping region of the second fundus image are equal in the overlapping region.
For the pixels included in the overlapping region closer to the non-overlapping region of the first fundus image than the center line, the first coefficient is made larger than the second coefficient.
For the pixels included in the overlapping region closer to the non-overlapping region of the second fundus image than the center line, the second coefficient is made larger than the first coefficient.
The panoramic fundus image generator according to claim 1.
前記画像合成部は、
前記重複領域のうち前記第1眼底画像の非重複領域に近い画素ほど、前記第1係数を大きく、且つ前記第2係数を小さくし、
前記重複領域のうち前記第2眼底画像の非重複領域に近い画素ほど、前記第2係数を大きく、且つ前記第1係数を小さくする、
請求項1に記載のパノラマ眼底画像生成装置。
The image synthesizing unit
The closer the pixel is closer to the non-overlapping region of the first fundus image in the overlapping region, the larger the first coefficient and the smaller the second coefficient.
The closer to the non-overlapping region of the second fundus image in the overlapping region, the larger the second coefficient and the smaller the first coefficient.
The panoramic fundus image generator according to claim 1.
前記重複領域に含まれるそれぞれの画素について設定される前記第1係数および前記第2係数の和は1となる、
請求項1に記載のパノラマ眼底画像生成装置。
The sum of the first coefficient and the second coefficient set for each pixel included in the overlapping region is 1.
The panoramic fundus image generator according to claim 1.
前記画像合成部は、
前記複数の眼底画像に含まれる三以上の眼底画像の一部を重ねて前記パノラマ眼底画像を生成する場合、前記三以上の眼底画像が重複する領域において二つの眼底画像のみが重なるように、前記三以上の眼底画像に含まれる一以上の眼底画像の一部を切除した後、前記対象画素の画素値を導出する、
請求項1に記載のパノラマ眼底画像生成装置。
The image synthesizing unit
When the panoramic fundus image is generated by superimposing a part of three or more fundus images included in the plurality of fundus images, the said so that only the two fundus images overlap in the region where the three or more fundus images overlap. After excising a part of one or more fundus images included in three or more fundus images, the pixel value of the target pixel is derived.
The panoramic fundus image generator according to claim 1.
前記位置決め部は、
前記眼底画像に含まれる血管の分岐点の特徴量を取得し、取得した特徴量に基づいて、前記第1眼底画像と前記第2眼底画像との位置関係を決定する、
請求項1に記載のパノラマ眼底画像生成装置。
The positioning unit is
The feature amount of the branch point of the blood vessel included in the fundus image is acquired, and the positional relationship between the first fundus image and the second fundus image is determined based on the acquired feature amount.
The panoramic fundus image generator according to claim 1.
コンピュータに、
同一の被検眼について、前記被検眼の眼底における互いに異なる範囲を撮像した複数の眼底画像を取得させ、
取得された複数の眼底画像に対して、歪みを補正する処理を施させ、
歪みを補正する処理が施された複数の眼底画像のうち互いに繋ぎ合わされる第1眼底画像と第2眼底画像について、それぞれの眼底画像における特徴箇所に基づいて、前記第1眼底画像と前記第2眼底画像とを繋ぐ際の位置関係を決定させ、
位置関係が決定された前記第1眼底画像と前記第2眼底画像との重複領域に含まれる対象画素の画素値として、前記第1眼底画像の対象画素に対応する第1画素の画素値に第1係数を乗算した値と、前記第2眼底画像の対象画素に対応する第2画素の画素値に第2係数を乗算した値との和を導出させ、
前記導出した画素値を用いて、前記第1眼底画像と前記第2眼底画像とを合成したパノラマ眼底画像を生成させる、
プログラム。
On the computer
For the same eye to be inspected, a plurality of fundus images in which different ranges of the fundus of the inspected eye are imaged are acquired.
Distortion correction processing is applied to the acquired multiple fundus images.
With respect to the first fundus image and the second fundus image which are joined to each other among the plurality of fundus images subjected to the processing for correcting the distortion, the first fundus image and the second fundus image are based on the feature points in the respective fundus images. Determine the positional relationship when connecting to the fundus image,
The pixel value of the target pixel included in the overlapping region of the first fundus image and the second fundus image whose positional relationship is determined is the pixel value of the first pixel corresponding to the target pixel of the first fundus image. The sum of the value obtained by multiplying by one coefficient and the value obtained by multiplying the pixel value of the second pixel corresponding to the target pixel of the second fundus image by the second coefficient is derived.
Using the derived pixel values, a panoramic fundus image obtained by synthesizing the first fundus image and the second fundus image is generated.
program.
JP2019557231A 2017-11-28 2018-11-27 Panorama fundus image generator and program Pending JPWO2019107342A1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017228389 2017-11-28
JP2017228389 2017-11-28
PCT/JP2018/043526 WO2019107342A1 (en) 2017-11-28 2018-11-27 Panoramic ocular fundus image generation device, and program

Publications (1)

Publication Number Publication Date
JPWO2019107342A1 true JPWO2019107342A1 (en) 2020-11-19

Family

ID=66665011

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019557231A Pending JPWO2019107342A1 (en) 2017-11-28 2018-11-27 Panorama fundus image generator and program

Country Status (2)

Country Link
JP (1) JPWO2019107342A1 (en)
WO (1) WO2019107342A1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4413316B2 (en) * 1999-06-29 2010-02-10 株式会社トプコン Medical image composition processing apparatus and recording medium
JP2009089940A (en) * 2007-10-10 2009-04-30 Toshiba Corp Ultrasonic diagnostic apparatus
JP2017196041A (en) * 2016-04-26 2017-11-02 大日本印刷株式会社 Ocular fundus image analysis device, ocular fundus image analysis method, and program

Also Published As

Publication number Publication date
WO2019107342A1 (en) 2019-06-06

Similar Documents

Publication Publication Date Title
US10874297B1 (en) System, method, and non-transitory computer-readable storage media related to correction of vision defects using a visual display
US9595243B2 (en) Image processing apparatus and image processing method
JP7289653B2 (en) Control device, endoscope imaging device, control method, program and endoscope system
US11367259B2 (en) Method for simulating natural perception in virtual and augmented reality scenes
CN113190115B (en) Eyeball tracking method and virtual reality equipment
US11031120B1 (en) System, method, and non-transitory computer-readable storage media related to correction of vision defects using a visual display
JP2011135563A (en) Image capturing apparatus, and image processing method
JP2022184979A (en) Ophthalmic device
JP6862210B2 (en) Image processing equipment, image processing system, image processing method and program
CN110784693A (en) Projector correction method and projection system using same
JP5974205B1 (en) Image processing apparatus and method of operating image processing apparatus
JP6884995B2 (en) Ophthalmologic imaging equipment and image processing program
JPWO2019107342A1 (en) Panorama fundus image generator and program
CN113674157B (en) Fundus image stitching method, computer device and storage medium
CN113114975A (en) Image splicing method and device, electronic equipment and storage medium
JP6932526B2 (en) Image display device, image display method and program
JP6703397B2 (en) Lighting system
JP2020162926A (en) Ophthalmology imaging apparatus and ophthalmology image processing program
US20240193744A1 (en) Image processing device and image processing method
WO2022014020A1 (en) Imaging system, imaging method, and computer program
TWI757727B (en) Method for compensating visual field defects, electronic device, smart glasses, computer readable storage medium
JP7318273B2 (en) OPHTHALMIC PHOTOGRAPHY AND OPHTHALMIC IMAGE PROCESSING PROGRAM
JP2022057576A (en) Fundus image processing program and fundus imaging apparatus
US20230244307A1 (en) Visual assistance
JP2007173894A (en) Device and method for correcting point light source photographing image

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200427