JP2018143434A - Ophthalmologic image display apparatus, ophthalmologic image display method, and program - Google Patents

Ophthalmologic image display apparatus, ophthalmologic image display method, and program Download PDF

Info

Publication number
JP2018143434A
JP2018143434A JP2017040759A JP2017040759A JP2018143434A JP 2018143434 A JP2018143434 A JP 2018143434A JP 2017040759 A JP2017040759 A JP 2017040759A JP 2017040759 A JP2017040759 A JP 2017040759A JP 2018143434 A JP2018143434 A JP 2018143434A
Authority
JP
Japan
Prior art keywords
image
unit
images
movement amount
creating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017040759A
Other languages
Japanese (ja)
Other versions
JP6927715B2 (en
Inventor
裕和 恩地
Hirokazu Onchi
裕和 恩地
龍一 大原
Ryuichi Ohara
龍一 大原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2017040759A priority Critical patent/JP6927715B2/en
Publication of JP2018143434A publication Critical patent/JP2018143434A/en
Application granted granted Critical
Publication of JP6927715B2 publication Critical patent/JP6927715B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an ophthalmologic image display apparatus, an ophthalmologic image display method, and a program that allow a temporal change of ophthalmologic images acquired from the same patient at different time points to be visually grasped easily.SOLUTION: An ophthalmologic image display apparatus includes image acquisition part for acquiring a plurality of captured images of the same eye to be examined or a plurality of analysis images on the shape of the same eye to be examined; a positioning part for performing positioning of the plurality of acquired images; a moving image creation part for creating a moving image by connecting the plurality of positioned images in a time-series manner; and a display part for displaying the created moving image.SELECTED DRAWING: Figure 2

Description

本発明は被検眼を診断するために用いられる眼科画像表示装置、眼科画像表示方法及びプログラムに関する。   The present invention relates to an ophthalmologic image display apparatus, an ophthalmologic image display method, and a program used for diagnosing an eye to be examined.

眼科分野においては、被検眼の状態を観察するために各種の画像を取得する。このように眼科分野で取得される画像を眼科画像と呼ぶ。   In the field of ophthalmology, various images are acquired to observe the state of the eye to be examined. An image acquired in the ophthalmic field in this way is called an ophthalmic image.

眼科画像は、各種の眼科撮影装置によって取得される。眼科撮影装置の例として、光コヒーレンストモグラフィ(OpticalCoherence Tomography、OCT)を用いて断層像を得る光干渉断層計、眼底を写真撮影する眼底カメラ、共焦点光学系を用いたレーザ走査により眼底の画像を得る走査型レーザ検眼鏡(ScanningLaser Ophthalmoscope、SLO)、スリット光を用いて角膜の光切片を切り取ることにより画像を得るスリットランプ等がある。   The ophthalmologic image is acquired by various ophthalmologic photographing apparatuses. As an example of an ophthalmologic photographing apparatus, an optical coherence tomography (Optical Coherence Tomography, OCT) is used to obtain a tomographic image, a fundus camera for photographing a fundus, a fundus image by laser scanning using a confocal optical system. There are scanning laser ophthalmoscope (Scanning Laser Ophthalmoscope, SLO) which obtains an image, a slit lamp which obtains an image by cutting out a light section of the cornea using slit light, and the like.

また、OCT信号より得た眼底の層厚情報に基づいて,層厚の二次元分布を表す厚みマップを生成することが行われる。この厚みマップや、層厚の時系列的な変化を表す厚みの変化マップも、眼科画像に含まれる。   Further, based on the fundus layer thickness information obtained from the OCT signal, a thickness map representing a two-dimensional distribution of the layer thickness is generated. This thickness map and a thickness change map representing a time-series change in layer thickness are also included in the ophthalmic image.

これらの眼科画像を表示手段に表示することで、被検眼の状態を観察することができる。   By displaying these ophthalmologic images on the display means, the state of the eye to be examined can be observed.

例えば、特許文献1には、経過観察を行うための経過観察モードにおいて、モニタ上に、同一被検眼において異なる日時で取得された眼底の正面像や断層像を並べて同時表示する装置が記載されている。   For example, Patent Document 1 describes a device that simultaneously displays a frontal image and a tomographic image of a fundus acquired at different dates and times on the same eye on a monitor in a follow-up mode for performing follow-up observation. Yes.

特開2013−27443号公報JP 2013-27443 A

しかしながら、正面像や断層像を並べて同時表示するだけでは、時間的変化が視覚的にわかりにくく、微小な変化を認識しにくいという欠点があった。   However, there is a drawback in that it is difficult to visually recognize temporal changes and to recognize minute changes only by displaying the front images and tomographic images side by side.

本発明はこのような事情に鑑みてなされたもので、同一患者の別時刻に得られた眼科画像の時間的変化を視覚的に容易に把握することを可能にする眼科画像表示装置、眼科画像表示方法及びプログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and an ophthalmic image display device and an ophthalmic image that make it possible to easily visually grasp temporal changes in ophthalmic images obtained at different times of the same patient. An object is to provide a display method and a program.

上記目的を達成するために眼科画像表示装置の一の態様は、同一被検眼に関する複数の撮影画像、又は同一被検眼の形状に関する複数の解析画像を取得する画像取得部と、取得した複数の画像の位置合わせを行う位置合わせ部と、位置合わせされた複数の画像を時系列順につなぎ合わせて動画を作成する動画作成部と、作成した動画を表示する表示部と、を備えた。   In order to achieve the above object, one aspect of an ophthalmologic image display device includes an image acquisition unit that acquires a plurality of captured images related to the same eye or a plurality of analysis images related to the shape of the same eye, and a plurality of acquired images A positioning unit that performs positioning, a moving image creation unit that creates a moving image by joining a plurality of aligned images in time series, and a display unit that displays the created moving image.

本態様によれば、同一被検眼に関する複数の撮影画像、又は被検眼の形状に関する複数の解析画像を取得し、取得した複数の画像の位置合わせを行い、位置合わせされた複数の画像を時系列順につなぎ合わせて動画を作成し、作成した動画を表示するようにしたので、同一患者の別時刻に得られた眼科画像の時間的変化を視覚的に容易に把握することができる。   According to this aspect, a plurality of captured images relating to the same eye to be examined or a plurality of analysis images relating to the shape of the eye to be examined are acquired, the obtained images are aligned, and the aligned images are time-sequentially acquired. Since a moving image is created by connecting them in order and the created moving image is displayed, it is possible to easily grasp the temporal change of ophthalmic images obtained at different times of the same patient visually.

位置合わせ部は、複数の画像のうちの1つの画像である第1画像から複数の特徴点を抽出する特徴点抽出部と、複数の画像のうちの第1画像以外の第2画像から複数の特徴点に対応する複数の対応点を検出する対応点検出部と、第2画像を変形して複数の対応点の位置をそれぞれ対応する複数の特徴点の位置に一致させる画像変形部と、を備えることが好ましい。これにより、取得した複数の画像の位置合わせを適切に行うことができる。   The alignment unit includes a feature point extracting unit that extracts a plurality of feature points from a first image that is one of a plurality of images, and a plurality of second images other than the first image among the plurality of images. A corresponding point detecting unit that detects a plurality of corresponding points corresponding to the feature points, and an image deforming unit that deforms the second image to match the positions of the plurality of corresponding points with the positions of the corresponding feature points, respectively. It is preferable to provide. Thereby, the alignment of the acquired several image can be performed appropriately.

対応点検出部は、テンプレートマッチングを用いて複数の対応点を検出することが好ましい。これにより、第2画像から複数の特徴点に対応する複数の対応点を適切に検出することができる。   The corresponding point detection unit preferably detects a plurality of corresponding points using template matching. Thereby, a plurality of corresponding points corresponding to a plurality of feature points can be appropriately detected from the second image.

画像変形部は、アフィン変換を用いて複数の対応点の位置をそれぞれ対応する複数の特徴点の位置に一致させることが好ましい。これにより、取得した複数の画像の位置合わせを適切に行うことができる。   The image deformation unit preferably matches the positions of the plurality of corresponding points to the positions of the corresponding feature points using affine transformation. Thereby, the alignment of the acquired several image can be performed appropriately.

位置合わせ部は、複数の画像のうちの1つの画像である第1画像と第1画像以外の第2画像との間の回転移動量を算出する回転移動量算出部と、回転移動量算出部により算出された回転移動量に基づいて第1画像と第2画像との間の回転方向の位置合わせを行う画像回転部と、画像回転部による位置合わせがなされた第1画像と第2画像とに対し位相限定相関処理を施すことにより、第1画像と第2画像との間の平行移動量を算出する平行移動量算出部と、平行移動量算出部により算出された平行移動量に基づいて第1画像と第2画像との間の平行方向の位置合わせを行う画像平行移動部と、を備えることが好ましい。これにより、取得した複数の画像の位置合わせを適切に行うことができる。   The alignment unit includes a rotational movement amount calculation unit that calculates a rotational movement amount between a first image that is one of a plurality of images and a second image other than the first image, and a rotational movement amount calculation unit. An image rotation unit that performs alignment in the rotation direction between the first image and the second image based on the rotational movement amount calculated by the above, and the first image and the second image that have been aligned by the image rotation unit Is subjected to phase-only correlation processing to calculate a parallel movement amount between the first image and the second image, and a parallel movement amount calculated by the parallel movement amount calculation unit. It is preferable to include an image translation unit that performs alignment in the parallel direction between the first image and the second image. Thereby, the alignment of the acquired several image can be performed appropriately.

回転移動量算出部は、第1画像と第2画像とに対し位相限定相関処理を施すことにより、第1画像と第2画像との間の回転移動量を算出することが好ましい。これにより、取得した複数の画像の間の回転移動量を適切に算出することができる。   Preferably, the rotational movement amount calculation unit calculates the rotational movement amount between the first image and the second image by performing phase-only correlation processing on the first image and the second image. Thereby, the amount of rotational movement between the acquired images can be calculated appropriately.

回転移動量算出部は、第2画像に対し離散フーリエ変換を施す第1変換処理部と、第2画像についての第1変換処理部による演算結果に対し極座標変換を施す極座標変換部と、第2画像についての極座標変換部による演算結果に対し離散フーリエ変換を施す第2変換処理部と、第1画像について予め求められた第1データと、第2画像についての第2変換処理部による演算結果に基づき求められた第2データとを合成する位相限定合成処理を行う第1位相限定合成部と、第1位相限定合成部による演算結果に対し逆離散フーリエ変換を施す第1逆変換処理部と、を備え、第1逆変換処理部による演算結果に基づいて回転移動量を算出することが好ましい。これにより、取得した複数の画像の間の回転移動量を適切に算出することができる。   The rotational movement amount calculation unit includes a first conversion processing unit that performs a discrete Fourier transform on the second image, a polar coordinate conversion unit that performs a polar coordinate conversion on a calculation result of the first conversion processing unit for the second image, and a second A second conversion processing unit that performs discrete Fourier transform on the calculation result of the polar coordinate conversion unit for the image, first data obtained in advance for the first image, and a calculation result of the second conversion processing unit for the second image. A first phase-only combining unit that performs a phase-only combining process for combining the second data obtained based on the first data; a first inverse conversion processing unit that performs an inverse discrete Fourier transform on the calculation result of the first phase-only combining unit; Preferably, the rotational movement amount is calculated based on the calculation result by the first inverse conversion processing unit. Thereby, the amount of rotational movement between the acquired images can be calculated appropriately.

複数の画像の明るさをそれぞれ一致させる明るさ変更部を備えることが好ましい。これにより、眼科画像の時間的変化を視覚的により容易に把握することができる。   It is preferable to provide a brightness changing unit that matches the brightness of each of the plurality of images. Thereby, the temporal change of the ophthalmologic image can be easily grasped visually.

時系列順につなぎ合わされた複数の画像のうちの時系列順に隣接する2つの画像の間を時系列的に補間する補間画像を作成する補間画像作成部を備え、動画作成部は、補間画像を含めて動画を作成することが好ましい。これにより、同一患者の別時刻に得られた眼科画像の時間的変化を視覚的に容易に把握することができる。   An interpolation image creation unit that creates an interpolation image that interpolates between two images that are adjacent in time series order among a plurality of images connected in time series order, and the moving image creation unit includes the interpolation image It is preferable to create a moving image. Thereby, the temporal change of the ophthalmologic image obtained at another time of the same patient can be easily grasped visually.

撮影画像は、眼底の正面像又は眼底の断層像であることが好ましい。また、解析画像は、眼底の層厚の二次元分布を表す厚みマップ、又は層厚の時系列的な変化を表す厚みの変化マップであることが好ましい。これにより、撮影画像や解析画像の時間的変化を視覚的に容易に把握することができる。   The captured image is preferably a front image of the fundus or a tomographic image of the fundus. The analysis image is preferably a thickness map representing a two-dimensional distribution of the layer thickness of the fundus or a thickness change map representing a time-series change in the layer thickness. Thereby, the temporal change of the captured image or the analysis image can be easily grasped visually.

上記目的を達成するために眼科画像表示方法の一の態様は、同一被検眼に関する複数の撮影画像、又は同一被検眼の形状に関する複数の解析画像を取得する画像取得工程と、取得した複数の画像の位置合わせを行う位置合わせ工程と、位置合わせされた複数の画像を時系列順につなぎ合わせて動画を作成する動画作成工程と、作成した動画を表示部に表示する表示工程と、を備えた。   In order to achieve the above object, one aspect of an ophthalmologic image display method includes an image acquisition step of acquiring a plurality of captured images related to the same eye to be examined or a plurality of analysis images relating to the shape of the same eye to be examined; A positioning step for performing positioning, a moving image creation step for creating a moving image by joining a plurality of aligned images in time series, and a display step for displaying the created moving image on a display unit.

本態様によれば、同一被検眼に関する複数の撮影画像、又は被検眼の形状に関する複数の解析画像を取得し、取得した複数の画像の位置合わせを行い、位置合わせされた複数の画像を時系列順につなぎ合わせて動画を作成し、作成した動画を表示するようにしたので、同一患者の別時刻に得られた眼科画像の時間的変化を視覚的に容易に把握することができる。   According to this aspect, a plurality of captured images relating to the same eye to be examined or a plurality of analysis images relating to the shape of the eye to be examined are acquired, the obtained images are aligned, and the aligned images are time-sequentially acquired. Since a moving image is created by connecting them in order and the created moving image is displayed, it is possible to easily grasp the temporal change of ophthalmic images obtained at different times of the same patient visually.

上記目的を達成するためにプログラムの一の態様は、コンピュータに、同一被検眼に関する複数の撮影画像、又は同一被検眼の形状に関する複数の解析画像を取得する画像取得工程と、取得した複数の画像の位置合わせを行う位置合わせ工程と、位置合わせされた複数の画像を時系列順につなぎ合わせて動画を作成する動画作成工程と、作成した動画を表示部に表示する表示工程と、を実行させる。   In order to achieve the above object, one aspect of the program includes an image acquisition step of acquiring, in a computer, a plurality of captured images relating to the same eye to be examined or a plurality of analysis images relating to the shape of the same eye to be examined; A positioning process for performing the positioning, a moving picture creation process for creating a moving picture by connecting a plurality of aligned images in time series, and a display process for displaying the created moving picture on a display unit.

本態様によれば、同一被検眼に関する複数の撮影画像、又は被検眼の形状に関する複数の解析画像を取得し、取得した複数の画像の位置合わせを行い、位置合わせされた複数の画像を時系列順につなぎ合わせて動画を作成し、作成した動画を表示するようにしたので、同一患者の別時刻に得られた眼科画像の時間的変化を視覚的に容易に把握することができる。   According to this aspect, a plurality of captured images relating to the same eye to be examined or a plurality of analysis images relating to the shape of the eye to be examined are acquired, the obtained images are aligned, and the aligned images are time-sequentially acquired. Since a moving image is created by connecting them in order and the created moving image is displayed, it is possible to easily grasp the temporal change of ophthalmic images obtained at different times of the same patient visually.

また、プログラムを記録したコンピュータ読み取り可能な非一時的記録媒体も本態様に含まれる。   A computer-readable non-transitory recording medium recording the program is also included in this aspect.

本発明によれば、同一患者の別時刻に得られた眼科画像の時間的変化を視覚的に容易に把握することができる。   According to the present invention, temporal changes in ophthalmic images obtained at different times of the same patient can be easily grasped visually.

眼科画像表示装置の構成を示すブロック図Block diagram showing the configuration of an ophthalmic image display device 眼科画像表示装置が実行する動画表示処理を示すフローチャートThe flowchart which shows the moving image display process which an ophthalmologic image display apparatus performs ベース画像の一例を示す図The figure which shows an example of a base image 動画作成用画像の一例を示す図Diagram showing an example of an image for creating a movie ベース画像及び動画作成用画像の撮影日と、時系列順に並べた場合の順序を示す図The figure which shows the order at the time of arranging the photography date of a base image and the image for animation creation, and time series order 眼科画像表示装置の構成を示すブロック図Block diagram showing the configuration of an ophthalmic image display device 眼科画像表示装置が実行する動画表示処理を示すフローチャートThe flowchart which shows the moving image display process which an ophthalmologic image display apparatus performs 時系列順に隣接する2つの画像の撮影間隔を示した図The figure which showed the photography interval of two images which adjoin in time series order 眼科画像表示装置の構成を示すブロック図Block diagram showing the configuration of an ophthalmic image display device 位置合わせ部の一例を示すブロック図Block diagram showing an example of the alignment unit 眼科画像表示装置が実行する動画表示処理を示すフローチャートThe flowchart which shows the moving image display process which an ophthalmologic image display apparatus performs

以下、添付図面に従って本発明の好ましい実施形態について詳説する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

<第1の実施形態>
〔眼科画像表示装置の構成〕
図1は、第1の実施形態に係る眼科画像表示装置10の構成を示すブロック図である。図1に示すように、眼科画像表示装置10は、制御部12、通信部14、画像メモリ16、位置合わせ部18、画像選択部25、明るさ変更部26、動画作成部28、操作部30、及び表示部32等から構成される。
<First Embodiment>
[Configuration of ophthalmic image display device]
FIG. 1 is a block diagram illustrating a configuration of an ophthalmologic image display apparatus 10 according to the first embodiment. As shown in FIG. 1, the ophthalmic image display device 10 includes a control unit 12, a communication unit 14, an image memory 16, an alignment unit 18, an image selection unit 25, a brightness change unit 26, a moving image creation unit 28, and an operation unit 30. And the display unit 32 and the like.

制御部12は、不図示のCPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)を備えている。ROMには、各種プログラム及び制御用データが記憶される。また、RAMには、CPUにより実行されるプログラム及びデータが一時記憶される。   The control unit 12 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory) (not shown). Various programs and control data are stored in the ROM. The RAM temporarily stores programs and data executed by the CPU.

制御部12は、ROMから読み出したプログラムをCPUにおいて実行することで、眼科画像表示装置10の各部を統括制御する制御手段として機能するとともに、各種演算処理を行う演算手段として機能する。   The control unit 12 functions as a control unit that performs overall control of each unit of the ophthalmologic image display apparatus 10 by executing a program read from the ROM in the CPU, and also functions as a calculation unit that performs various calculation processes.

通信部14は、不図示の通信インターフェースを備え、通信インターフェースと接続された外部のサーバ100との間でデータの送受信を行う。サーバ100は、各種眼科画像及び診断データ等のデータベースを構成している。   The communication unit 14 includes a communication interface (not shown), and transmits / receives data to / from an external server 100 connected to the communication interface. The server 100 constitutes a database for various ophthalmic images and diagnostic data.

画像メモリ16は、画像データを含む各種データの一時記憶手段であり、制御部12を通じてデータの読み書きが行われる。通信部14(画像取得部の一例)を介してサーバ100から取り込まれた画像データは、画像メモリ16に格納される。   The image memory 16 is a temporary storage unit for various data including image data, and data is read and written through the control unit 12. Image data captured from the server 100 via the communication unit 14 (an example of an image acquisition unit) is stored in the image memory 16.

位置合わせ部18は、入力された複数の画像の位置を合わせる画像処理手段であり、特徴点抽出部20、対応点検出部22、及び画像変形部24を備えている。   The alignment unit 18 is an image processing unit that aligns the positions of a plurality of input images, and includes a feature point extraction unit 20, a corresponding point detection unit 22, and an image deformation unit 24.

特徴点抽出部20は、入力された画像に含まれる特徴点を抽出し、抽出した特徴点の位置を特定する。ここで、特徴点とは、画像内の相対的に特徴量が大きい箇所であり、例えばエッジや頂点が該当する。特徴点抽出部20は、画像全体の特徴量を算出し、算出した特徴量が閾値を超えた画素を特徴点として抽出する。   The feature point extraction unit 20 extracts feature points included in the input image and specifies the position of the extracted feature points. Here, the feature point is a portion having a relatively large feature amount in the image, for example, an edge or a vertex. The feature point extraction unit 20 calculates a feature amount of the entire image, and extracts a pixel whose calculated feature amount exceeds a threshold value as a feature point.

対応点検出部22は、入力された画像に含まれる対応点を抽出し、抽出した対応点の位置を特定する。対応点とは、特徴点抽出部20において抽出された特徴点と同じ特徴を有する画像内の点である。対応点検出部22は、画像全体の特徴量を算出し、算出した特徴量と特徴点の特徴量との類似度が高い点を対応点として抽出する。   The corresponding point detection unit 22 extracts corresponding points included in the input image, and specifies the position of the extracted corresponding points. The corresponding points are points in the image having the same features as the feature points extracted by the feature point extraction unit 20. The corresponding point detection unit 22 calculates a feature amount of the entire image, and extracts a point having a high similarity between the calculated feature amount and the feature amount of the feature point as a corresponding point.

画像変形部24は、入力された画像に平行移動処理、回転移動処理、拡大処理、及び縮小処理を行い、画像を変形する。ここでは、特に特徴点抽出部20によって特徴点が抽出された画像の特徴点と対応点検出部22によって対応点が検出された画像の対応点との位置関係に基づいて、対応点検出部22によって対応点が検出された画像を変形する。   The image deformation unit 24 performs parallel movement processing, rotational movement processing, enlargement processing, and reduction processing on the input image, and deforms the image. Here, in particular, the corresponding point detection unit 22 is based on the positional relationship between the feature point of the image from which the feature point is extracted by the feature point extraction unit 20 and the corresponding point of the image from which the corresponding point is detected by the corresponding point detection unit 22. The image in which the corresponding point is detected is deformed by.

画像選択部25は、サーバ100に記録されている眼科画像から所望の眼科画像を選択する。   The image selection unit 25 selects a desired ophthalmic image from the ophthalmic images recorded in the server 100.

明るさ変更部26は、入力された画像の明るさを変更する。   The brightness changing unit 26 changes the brightness of the input image.

動画作成部28は、位置合わせ部18によって位置が合わせられた複数の画像を時系列的に結合し、各画像を順に表示する動画を作成する。   The moving image creation unit 28 combines a plurality of images whose positions are aligned by the alignment unit 18 in time series, and generates a moving image that displays each image in turn.

操作部30は、操作ボタンやキーボード等の操作部材を備え、操作部材から入力された操作情報を制御部12に出力する。制御部12は、操作部30から入力された操作情報に応じて各種処理を実行する。   The operation unit 30 includes operation members such as operation buttons and a keyboard, and outputs operation information input from the operation members to the control unit 12. The control unit 12 executes various processes according to the operation information input from the operation unit 30.

表示部32は、動画作成部28によって作成された動画を含む各種画像や患者に関する診断情報等を表示する。表示部32としては、例えば液晶ディスプレイや有機ELディスプレイ等を適用可能である。操作部30と表示部32とを一体化したタッチパネルを用いてもよい。   The display unit 32 displays various images including the moving image created by the moving image creating unit 28, diagnostic information about the patient, and the like. As the display unit 32, for example, a liquid crystal display, an organic EL display, or the like is applicable. A touch panel in which the operation unit 30 and the display unit 32 are integrated may be used.

〔動画表示方法〕
図2は、本実施形態に係る眼科画像表示装置10が実行する動画表示処理(眼科画像表示方法の一例)を示すフローチャートである。
[Video display method]
FIG. 2 is a flowchart showing a moving image display process (an example of an ophthalmic image display method) executed by the ophthalmic image display apparatus 10 according to the present embodiment.

本実施形態では、同一患者の同一の眼である同一被検眼の複数の眼科画像を結合して動画を作成し、作成した動画を表示することで、観察者に眼科画像の時間的変化を視覚的に容易に把握させる。   In the present embodiment, a plurality of ophthalmologic images of the same eye to be examined, which are the same eye of the same patient, are created to display a moving image, and the temporal change of the ophthalmic image is visually displayed to the observer. Make it easier to grasp.

眼科画像としては、被検眼を各種の眼科撮影装置によって撮影した撮影画像、及びその解析結果から作成した被検眼の形状に関する解析画像が含まれる。撮影画像には、眼底の正面像、眼底の二次元断層像、三次元断層像、及び蛍光物質を励起させた蛍光を撮影する蛍光画像も含まれる。さらに、解析画像には、眼底の層厚の二次元分布を表す厚みマップ及び層厚の時系列的な変化を表す厚みの変化マップが含まれる。   The ophthalmologic image includes a captured image obtained by photographing the eye to be examined with various ophthalmologic photographing devices, and an analysis image relating to the shape of the eye to be examined created from the analysis result. The captured image includes a front image of the fundus, a two-dimensional tomographic image of the fundus, a three-dimensional tomographic image, and a fluorescent image that captures fluorescence excited by a fluorescent substance. Further, the analysis image includes a thickness map representing a two-dimensional distribution of the layer thickness of the fundus and a thickness change map representing a time-series change in the layer thickness.

ここでは、眼科画像は全てサーバ100に記録されているものとする。   Here, it is assumed that all ophthalmic images are recorded in the server 100.

最初に、制御部12は、変数nを0に初期化する(ステップS1)。   First, the control unit 12 initializes a variable n to 0 (step S1).

次に、観察者は、動画を作成しようとする被検眼に関するベース画像P(第1画像の一例)を選択する(ステップS2、画像取得工程の一例)。 Next, the observer selects a base image P 0 (an example of a first image) relating to the eye to be examined for which a moving image is to be created (step S2, an example of an image acquisition process).

ベース画像Pの選択は、制御部12において表示部32にサーバ100に記録されている眼科画像の一覧を表示し、観察者が、操作部30を用いて一覧表示から所望の画像を選択してもよいし、観察者が患者の氏名を入力することで、制御部12において入力された氏名に関連付けられた眼科画像を自動的に選択してもよい。 In selecting the base image P 0 , the control unit 12 displays a list of ophthalmic images recorded in the server 100 on the display unit 32, and the observer selects a desired image from the list display using the operation unit 30. Alternatively, the ophthalmologic image associated with the name inputted in the control unit 12 may be automatically selected by the observer inputting the name of the patient.

これにより、選択された画像が通信部14を介して眼科画像表示装置10に取得され、ベース画像Pとして画像メモリ16に記憶される。ベース画像Pには撮影時期又は取得時期等の限定はなく、観察者は任意の画像をベース画像Pとして選択することができる。 Accordingly, the selected image is acquired in ophthalmic image display device 10 via the communication unit 14, it is stored in the image memory 16 as the base image P 0. The base image P 0 is not limited in the photographing time or acquisition time, and the observer can select any image as the base image P 0 .

続いて、特徴点抽出部20において、ベース画像Pから複数の特徴点を抽出する(ステップS3)。 Subsequently, the feature point extraction unit 20 extracts a plurality of feature points from the base image P 0 (step S3).

図3は、画像メモリ16に記憶されたベース画像Pの一例を示す図である。ここでは、ベース画像Pとして眼底カメラによって撮影された眼底写真を選択した例を示している。 FIG. 3 is a diagram illustrating an example of the base image P 0 stored in the image memory 16. Here, an example in which a fundus photograph taken by a fundus camera is selected as the base image P 0 is shown.

図3に示すように、特徴点抽出部20は、ベース画像Pから、視神経乳頭部を含む特徴点A、血管の分岐部を含む特徴点A及びAを抽出している。なお複数の特徴点は、観察者が任意の点を指定することで決定してもよい。 As shown in FIG. 3, the feature point extracting unit 20 extracts feature points A 1 including the optic papilla and feature points A 2 and A 3 including the branching portion of the blood vessel from the base image P 0 . The plurality of feature points may be determined by designating arbitrary points by the observer.

ベース画像Pからの特徴点の抽出が終了すると、制御部12は変数nをインクリメントする(ステップS4)。 The extraction of feature points from the base image P 0 is completed, the control unit 12 increments the variable n (step S4).

次に、画像選択部25は、動画を作成するための動画作成用画像P(第1画像以外の第2画像の一例)を選択する(ステップS5、画像取得工程の一例)。 Next, the image selection unit 25 selects a moving image creation image P n (an example of a second image other than the first image) for creating a moving image (step S5, an example of an image acquisition process).

画像選択部25は、サーバ100に記録されている眼科画像のうち、ベース画像Pと同一被検眼の眼科画像であり、かつベース画像Pと同種の眼科画像を選択する。これにより、選択された画像が通信部14を介して眼科画像表示装置10に取得され、動画作成用画像Pとして画像メモリ16に記憶される。 The image selection unit 25 selects an ophthalmic image of the same eye as the base image P 0 from among the ophthalmic images recorded in the server 100 and the same type of ophthalmic image as the base image P 0 . As a result, the selected image is acquired by the ophthalmic image display device 10 via the communication unit 14 and stored in the image memory 16 as the moving image creation image Pn .

なお、同種の眼科画像とは、同一の種類の装置によって撮影された撮影画像、又は同一の指標に基づいて同一の表現手法で表された解析画像を指す。同一の種類の装置とは、メーカー及び型番まで同一の装置である必要はなく、撮影原理が同一であればよい。   Note that the same kind of ophthalmic image refers to a photographed image photographed by the same type of device or an analysis image represented by the same expression technique based on the same index. The same type of device need not be the same device up to the manufacturer and model number, as long as the imaging principle is the same.

図4は、動画を作成するための動画作成用画像Pの一例を示す図である。動画作成用画像Pは、ベース画像Pと同様の同一被検眼の眼底写真である。 Figure 4 is a diagram showing an example of a moving image creating images P 1 to create a video. Video creating image P 1 is a fundus photographs of the same eye to be examined based image P 0.

続いて、対応点検出部22において、動画作成用画像Pから複数の特徴点を検出する(ステップS6)。対応点の検出は、例えばテンプレートマッチング、又は位相限定相関法等を用いることができる。 Subsequently, the corresponding point detection unit 22 detects a plurality of feature points from the moving image creation image Pn (step S6). Corresponding points can be detected by using, for example, template matching or phase only correlation method.

ここでは、図4に示すように、特徴点Aに対応する対応点として対応点B、特徴点Aに対応する対応点として対応点B、及び特徴点Aに対応する対応点として対応点Bを検出している。 Here, as shown in FIG. 4, corresponding points B 1, the corresponding point as the corresponding point corresponding to the feature point A 2 B 2, and the corresponding points corresponding to the characteristic point A 3 as the corresponding point corresponding to the feature point A 1 detects a corresponding point B 3 are as.

次に、画像変形部24において、ベース画像Pを基準として動画作成用画像Pを変形し、ベース画像Pと動画作成用画像Pとの位置合わせを行う(ステップS7、位置合わせ工程の一例)。 Then, the image deforming unit 24, based on the image P 0 by modifying the image P n for movie created as a reference, the alignment of the base image P 0 and the moving creating image P n performs (step S7, positioning step Example).

ここでは、動画作成用画像Pの各対応点Bの座標位置がベース画像Pの各特徴点Aの座標位置に一致するように動画作成用画像Pを変形する。例えば、各対応点Bの位置が各特徴点Aの位置に対してX方向、Y方向、又はXY両方向に平行移動している場合は、画像変形部24は、動画作成用画像Pを平行移動させる。また、各対応点Bの位置が各特徴点Aの位置に対してXY平面を回転移動している場合は、画像変形部24は、動画作成用画像Pを回転移動させる。 Here, the coordinate position of each corresponding point B n of video creating image P n to deform the image P n for moving created to match the coordinate position of each feature point A n of the base image P 0. For example, when the position of the corresponding point B n is moving parallel to the X direction, Y direction or XY directions relative to the position of each feature point A n, the image deformation unit 24, the image P n for creating video Is translated. Further, when the position of the corresponding point B n is rotating moves the XY plane relative to the position of each feature point A n, the image deformation unit 24 rotates moving the image P n for creating video.

さらに、各対応点Bの位置関係が各特徴点Aの位置関係に対して縮小している場合は、画像変形部24は、動画作成用画像Pを拡大させる。また、各対応点Bの位置関係が各特徴点Aの位置関係に対して拡大している場合は、画像変形部24は、動画作成用画像Pを縮小させる。 Further, if the positional relationship between the corresponding points B n is shrinking relative positional relationship of each feature point A n, the image deformation unit 24 expands the image P n for creating video. Further, if the positional relationship between the corresponding points B n is enlarged relative positional relationship of each feature point A n, the image deformation unit 24 reduces the image P n for creating video.

これらの画像変形は、各特徴点Aと各対応点Bとのそれぞれの距離の総和が最小となるように移動ベクトルを決めればよい。なお、これらの平行移動処理、回転移動処理、拡大処理、及び縮小処理は、アフィン変換により行うことができる。 For these image deformations, the movement vector may be determined so that the sum of the distances between the feature points An and the corresponding points Bn is minimized. Note that these parallel movement processing, rotational movement processing, enlargement processing, and reduction processing can be performed by affine transformation.

このように変形された動画作成用画像Pは、ベース画像Pに対して位置が合った画像となる。 The video creating image P n which is modified so becomes the match image position relative to the base image P 0.

続いて、明るさ変更部26において、動画作成用画像Pの明るさがベース画像Pの明るさに一致するように動画作成用画像Pの明るさを変更する(ステップS8)。 Subsequently, the brightness change unit 26, the brightness of the moving image creating image P n to change the brightness of the moving image creating image P n to match the brightness of the base image P 0 (step S8).

明るさ補正は、ここでは、各動画作成用画像Pの平均輝度値をベース画像Pの平均輝度値に合わせることで行う。また、各動画作成用画像Pのダイナミックレンジを、ベース画像Pのダイナミックレンジと一致させるように変更してもよい。 Here, the brightness correction is performed by matching the average luminance value of each moving image creation image P n with the average luminance value of the base image P 0 . Further, the dynamic range of the moving image creating images P n, may be modified to match the dynamic range of the base image P 0.

なお、ここではベース画像Pの明るさに合わせて各動画作成用画像Pの明るさを変更したが、ベース画像P及び動画作成用画像Pの明るさを一致させることができれば、基準とする明るさは観察者が任意に決めてよい。 Note that, although change the brightness of the moving image creating images P n in accordance with the brightness of the base image P 0 is, if it is possible to match the base image P 0 and the brightness of the moving image creating images P n, The observer can arbitrarily determine the reference brightness.

次に、制御部12は、画像選択部25において、動画を作成するための動画作成用画像Pの選択を終了したか否かを判定する(ステップS9)。 Next, the control unit 12 determines whether or not the image selection unit 25 has finished selecting the movie creation image Pn for creating a movie (step S9).

サーバ100に、ベース画像Pと同一被検眼の眼科画像であり、かつベース画像Pと同種の眼科画像のうち、まだ選択していない眼科画像が存在する場合は、ステップS4に移行し、同様の処理を繰り返す。すなわち、nをインクリメントし(ステップS4)、動画作成用画像Pを選択し(ステップS5)、同様の処理を行う(ステップS6〜S9)。 The server 100, the base image P 0 and an ophthalmologic image of the same eye to be examined, and in the base image P 0 and the same type of ophthalmologic image, if there is an ophthalmologic image not yet been selected, the process proceeds to step S4, Similar processing is repeated. That is, n is incremented (step S4), the moving image creation image Pn is selected (step S5), and the same processing is performed (steps S6 to S9).

なお、動画作成用画像Pの選択は、観察者が操作部30を用いて手動で行ってもよい。 Note that the moving image creation image Pn may be manually selected by the observer using the operation unit 30.

画像の選択が終了した場合は、動画作成部28は、ベース画像P及び動画作成用画像P〜Pを、時系列順にソートする(ステップS10)。 When the selection of the image is completed, the moving image creating unit 28 sorts the base image P 0 and the moving image creating images P 1 to P n in chronological order (step S10).

サーバ100に記憶されている眼科画像のヘッダ部には、撮影画像であれば撮影日時が、解析画像であれば解析の基となった撮影画像の撮影日時が記録されている。   In the header portion of the ophthalmic image stored in the server 100, the shooting date / time is recorded if it is a captured image, and the shooting date / time of the captured image that is the basis of analysis is recorded if it is an analysis image.

図5は、ベース画像P及び動画作成用画像P〜Pの撮影日と、時系列順に並べた場合の順序を示す図である。ここでは、時系列順として、古い順に並べている。 FIG. 5 is a diagram illustrating the shooting dates of the base image P 0 and the moving image creation images P 1 to P 5 and the order when arranged in time series. Here, they are arranged in chronological order from the oldest.

図5に示すように、ベース画像P及び動画作成用画像P〜Pの撮影日は、それぞれベース画像Pが2013年6月22日、動画作成用画像Pが2014年7月1日、動画作成用画像Pが2013年12月15日、動画作成用画像Pが2016年1月12日、動画作成用画像Pが2016年7月21日、及び動画作成用画像Pが2015年1月31日である。したがって、撮影日の古い順に画像を並べると、ベース画像P、動画作成用画像P、動画作成用画像P、動画作成用画像P、動画作成用画像P、及び動画作成用画像Pの順になる。 As shown in FIG. 5, the shooting dates of the base image P 0 and the moving image creation images P 1 to P 5 are June 22, 2013 for the base image P 0 and July 2014 for the moving image creation image P 1 , respectively. 1 day, moving creating image P 2 December 15, 2013, the moving image creating image P 3 January 12, 2016, the moving image creating image P 4 July 21, 2016, and moving creating image P 5 is a January 31, 2015. Accordingly, when the images are arranged in order from the oldest shooting date, the base image P 0 , the movie creation image P 2 , the movie creation image P 1 , the movie creation image P 5 , the movie creation image P 3 , and the movie creation image. made in the order of P 4.

続いて、動画作成部28は、時系列順にソートしたベース画像P及び動画作成用画像P〜Pを時系列的に結合して、タイムラプス動画を作成する(ステップS11、動画作成工程の一例)。 Subsequently, the moving picture creating unit 28 creates a time-lapse moving picture by combining the base image P 0 and the moving picture creating images P 1 to P n sorted in time series in time series (step S11, moving picture creating step). One case).

最後に、制御部12は、動画作成部28において作成された動画を、表示部32に表示する(ステップS12、表示工程の一例)。制御部12は、この動画をサーバ100に記録してもよい。   Finally, the control unit 12 displays the moving image created by the moving image creating unit 28 on the display unit 32 (step S12, an example of a display process). The control unit 12 may record this moving image on the server 100.

このように、複数の眼科画像を時系列順に連続して表示する動画を用いることで、観察者は、同一被検眼の時間的変化を視覚的に容易に把握することができる。ここでは眼底の正面像を動画にした例を説明したが、眼底の二次元断層像、三次元断層像、蛍光画像、厚みマップ及び厚みの変化マップ等を動画にすることで、同様の効果を得ることができる。   In this way, by using a moving image that displays a plurality of ophthalmologic images successively in chronological order, the observer can easily grasp the temporal change of the same eye to be examined. Although an example in which the front image of the fundus is converted into a moving image has been described here, the same effect can be obtained by converting the fundus 2D tomographic image, 3D tomographic image, fluorescence image, thickness map, thickness change map, and the like into a moving image. Can be obtained.

<第2の実施形態>
〔眼科画像表示装置の構成〕
図6は、第2の実施形態に係る眼科画像表示装置40の構成を示すブロック図である。なお、図1に示すブロック図と共通する部分には同一の符号を付し、その詳細な説明は省略する。
<Second Embodiment>
[Configuration of ophthalmic image display device]
FIG. 6 is a block diagram illustrating a configuration of an ophthalmologic image display apparatus 40 according to the second embodiment. In addition, the same code | symbol is attached | subjected to the part which is common in the block diagram shown in FIG. 1, and the detailed description is abbreviate | omitted.

図6に示すように、眼科画像表示装置40は、補間画像作成部34を備えている。   As shown in FIG. 6, the ophthalmic image display device 40 includes an interpolation image creation unit 34.

補間画像作成部34は、入力された2つの画像の間を時系列的に補間する補間画像を作成する。ここでは、補間画像作成部34は、2つの画像からブロックマッチング処理によって動きベクトルを検出し、検出した動きベクトルに基づいて補間画像を作成する。   The interpolated image creation unit 34 creates an interpolated image that interpolates between the two input images in time series. Here, the interpolation image creation unit 34 detects a motion vector from the two images by block matching processing, and creates an interpolation image based on the detected motion vector.

〔動画作成方法〕
図7は、本実施形態に係る眼科画像表示装置40が実行する動画表示処理を示すフローチャートである。なお、図2に示すフローチャートと共通する部分には同一の符号を付し、その詳細な説明は省略する。
[Video creation method]
FIG. 7 is a flowchart showing a moving image display process executed by the ophthalmologic image display apparatus 40 according to the present embodiment. Parts common to the flowchart shown in FIG. 2 are denoted by the same reference numerals, and detailed description thereof is omitted.

本実施形態では、動画を作成する画像の撮影日を基準に補間してモーフィングを作成することで、眼科画像の時間的変化を視覚的により容易に把握させる。   In the present embodiment, the temporal change of the ophthalmologic image is more easily grasped visually by interpolating the shooting date of the image for creating the moving image to create the morphing.

ステップS1〜ステップS10までの処理は、第1の実施形態と同様である。本実施形態において選択されたベース画像P及び動画作成用画像Pは、図5に示すベース画像P及び動画作成用画像P〜Pと同様であるものとする。 The processing from step S1 to step S10 is the same as in the first embodiment. Base image P 0 and the image P n for the moving image creating selected in the present embodiment is assumed to be the same as the base image P 0 and the moving image creating images P 1 to P 5 shown in FIG.

ステップS10において、動画作成部28がベース画像P及び動画作成用画像P〜Pを時系列順にソートすると、補間画像作成部34は、時系列順に隣接する2つの画像の間を時系列的に補間する補間画像を作成する(ステップS21)。ここでは、時系列順に隣接する2つの画像の撮影間隔に応じた数の補間画像を作成する。 In step S10, when the moving image creating unit 28 sorts the base image P 0 and the moving image creating images P 1 to P n in time series, the interpolated image creating unit 34 performs time series between two adjacent images in time series. An interpolation image to be interpolated is created (step S21). Here, the number of interpolated images corresponding to the shooting interval between two adjacent images in time series order is created.

図8は、ベース画像P及び動画作成用画像P〜Pを時系列順に並べ、時系列順に隣接する2つの画像の撮影間隔を示した図である。図8に示すように、ベース画像Pと動画作成用画像Pとの撮影間隔は約6ヶ月、動画作成用画像Pと動画作成用画像Pとの撮影間隔は約6ヶ月、動画作成用画像Pと動画作成用画像Pとの撮影間隔は約6ヶ月、動画作成用画像Pと動画作成用画像Pとの撮影間隔は約12ヶ月、及び動画作成用画像Pと動画作成用画像Pとの撮影間隔は約6ヶ月である。 FIG. 8 is a diagram illustrating the shooting interval between two images that are arranged in the time series in which the base image P 0 and the moving image creation images P 1 to P 5 are arranged in the time series. As shown in FIG. 8, the shooting interval between the base image P 0 and the moving image creation image P 2 is about 6 months, and the shooting interval between the moving image generation image P 2 and the moving image generation image P 1 is about 6 months. shooting interval between creating image P 1 and the moving image shooting interval between creating image P 5 is from about 6 months, moving creating image P 5 and video creating image P 3 is about 12 months, and moving creating image P 3 shooting interval of the video created for the image P 4 and is about 6 months.

ここでは、約3ヶ月経過毎の補間画像を作成するものとする。したがって、必要な補間画像の数は、ベース画像Pと動画作成用画像Pとの間を補間する補間画像は1つ、動画作成用画像Pと動画作成用画像Pとの間を補間する補間画像は1つ、動画作成用画像Pと動画作成用画像Pとの間を補間する補間画像は1つ、動画作成用画像Pと動画作成用画像Pとの間を補間する補間画像は3つ、及び動画作成用画像Pと動画作成用画像Pとの間を補間する補間画像は1つである。 Here, it is assumed that an interpolation image is created every about three months. Therefore, the number of necessary interpolation images is one interpolation image for interpolating between the base image P 0 and the moving image creating image P 2, and between the moving image creating image P 2 and the moving image creating image P 1. One interpolated image to be interpolated, one interpolated image to interpolate between the moving image creating image P 1 and the moving image creating image P 5, and between the moving image creating image P 5 and the moving image creating image P 3. interpolation image for interpolating three, and the interpolation image for interpolating between the moving image creating image P 3 and moving creating image P 4 is one.

補間画像作成部34は、必要な数の補間画像を作成する。例えば、ベース画像Pと動画作成用画像Pとの補間画像であれば、この2つの画像から検出された動きベクトルを2等分する補間画像を作成する。また、動画作成用画像Pと動画作成用画像Pと補間画像であれば、この2つの画像から検出された動きベクトルを4等分する補間画像を作成する。 The interpolation image creation unit 34 creates a necessary number of interpolation images. For example, in the case of an interpolated image of the base image P 0 and the moving image creating image P 2 , an interpolated image that divides the motion vector detected from these two images into two equal parts is created. Further, if the interpolated image and the moving image creating image P 5 and video creating image P 3, generating an interpolation image to 4 equally dividing the detected motion vector from the two images.

補間画像を作成したら、動画作成部28は、時系列順にソートしたベース画像P及び動画作成用画像P〜P及びそれぞれの補間画像を時系列的に結合して、タイムラプス動画を作成する(ステップS11)。また、制御部12は、動画作成部28において作成された動画を、表示部32に表示する(ステップS12)。 After creating the interpolated image, the moving image creating unit 28 creates a time-lapse moving image by combining the base image P 0 and the moving image creating images P 1 to P n sorted in time series order and the respective interpolated images in time series. (Step S11). Moreover, the control part 12 displays the moving image produced in the moving image production part 28 on the display part 32 (step S12).

このように作成された動画は、時系列順に先の画像から時系列順に後の画像へと変化する様子が滑らかに再現される。したがって、観察者は、同一被検眼の時間的変化を視覚的にさらに容易に把握することができる。   The moving image created in this manner smoothly reproduces the change from the previous image to the subsequent image in the time series order. Therefore, the observer can visually grasp the temporal change of the same eye to be examined more easily.

また、時系列順に隣接する2つの画像の撮影間隔に応じた数の補間画像を作成することで、同一被検眼の時間的変化を正確に再現させることができる。なお、作成する補間画像の数は特に限定されず、一般的に動画として視認しやすい枚数を適宜作成すればよい。   In addition, by creating the number of interpolated images corresponding to the imaging interval between two images that are adjacent in time series order, the temporal change of the same eye to be examined can be accurately reproduced. Note that the number of interpolation images to be created is not particularly limited, and a number that is generally easy to visually recognize as a moving image may be created as appropriate.

<第3の実施形態>
〔眼科画像表示装置の構成〕
図9は、第3の実施形態に係る眼科画像表示装置50の構成を示すブロック図である。なお、図6に示すブロック図と共通する部分には同一の符号を付し、その詳細な説明は省略する。
<Third Embodiment>
[Configuration of ophthalmic image display device]
FIG. 9 is a block diagram illustrating a configuration of an ophthalmologic image display apparatus 50 according to the third embodiment. In addition, the same code | symbol is attached | subjected to the part which is common in the block diagram shown in FIG. 6, and the detailed description is abbreviate | omitted.

眼科画像表示装置50の位置合わせ部18は、ベース画像Pと動画作成用画像Pとの間の回転移動量をサブピクセルレベルで算出し、この回転移動量に基づいてベース画像Pと動画作成用画像Pとの間で回転方向の位置合わせを行う。その後、位置合わせ部18は、位置合わせがなされたベース画像Pと動画作成用画像Pとの間の平行移動量をサブピクセルレベルで算出し、この平行移動量に基づいてベース画像Pと動画作成用画像Pとの間で平行方向の位置合わせを行う。 The alignment unit 18 of the ophthalmic image display device 50 calculates a rotational movement amount between the base image P 0 and the moving image creation image P n at a subpixel level, and based on the rotational movement amount, the base image P 0 and Positioning in the rotational direction is performed with the moving image creation image Pn . Thereafter, the alignment unit 18 calculates a parallel movement amount between the aligned base image P 0 and the moving image creation image P n at the sub-pixel level, and the base image P 0 based on the parallel movement amount. And the moving image creation image P n are aligned in the parallel direction.

このような処理を実現するために、位置合わせ部18は、図9に示すように、回転移動量算出部52、画像回転部54、平行移動量算出部56、及び画像平行移動部58を備えている。   In order to realize such processing, the alignment unit 18 includes a rotational movement amount calculation unit 52, an image rotation unit 54, a parallel movement amount calculation unit 56, and an image parallel movement unit 58, as shown in FIG. ing.

位置合わせ部18は、後述する位相限定相関処理を施すことにより、ベース画像Pと動画作成用画像Pとの間の回転移動量及び平行移動量を算出する。ここで、位置合わせ部18は、位相限定相関処理に用いられるベース画像についてのPOC(Phase Only Correlation)データ(第1データ)については予め算出しておく。以下、ベース画像PについてのPOCデータをベースPOCデータと呼び、動画作成用画像PについてのPOCデータをターゲットPOCデータと呼ぶことがある。位置合わせ部18は、ターゲット画像POCデータ(第2データ)が算出されると、ターゲットPOCデータと予め求められたベースPOCデータとを用いて位相限定相関処理を継続させる。これにより、処理負荷の軽減と処理時間との短縮化とを図り、微小な位置ずれ量を算出する。 The alignment unit 18 calculates a rotational movement amount and a parallel movement amount between the base image P 0 and the moving image creation image P n by performing a phase-only correlation process described later. Here, the alignment unit 18 calculates in advance POC (Phase Only Correlation) data (first data) for the base image used for the phase-only correlation process. Hereinafter, the POC data for the base image P 0 may be referred to as base POC data, and the POC data for the moving image creation image P n may be referred to as target POC data. When the target image POC data (second data) is calculated, the alignment unit 18 continues the phase-only correlation process using the target POC data and the base POC data obtained in advance. As a result, the processing load is reduced and the processing time is shortened, and a minute positional deviation amount is calculated.

(位相限定相関処理)
本実施形態における位相限定相関処理では、公知の位相限定相関関数が用いられる。
(Phase only correlation processing)
In the phase only correlation process in the present embodiment, a known phase only correlation function is used.

まず、画像サイズがN×N(N、Nは正の整数)であるベース画像Pをf(n,n)、動画作成用画像Pをg(n,n)とする。ここで、離散空間上でn=−M,・・・,Mとし、N=2M+1(Mは正の整数)とし、f(n,n)の2次元離散フーリエ変換(Discrete Fourier Transformation:以下、DFT)の演算結果をF(k,k)とすると、F(k,k)は、式(1)のように表される。 First, base image P 0 having an image size of N 1 × N 2 (N 1 and N 2 are positive integers) is represented by f (n 1 , n 2 ), and moving image creation image P n is represented by g (n 1 , n 2 ). Here, n 1 = −M 1 ,..., M 1 on the discrete space, N 1 = 2M 1 +1 (M 1 is a positive integer), and f (n 1 , n 2 ) two-dimensional discrete Assuming that the calculation result of the Fourier transform (hereinafter referred to as DFT) is F (k 1 , k 2 ), F (k 1 , k 2 ) is expressed as equation (1).

Figure 2018143434
Figure 2018143434

式(1)において、AF(k,k)はf(n,n)の振幅成分であり、ejθF(k1,k2)はf(n,n)の位相成分である。 In equation (1), AF (k 1 , k 2 ) is the amplitude component of f (n 1 , n 2 ), and e jθF (k1, k2) is the phase component of f (n 1 , n 2 ). .

同様に、離散空間上でn=−M,・・・,Mとし、N=2M+1(Mは正の整数)とし、g(n,n)の2次元DFTの演算結果をG(k,k)とすると、G(k,k)は、式(2)のように表される。 Similarly, in a discrete space, n 2 = −M 2 ,..., M 2 , N 2 = 2M 2 +1 (M 2 is a positive integer), and a two-dimensional DFT of g (n 1 , n 2 ) If G (k 1 , k 2 ) is G (k 1 , k 2 ), then G (k 1 , k 2 ) is expressed as in equation (2).

Figure 2018143434
Figure 2018143434

式(2)において、A(k,k)はg(n,n)の振幅成分であり、ejθG(k1,k2)はg(n,n)の位相成分である。 In Expression (2), A G (k 1 , k 2 ) is an amplitude component of g (n 1 , n 2 ), and e jθG (k1, k2) is a phase component of g (n 1 , n 2 ). is there.

位相限定合成処理に用いられる位相限定合成関数は、式(1)及び式(2)を用いて、式(3)のように定義される。   The phase only synthesis function used in the phase only synthesis process is defined as in equation (3) using equations (1) and (2).

Figure 2018143434
Figure 2018143434

本実施形態における位相限定相関関数は、式(3)の位相限定合成関数に対して2次元逆離散フーリエ変換(Inverse Discrete Fourier Transformation:以下、IDFT)を施すことにより、式(4)のように表される。   The phase-only correlation function in the present embodiment is obtained by applying a two-dimensional inverse discrete Fourier transformation (hereinafter referred to as IDFT) to the phase-only synthesis function of Equation (3) as shown in Equation (4). expressed.

Figure 2018143434
Figure 2018143434

連続空間で定義された2次元画像s(x,x)を、x方向に微小移動量δだけ、且つ、x方向に微小移動量δだけシフトさせて得られる画像は、s(x−δ,x−δ)と表される。標本化間隔Tで標本化された離散空間上の2次元画像f(n,n)は、式(5)のように定義される。 The 2-dimensional images s c of the continuous space is defined (x 1, x 2), by a minute amount of movement [delta] 1 in x 1 direction and the image obtained by shifting the x 2 direction by a minute amount of movement [delta] 2 is , S c (x 1 −δ 1 , x 2 −δ 2 ). A two-dimensional image f (n 1 , n 2 ) on the discrete space sampled at the sampling interval T 1 is defined as in Expression (5).

Figure 2018143434
Figure 2018143434

同様に、標本化間隔Tで標本化された離散空間上の2次元画像g(n,n)は、式(6)のように定義される。 Similarly, a two-dimensional image g (n 1 , n 2 ) on the discrete space sampled at the sampling interval T 2 is defined as in Expression (6).

Figure 2018143434
Figure 2018143434

式(5)及び式(6)において、n=−M,・・・,Mであり、n=−M,・・・,Mである。これにより、離散空間上の2次元画像f(n,n)、g(n,n)に関する位相限定相関関数は、式(7)のような一般形で表される。式(7)において、α=1である。 In the formula (5) and (6), n 1 = -M 1, ···, a M 1, n 2 = -M 2 , ···, a M 2. Thereby, the phase-only correlation function regarding the two-dimensional images f (n 1 , n 2 ) and g (n 1 , n 2 ) on the discrete space is expressed in a general form as in Expression (7). In equation (7), α = 1.

Figure 2018143434
Figure 2018143434

上記の位相限定相関処理を行う位置合わせ部18について説明する。図10は、位置合わせ部18の一例を示すブロック図である。   The alignment unit 18 that performs the phase-only correlation process will be described. FIG. 10 is a block diagram illustrating an example of the alignment unit 18.

(回転移動量算出部)
回転移動量算出部52は、ベース画像Pと動画作成用画像Pとの間の回転移動量を算出する。具体的には、回転移動量算出部52は、ベース画像Pと動画作成用画像Pとに対し位相限定相関処理を施すことにより、ベース画像Pと動画作成用画像Pとの間の回転移動量を算出する。このような回転移動量算出部52は、図10に示すように、回転移動量算出部52は、第1変換処理部60、対数変換部62、極座標変換部64、第2変換処理部66、第1位相限定合成部68、及び第1逆変換処理部70を備えている。
(Rotational movement amount calculation unit)
The rotational movement amount calculation unit 52 calculates the rotational movement amount between the base image P 0 and the moving image creation image P n . Specifically, the rotational movement amount calculating section 52, by contrast with the base image P 0 and the moving creating image P n subjected to phase-only correlation processing between the base image P 0 and the moving creating image P n The amount of rotational movement is calculated. As shown in FIG. 10, such a rotational movement amount calculation unit 52 includes a first conversion processing unit 60, a logarithmic conversion unit 62, a polar coordinate conversion unit 64, a second conversion processing unit 66, A first phase only synthesis unit 68 and a first inverse transform processing unit 70 are provided.

第1変換処理部60は、ベース画像Pに対し2次元DFT処理を施す。また、第1変換処理部60は、動画作成用画像Pに対し2次元DFT処理を施す。第1変換処理部60により行われる2次元DFT処理は、2次元DFTと、この2次元DFTの演算結果に対し象限をシフトする公知のシフト処理とを含む。以下、このシフト処理を、「シフト」と呼ぶことがある。なお、第1変換処理部60により行われる2次元DFTは、2次元FFT(Fast Fourier Transformation)であってよい。 First conversion processing unit 60, the base image P 0 to performing two-dimensional DFT processing. The first conversion processing unit 60 performs a two-dimensional DFT process on the moving image creation image Pn . The two-dimensional DFT process performed by the first conversion processing unit 60 includes a two-dimensional DFT and a known shift process for shifting a quadrant with respect to the calculation result of the two-dimensional DFT. Hereinafter, this shift process may be referred to as “shift”. Note that the two-dimensional DFT performed by the first transformation processing unit 60 may be a two-dimensional FFT (Fast Fourier Transformation).

対数変換部62は、ベース画像Pについての第1変換処理部60による演算結果に対し対数変換を施す。また、対数変換部62は、動画作成用画像Pについての第1変換処理部60による演算結果に対し対数変換を施す。対数変換部62による対数変換は、自然画像において空間周波数の低周波数領域に集中する傾向がある振幅スペクトルを圧縮させる効果を有する。 Logarithmic conversion unit 62, calculation result of the first conversion processing section 60 for the base image P 0 to performing logarithmic transformation. In addition, the logarithmic conversion unit 62 performs logarithmic conversion on the calculation result by the first conversion processing unit 60 for the moving image creation image Pn . The logarithmic transformation by the logarithmic transformation unit 62 has an effect of compressing an amplitude spectrum that tends to concentrate in a low frequency region of a spatial frequency in a natural image.

極座標変換部64は、ベース画像Pについての対数変換部62による演算結果に対し極座標変換を施す。また、極座標変換部64は、動画作成用画像Pについての対数変換部62による演算結果に対し極座標変換を施す。なお、対数変換部62による対数変換を行わない場合、極座標変換部64は、ベース画像Pについての第1変換処理部60による演算結果に対し極座標変換を施し、動画作成用画像Pについての第1変換処理部60による演算結果に対し極座標変換を施す。極座標変換部64による極座標変換は、回転方向の移動量を式(1)〜式(7)における平行方向(n方向やn方向)の移動量に変換する処理である。 Polar coordinate conversion section 64, the operation result by the logarithmic transformation unit 62 for the base image P 0 to performing polar coordinate conversion. In addition, the polar coordinate conversion unit 64 performs polar coordinate conversion on the calculation result of the logarithmic conversion unit 62 for the moving image creation image P n . When logarithmic conversion by the logarithmic conversion unit 62 is not performed, the polar coordinate conversion unit 64 performs polar coordinate conversion on the calculation result of the first conversion processing unit 60 for the base image P 0 , and the moving image creation image P n is obtained. Polar coordinate conversion is performed on the calculation result by the first conversion processing unit 60. Polar conversion by polar coordinate transformation unit 64 is a process of converting the movement amount of the rotational direction to the amount of movement of the parallel direction (n 1 direction and n 2 direction) in the formula (1) to (7).

第2変換処理部66は、式(1)に示すように、ベース画像Pについての極座標変換部64による演算結果に対し2次元DFT処理(2次元DFT+シフト)を施す。ベース画像Pについての第2変換処理部66による処理結果は、第1位相限定合成部68による演算処理に先立って、振幅成分で正規化されたベースPOCデータ(第1データ)として、例えば制御部12の不図示のROMに事前に保存される。また、第2変換処理部66は、式(2)に示すように、動画作成用画像Pについての極座標変換部64による演算結果に対し2次元DFT処理(2次元DFT+シフト)を施す。なお、第2変換処理部66により行われる2次元DFTもまた、2次元FFTであってよい。 The second conversion processing unit 66 performs a two-dimensional DFT process (two-dimensional DFT + shift) on the calculation result by the polar coordinate conversion unit 64 for the base image P 0 as shown in Expression (1). The processing result by the second conversion processing unit 66 for the base image P 0 is, for example, controlled as base POC data (first data) normalized by the amplitude component prior to the arithmetic processing by the first phase only combining unit 68. It is stored in advance in a ROM (not shown) of the unit 12. Further, as shown in Expression (2), the second conversion processing unit 66 performs a two-dimensional DFT process (two-dimensional DFT + shift) on the calculation result by the polar coordinate conversion unit 64 for the moving image creation image Pn . Note that the two-dimensional DFT performed by the second conversion processing unit 66 may also be a two-dimensional FFT.

第1位相限定合成部68は、式(3)に示すように、ベース画像Pについて予め求められたベースPOCデータ(第1データ)と、動画作成用画像Pについての第2変換処理部66による演算結果に基づいて振幅成分で正規化されたターゲットPOCデータ(第2データ)とを合成する位相限定合成処理を行う。 As shown in Expression (3), the first phase only synthesis unit 68 is a second conversion processing unit for the base POC data (first data) obtained in advance for the base image P 0 and the moving image creation image P n. Based on the calculation result of 66, a phase-only combining process for combining the target POC data (second data) normalized with the amplitude component is performed.

第1逆変換処理部70は、第1位相限定合成部68による演算結果に対し2次元IDFT処理を施す。第1逆変換処理部70により行われる2次元IDFT処理は、2次元IDFTと、この2次元IDFTの演算結果に対し象限をシフトする公知のシフト処理とを含む。なお、2次元IDFTは、2次元逆高速フーリエ変換(Inverse Fast Fourier Transformation:以下、IFFT)により演算してもよい。   The first inverse transform processing unit 70 performs a two-dimensional IDFT process on the calculation result by the first phase only synthesis unit 68. The two-dimensional IDFT process performed by the first inverse transform processing unit 70 includes a two-dimensional IDFT and a known shift process for shifting the quadrant with respect to the calculation result of the two-dimensional IDFT. The two-dimensional IDFT may be calculated by a two-dimensional inverse fast Fourier transformation (hereinafter referred to as IFFT).

回転移動量算出部52は、第1逆変換処理部70による演算結果に基づいて回転移動量を算出する。具体的には、回転移動量算出部52は、第1逆変換処理部70による演算結果に基づいてピーク位置を特定することにより、ピクセルレベルで回転方向の移動量(回転移動量、位置ずれ量)を算出する。その後、回転移動量算出部52は、ピクセルレベルで特定されたピーク位置の近傍において、式(7)に示す位相限定相関関数の相関値が最大となるときの画素位置を特定することにより、サブピクセルレベルで回転方向の移動量(回転移動量、位置ずれ量)を算出する。   The rotational movement amount calculation unit 52 calculates the rotational movement amount based on the calculation result by the first inverse conversion processing unit 70. Specifically, the rotational movement amount calculation unit 52 specifies the peak position based on the calculation result by the first inverse conversion processing unit 70, thereby moving the rotational direction movement amount (rotational movement amount, displacement amount) at the pixel level. ) Is calculated. Thereafter, the rotational movement amount calculation unit 52 specifies the pixel position when the correlation value of the phase-only correlation function shown in Expression (7) is maximum in the vicinity of the peak position specified at the pixel level. The amount of movement in the rotation direction (rotation movement amount, displacement amount) is calculated at the pixel level.

回転移動量算出部52は、ベース画像Pを基準に、動画作成用画像Pの回転方向の移動量を算出するものとして説明したが、これに限定されるものではない。回転移動量算出部52は、ターゲット画像を基準に、ベース画像の回転方向の移動量を算出してもよい。 Rotational movement amount calculating section 52, based on the base image P 0, it is described that calculates a movement amount of the rotation direction of the image P n for creating video, but is not limited thereto. The rotational movement amount calculation unit 52 may calculate the movement amount in the rotation direction of the base image based on the target image.

また、回転移動量算出部52は、位相限定相関処理により回転移動量を算出するものでなくてもよく、公知の手法により回転移動量を算出し、算出された回転移動量を画像回転部54に出力するようにしてもよい。   Further, the rotational movement amount calculation unit 52 does not have to calculate the rotational movement amount by the phase-only correlation process. The rotational movement amount is calculated by a known method, and the calculated rotational movement amount is used as the image rotation unit 54. May be output.

(画像回転部)
画像回転部54は、回転移動量算出部52により算出された回転移動量に基づいてベース画像Pと動画作成用画像Pとの間の回転方向の位置合わせを行う。具体的には、画像回転部54は、回転移動量算出部52により算出された回転移動量に基づいて、ベース画像Pを基準に、回転移動量が零となるように動画作成用画像Pに対し回転方向の位置合わせを行う。
(Image rotation part)
The image rotation unit 54 aligns the rotation direction between the base image P 0 and the moving image creation image P n based on the rotation movement amount calculated by the rotation movement amount calculation unit 52. Specifically, the image rotation unit 54 uses the rotation movement amount calculated by the rotation movement amount calculation unit 52 to make the moving image creation image P so that the rotation movement amount becomes zero with reference to the base image P 0. Alignment in the rotation direction with respect to n .

(平行移動量算出部)
平行移動量算出部56は、画像回転部54による位置合わせがなされたベース画像Pと動画作成用画像Pとの間の平行移動量を算出する。具体的には、平行移動量算出部56は、画像回転部54による位置合わせがなされたベース画像Pと動画作成用画像Pとに対し位相限定相関処理を施すことにより、ベース画像Pと動画作成用画像Pとの間の平行移動量を算出する。このような平行移動量算出部56は、図10に示すように、第3変換処理部72、第2位相限定合成部74、及び第2逆変換処理部76を備えている。
(Translation amount calculation unit)
The parallel movement amount calculation unit 56 calculates the parallel movement amount between the base image P 0 that has been aligned by the image rotation unit 54 and the moving image creation image P n . Specifically, the parallel movement amount calculation unit 56 performs phase-only correlation processing on the base image P 0 and the moving image creation image P n that have been aligned by the image rotation unit 54, thereby performing the base image P 0. And the parallel movement amount between the moving image creation image Pn . As shown in FIG. 10, the parallel movement amount calculation unit 56 includes a third conversion processing unit 72, a second phase only combining unit 74, and a second inverse conversion processing unit 76.

第3変換処理部72は、式(1)に示すように、ベース画像Pに対し2次元DFT処理(2次元DFT+シフト)を施す。ベース画像Pについての第3変換処理部72による処理結果は、第2位相限定合成部74による演算処理に先立って、振幅成分で正規化されたベースPOCデータ(第3データ)として、たとえば記憶部212に事前に保存される。また、第3変換処理部72は、式(2)に示すように、動画作成用画像Pに対し2次元DFT処理(2次元DFT+シフト)を施す。なお、第3変換処理部72により行われる2次元DFTは、2次元FFTであってよい。 The third conversion processing unit 72 performs two-dimensional DFT processing (two-dimensional DFT + shift) on the base image P 0 as shown in Expression (1). The processing result of the third conversion processing unit 72 for the base image P 0 is stored, for example, as base POC data (third data) normalized by the amplitude component prior to the arithmetic processing by the second phase only combining unit 74. Stored in the unit 212 in advance. Further, as shown in Expression (2), the third conversion processing unit 72 performs a two-dimensional DFT process (two-dimensional DFT + shift) on the moving image creation image Pn . Note that the two-dimensional DFT performed by the third conversion processing unit 72 may be a two-dimensional FFT.

第2位相限定合成部74は、式(3)に示すように、ベース画像Pについて予め求められたベースPOCデータ(第3データ)と、動画作成用画像Pについての第3変換処理部72による演算結果に基づいて、振幅成分で正規化されたターゲットPOCデータ(第4データ)とを合成する位相限定合成処理を行う。 As shown in Expression (3), the second phase only synthesis unit 74 is a third conversion processing unit for base POC data (third data) obtained in advance for the base image P 0 and the moving image creation image P n. Based on the calculation result by 72, a phase only synthesis process for synthesizing the target POC data (fourth data) normalized by the amplitude component is performed.

第2逆変換処理部76は、第2位相限定合成部74による演算結果に対し2次元IDFT処理(2次元IDFT+シフト)を施す。なお、第2逆変換処理部76により行われる2次元IDFTは、2次元IFFTであってよい。   The second inverse transform processing unit 76 performs a two-dimensional IDFT process (two-dimensional IDFT + shift) on the calculation result by the second phase only synthesis unit 74. Note that the two-dimensional IDFT performed by the second inverse transform processing unit 76 may be a two-dimensional IFFT.

平行移動量算出部56は、第2逆変換処理部76による演算結果に基づいて平行移動量を算出する。具体的には、平行移動量算出部56は、第2逆変換処理部76による演算結果に基づいてピーク位置を特定することにより、ピクセルレベルで平行方向の移動量(平行移動量、位置ずれ量)を算出する。その後、平行移動量算出部56は、ピクセルレベルで特定されたピーク位置の近傍において、式(7)に示す位相限定相関関数の相関値が最大となるときの画素位置を特定することにより、サブピクセルレベルで平行方向の移動量(平行移動量、位置ずれ量)を算出する。   The parallel movement amount calculation unit 56 calculates the parallel movement amount based on the calculation result by the second inverse transformation processing unit 76. Specifically, the parallel movement amount calculation unit 56 specifies the peak position based on the calculation result by the second inverse conversion processing unit 76, thereby moving the movement amount in the parallel direction (parallel movement amount, positional deviation amount) at the pixel level. ) Is calculated. After that, the parallel movement amount calculation unit 56 specifies the pixel position when the correlation value of the phase-only correlation function shown in Expression (7) is maximum in the vicinity of the peak position specified at the pixel level. The amount of movement in the parallel direction (parallel movement amount, displacement amount) is calculated at the pixel level.

平行移動量算出部56は、ベース画像Pを基準に、動画作成用画像Pの平行方向の移動量を算出するものとして説明したが、これに限定されるものではない。平行移動量算出部56は、動画作成用画像Pを基準に、ベース画像Pの平行方向の移動量を算出してもよい。 Translation amount calculating section 56, based on the base image P 0, it is described that calculates a movement amount in the parallel direction of the image P n for creating video, but is not limited thereto. The parallel movement amount calculation unit 56 may calculate the movement amount in the parallel direction of the base image P 0 with reference to the moving image creation image P n .

平行移動量算出部56において算出された平行移動量は、画像平行移動部58に出力される。   The translation amount calculated by the translation amount calculation unit 56 is output to the image translation unit 58.

(画像平行移動部)
画像平行移動部58は、平行移動量算出部56により算出された平行移動量に基づいてベース画像Pと動画作成用画像Pとの間の平行方向の位置合わせを行う。具体的には、画像平行移動部58は、平行移動量算出部56により算出された平行移動量に基づいて、ベース画像Pを基準に、平行移動量が零となるように動画作成用画像Pに対し平行方向の位置合わせを行う。
(Image translation part)
The image translation unit 58 performs alignment in the parallel direction between the base image P 0 and the moving image creation image P n based on the translation amount calculated by the translation amount calculation unit 56. Specifically, the image translation unit 58 uses the translation amount calculated by the translation amount calculation unit 56 to create a moving image creation image so that the translation amount becomes zero with reference to the base image P 0. Position alignment in the parallel direction with respect to Pn .

〔動画作成方法〕
図11は、本実施形態に係る眼科画像表示装置50が実行する動画表示処理を示すフローチャートである。なお、図7に示すフローチャートと共通する部分には同一の符号を付し、その詳細な説明は省略する。
[Video creation method]
FIG. 11 is a flowchart showing a moving image display process executed by the ophthalmologic image display apparatus 50 according to the present embodiment. In addition, the same code | symbol is attached | subjected to the part which is common in the flowchart shown in FIG. 7, and the detailed description is abbreviate | omitted.

本実施形態では、動画を作成する際の画像の位置合わせに位相限定相関処理を用いる。   In the present embodiment, phase-only correlation processing is used for image alignment when creating a moving image.

第2の実施形態と同様に、変数nを0に初期化し(ステップS1)、観察者がベース画像Pを選択する(ステップS2)。 Like the second embodiment, and initializes the variable n to 0 (step S1), the observer selects a base image P 0 (step S2).

次に、変数nをインクリメントし(ステップS4)、動画を作成するための動画作成用画像Pを選択する(ステップS5)。 Next, the variable n is incremented (step S4), and a moving image creation image Pn for creating a moving image is selected (step S5).

続いて、回転移動量算出部52は、ベース画像Pと動画作成用画像Pとの間の回転移動量を算出する(ステップS31)。また、画像回転部54は、回転移動量算出部52により算出された回転移動量に基づいてベース画像Pと動画作成用画像Pとの間の回転方向の位置合わせを行う(ステップS32)。 Subsequently, the rotational movement amount calculating section 52 calculates a rotational movement amount between the base image P 0 and the moving creating image P n (step S31). Further, the image rotation unit 54 performs alignment in the rotation direction between the base image P 0 and the moving image creation image P n based on the rotation movement amount calculated by the rotation movement amount calculation unit 52 (step S32). .

次に、平行移動量算出部56は、画像回転部54による位置合わせがなされたベース画像Pと動画作成用画像Pとの間の平行移動量を算出する(ステップS33)。さらに、画像平行移動部58は、平行移動量算出部56により算出された平行移動量に基づいてベース画像Pと動画作成用画像Pとの間の平行方向の位置合わせを行う(ステップS34)。 Next, the parallel movement amount calculation unit 56 calculates the parallel movement amount between the base image P 0 and the moving image creation image P n that have been aligned by the image rotation unit 54 (step S33). Furthermore, the image translation unit 58 performs alignment in the parallel direction between the base image P 0 and the moving image creation image P n based on the translation amount calculated by the translation amount calculation unit 56 (step S34). ).

以下、第2の実施形態と同様に、動画作成用画像Pの明るさがベース画像Pの明るさに一致するように動画作成用画像Pの明るさを変更し(ステップS8)、動画を作成するための動画作成用画像Pの選択が終了するまで同様の処理を繰り返す(ステップS9)。 Hereinafter, as in the second embodiment, by changing the brightness of the moving image creating images P n as the brightness of the moving image creating images P n coincides with the brightness of the base image P 0 (step S8), and The same processing is repeated until the selection of the moving image creation image P n for creating a moving image is completed (step S9).

このように、本実施形態によれば、動画を作成する際の画像の位置合わせに位相限定相関処理を用いることで、より適切な動画を作成することができる。   Thus, according to the present embodiment, a more appropriate moving image can be created by using the phase-only correlation process for image alignment when creating a moving image.

<その他>
ここまで説明した実施形態において、例えば、制御部12、位置合わせ部18、明るさ変更部26、動画作成部28、補間画像作成部34、回転移動量算出部52、画像回転部54、平行移動量算出部56、画像平行移動部58、第1変換処理部60、対数変換部62、極座標変換部64、第2変換処理部66、第1位相限定合成部68、第1逆変換処理部70、第3変換処理部72、第2位相限定合成部74、及び第2逆変換処理部76等の各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
<Others>
In the embodiment described so far, for example, the control unit 12, the alignment unit 18, the brightness change unit 26, the moving image creation unit 28, the interpolation image creation unit 34, the rotational movement amount calculation unit 52, the image rotation unit 54, the parallel movement. An amount calculation unit 56, an image translation unit 58, a first conversion processing unit 60, a logarithmic conversion unit 62, a polar coordinate conversion unit 64, a second conversion processing unit 66, a first phase only synthesis unit 68, and a first inverse conversion processing unit 70. The hardware structure of the processing unit (processing unit) that executes various processes such as the third conversion processing unit 72, the second phase-only combining unit 74, and the second inverse conversion processing unit 76 is as follows. There are various kinds of processors. For various processors, the circuit configuration can be changed after manufacturing a CPU (Central Processing Unit), FPGA (Field Programmable Gate Array), which is a general-purpose processor that functions as various processing units by executing software (programs). Includes a dedicated electrical circuit that is a processor having a circuit configuration specifically designed to execute a specific process such as a programmable logic device (PLD) or ASIC (Application Specific Integrated Circuit) It is.

1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、サーバ及びクライアント等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、各種のプロセッサを1つ以上用いて構成される。   One processing unit may be configured by one of these various processors, or may be configured by two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of CPUs and FPGAs). May be. Further, the plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units with one processor, first, as represented by a computer such as a server and a client, one processor is configured with a combination of one or more CPUs and software. There is a form in which the processor functions as a plurality of processing units. Second, as represented by a system-on-chip (SoC) or the like, there is a form of using a processor that realizes the functions of the entire system including a plurality of processing units with a single integrated circuit (IC) chip. is there. As described above, various processing units are configured using one or more various processors as a hardware structure.

さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)である。   Further, the hardware structure of these various processors is more specifically an electric circuit (circuitry) in which circuit elements such as semiconductor elements are combined.

本実施形態に係る眼科画像表示方法は、コンピュータに上記の各工程を実行せるためのプログラムとして構成し、構成したプログラムを記憶したCD−ROM(Compact Disk-Read Only Memory)等の非一時的な記録媒体を構成することも可能である。   The ophthalmologic image display method according to the present embodiment is configured as a program for causing a computer to execute each of the above steps, and is a non-temporary method such as a CD-ROM (Compact Disk-Read Only Memory) that stores the configured program. It is also possible to configure a recording medium.

本発明の技術的範囲は、上記の実施形態に記載の範囲には限定されない。各実施形態における構成等は、本発明の趣旨を逸脱しない範囲で、各実施形態間で適宜組み合わせることができる。   The technical scope of the present invention is not limited to the scope described in the above embodiment. The configurations and the like in the embodiments can be appropriately combined between the embodiments without departing from the gist of the present invention.

10 眼科画像表示装置
12 制御部
14 通信部
16 画像メモリ
18 位置合わせ部
20 特徴点抽出部
22 対応点検出部
24 画像変形部
25 画像選択部
26 明るさ変更部
28 動画作成部
30 操作部
32 表示部
34 補間画像作成部
40 眼科画像表示装置
50 眼科画像表示装置
52 回転移動量算出部
54 画像回転部
56 平行移動量算出部
58 画像平行移動部
60 第1変換処理部
62 対数変換部
64 極座標変換部
66 第2変換処理部
68 第1位相限定合成部
70 第1逆変換処理部
72 第3変換処理部
74 第2位相限定合成部
76 第2逆変換処理部
100 サーバ
特徴点
特徴点
特徴点
特徴点
対応点
対応点
対応点
対応点
S1〜S34 動画表示処理の工程
DESCRIPTION OF SYMBOLS 10 Ophthalmological image display apparatus 12 Control part 14 Communication part 16 Image memory 18 Positioning part 20 Feature point extraction part 22 Corresponding point detection part 24 Image deformation part 25 Image selection part 26 Brightness change part 28 Movie creation part 30 Operation part 32 Display Unit 34 Interpolated Image Creation Unit 40 Ophthalmic Image Display Device 50 Ophthalmic Image Display Device 52 Rotation Movement Amount Calculation Unit 54 Image Rotation Unit 56 Parallel Movement Amount Calculation Unit 58 Image Parallel Movement Unit 60 First Conversion Processing Unit 62 Logarithmic Conversion Unit 64 Polar Coordinate Conversion Unit 66 second transformation processing unit 68 first phase only synthesis unit 70 first inverse transformation processing unit 72 third transformation processing unit 74 second phase only synthesis unit 76 second inverse transformation processing unit 100 server A 1 feature point A 2 feature Point A 3 Feature point An Feature point B 1 Corresponding point B 2 Corresponding point B 3 Corresponding point B n Corresponding point S1 to S34 Step of moving image display processing

Claims (13)

同一被検眼に関する複数の撮影画像、又は同一被検眼の形状に関する複数の解析画像を取得する画像取得部と、
前記取得した複数の画像の位置合わせを行う位置合わせ部と、
前記位置合わせされた複数の画像を時系列順につなぎ合わせて動画を作成する動画作成部と、
前記作成した動画を表示する表示部と、
を備えた眼科画像表示装置。
An image acquisition unit that acquires a plurality of captured images related to the same eye to be examined or a plurality of analysis images related to the shape of the same eye to be examined;
An alignment unit for aligning the acquired plurality of images;
A moving image creating unit that creates a moving image by joining the plurality of aligned images in chronological order;
A display unit for displaying the created video;
An ophthalmic image display device.
前記位置合わせ部は、
前記複数の画像のうちの1つの画像である第1画像から複数の特徴点を抽出する特徴点抽出部と、
前記複数の画像のうちの前記第1画像以外の第2画像から前記複数の特徴点に対応する複数の対応点を検出する対応点検出部と、
前記第2画像を変形して前記複数の対応点の位置をそれぞれ対応する前記複数の特徴点の位置に一致させる画像変形部と、
を備えた請求項1に記載の眼科画像表示装置。
The alignment unit is
A feature point extraction unit that extracts a plurality of feature points from a first image that is one of the plurality of images;
A corresponding point detection unit that detects a plurality of corresponding points corresponding to the plurality of feature points from a second image other than the first image of the plurality of images;
An image deformation unit that deforms the second image to match the positions of the plurality of corresponding points with the positions of the corresponding feature points, respectively;
The ophthalmic image display device according to claim 1, comprising:
前記対応点検出部は、テンプレートマッチングを用いて前記複数の対応点を検出する請求項2に記載の眼科画像表示装置。   The ophthalmologic image display apparatus according to claim 2, wherein the corresponding point detection unit detects the plurality of corresponding points using template matching. 前記画像変形部は、アフィン変換を用いて前記複数の対応点の位置をそれぞれ対応する前記複数の特徴点の位置に一致させる請求項2又は3に記載の眼科画像表示装置。   The ophthalmic image display device according to claim 2, wherein the image deforming unit matches the positions of the plurality of corresponding points with the corresponding positions of the plurality of feature points using affine transformation. 前記位置合わせ部は、
前記複数の画像のうちの1つの画像である第1画像と前記第1画像以外の第2画像との間の回転移動量を算出する回転移動量算出部と、
前記回転移動量算出部により算出された前記回転移動量に基づいて前記第1画像と前記第2画像との間の回転方向の位置合わせを行う画像回転部と、
前記画像回転部による位置合わせがなされた前記第1画像と前記第2画像とに対し位相限定相関処理を施すことにより、前記第1画像と前記第2画像との間の平行移動量を算出する平行移動量算出部と、
前記平行移動量算出部により算出された前記平行移動量に基づいて前記第1画像と前記第2画像との間の平行方向の位置合わせを行う画像平行移動部と、
を備えた請求項1に記載の眼科画像表示装置。
The alignment unit is
A rotational movement amount calculation unit that calculates a rotational movement amount between a first image that is one of the plurality of images and a second image other than the first image;
An image rotation unit that performs alignment in the rotation direction between the first image and the second image based on the rotation movement amount calculated by the rotation movement amount calculation unit;
A phase-only correlation process is performed on the first image and the second image that have been aligned by the image rotation unit, thereby calculating a parallel movement amount between the first image and the second image. A translation amount calculation unit;
An image translation unit that performs alignment in the parallel direction between the first image and the second image based on the translation amount calculated by the translation amount calculation unit;
The ophthalmic image display device according to claim 1, comprising:
前記回転移動量算出部は、前記第1画像と前記第2画像とに対し位相限定相関処理を施すことにより、前記第1画像と前記第2画像との間の回転移動量を算出する請求項5に記載の眼科画像表示装置。   The rotational movement amount calculation unit calculates a rotational movement amount between the first image and the second image by performing phase-only correlation processing on the first image and the second image. 5. An ophthalmologic image display device according to 5. 前記回転移動量算出部は、
前記第2画像に対し離散フーリエ変換を施す第1変換処理部と、
前記第2画像についての前記第1変換処理部による演算結果に対し極座標変換を施す極座標変換部と、
前記第2画像についての前記極座標変換部による演算結果に対し離散フーリエ変換を施す第2変換処理部と、
前記第1画像について予め求められた第1データと、前記第2画像についての前記第2変換処理部による演算結果に基づき求められた第2データとを合成する位相限定合成処理を行う第1位相限定合成部と、
前記第1位相限定合成部による演算結果に対し逆離散フーリエ変換を施す第1逆変換処理部と、を備え、
前記第1逆変換処理部による演算結果に基づいて前記回転移動量を算出する請求項6に記載の眼科画像表示装置。
The rotational movement amount calculation unit
A first transformation processing unit that performs a discrete Fourier transform on the second image;
A polar coordinate conversion unit that performs polar coordinate conversion on a calculation result of the first conversion processing unit for the second image;
A second transformation processing unit that performs a discrete Fourier transform on the calculation result of the polar coordinate transformation unit for the second image;
A first phase for performing a phase-only combining process for combining the first data obtained in advance for the first image and the second data obtained based on the calculation result of the second conversion processing unit for the second image. Limited synthesis department,
A first inverse transform processing unit that performs an inverse discrete Fourier transform on the calculation result by the first phase only synthesis unit,
The ophthalmic image display apparatus according to claim 6, wherein the rotational movement amount is calculated based on a calculation result by the first inverse conversion processing unit.
前記複数の画像の明るさをそれぞれ一致させる明るさ変更部を備えた請求項1から7のいずれか1項に記載の眼科画像表示装置。   The ophthalmic image display apparatus according to claim 1, further comprising a brightness changing unit that matches brightness of each of the plurality of images. 前記時系列順につなぎ合わされた複数の画像のうちの前記時系列順に隣接する2つの画像の間を時系列的に補間する補間画像を作成する補間画像作成部を備え、
前記動画作成部は、前記補間画像を含めて動画を作成する請求項1から8のいずれか1項に記載の眼科画像表示装置。
An interpolation image creating unit that creates an interpolated image that interpolates between two images adjacent in the time series order among the plurality of images connected in the time series order;
The ophthalmic image display device according to claim 1, wherein the moving image creating unit creates a moving image including the interpolated image.
前記撮影画像は、眼底の正面像又は眼底の断層像である請求項1から9のいずれか1項に記載の眼科画像表示装置。   The ophthalmologic image display device according to claim 1, wherein the captured image is a front image of the fundus or a tomographic image of the fundus. 前記解析画像は、眼底の層厚の二次元分布を表す厚みマップ、又は層厚の時系列的な変化を表す厚みの変化マップである請求項1から10のいずれか1項に記載の眼科画像表示装置。   The ophthalmologic image according to any one of claims 1 to 10, wherein the analysis image is a thickness map representing a two-dimensional distribution of the layer thickness of the fundus oculi or a thickness change map representing a time-series variation of the layer thickness. Display device. 同一被検眼に関する複数の撮影画像、又は同一被検眼の形状に関する複数の解析画像を取得する画像取得工程と、
前記取得した複数の画像の位置合わせを行う位置合わせ工程と、
前記位置合わせされた複数の画像を時系列順につなぎ合わせて動画を作成する動画作成工程と、
前記作成した動画を表示部に表示する表示工程と、
を備えた眼科画像表示方法。
An image acquisition step of acquiring a plurality of captured images relating to the same eye to be examined or a plurality of analysis images relating to the shape of the same eye to be examined;
An alignment step of aligning the plurality of acquired images;
A moving image creating step for creating a moving image by connecting the plurality of aligned images in time series; and
A display step of displaying the created video on a display unit;
An ophthalmologic image display method comprising:
コンピュータに、
同一被検眼に関する複数の撮影画像、又は同一被検眼の形状に関する複数の解析画像を取得する画像取得工程と、
前記取得した複数の画像の位置合わせを行う位置合わせ工程と、
前記位置合わせされた複数の画像を時系列順につなぎ合わせて動画を作成する動画作成工程と、
前記作成した動画を表示部に表示する表示工程と、
を実行させるためのプログラム。
On the computer,
An image acquisition step of acquiring a plurality of captured images relating to the same eye to be examined or a plurality of analysis images relating to the shape of the same eye to be examined;
An alignment step of aligning the plurality of acquired images;
A moving image creating step for creating a moving image by connecting the plurality of aligned images in time series; and
A display step of displaying the created video on a display unit;
A program for running
JP2017040759A 2017-03-03 2017-03-03 Ophthalmic image display device, ophthalmic image display method and program Active JP6927715B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017040759A JP6927715B2 (en) 2017-03-03 2017-03-03 Ophthalmic image display device, ophthalmic image display method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017040759A JP6927715B2 (en) 2017-03-03 2017-03-03 Ophthalmic image display device, ophthalmic image display method and program

Publications (2)

Publication Number Publication Date
JP2018143434A true JP2018143434A (en) 2018-09-20
JP6927715B2 JP6927715B2 (en) 2021-09-01

Family

ID=63589033

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017040759A Active JP6927715B2 (en) 2017-03-03 2017-03-03 Ophthalmic image display device, ophthalmic image display method and program

Country Status (1)

Country Link
JP (1) JP6927715B2 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008217493A (en) * 2007-03-05 2008-09-18 Junji Kurotaki Animation by recording image changing over time, image data for creating animation and its creation method
JP2011188946A (en) * 2010-03-12 2011-09-29 Canon Inc Ophthalmologic apparatus and control method for the same
JP2012021794A (en) * 2010-07-12 2012-02-02 Canon Inc Method for reading optical interference measurement data, optical interference tomography diagnostic apparatus, and optical interference tomography diagnostic system
JP2013027443A (en) * 2011-07-27 2013-02-07 Nidek Co Ltd Fundus imaging apparatus, fundus analyzing method and fundus analyzing program
JP2013169308A (en) * 2012-02-20 2013-09-02 Canon Inc Image display device, image display method, and photographing system
JP2014155534A (en) * 2013-02-14 2014-08-28 Osaka Bioscience Institute Balance function inspection device
JP2014217423A (en) * 2013-05-01 2014-11-20 キヤノン株式会社 Optical interference tomography apparatus
JP2015009108A (en) * 2013-07-02 2015-01-19 株式会社ニデック Ophthalmologic imaging apparatus and ophthalmologic image processing program
WO2015029675A1 (en) * 2013-08-28 2015-03-05 株式会社トプコン Ophthalmologic apparatus
JP2016054786A (en) * 2014-09-05 2016-04-21 キヤノン株式会社 Ophthalmologic apparatus, and operation method for ophthalmologic apparatus

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008217493A (en) * 2007-03-05 2008-09-18 Junji Kurotaki Animation by recording image changing over time, image data for creating animation and its creation method
JP2011188946A (en) * 2010-03-12 2011-09-29 Canon Inc Ophthalmologic apparatus and control method for the same
JP2012021794A (en) * 2010-07-12 2012-02-02 Canon Inc Method for reading optical interference measurement data, optical interference tomography diagnostic apparatus, and optical interference tomography diagnostic system
JP2013027443A (en) * 2011-07-27 2013-02-07 Nidek Co Ltd Fundus imaging apparatus, fundus analyzing method and fundus analyzing program
JP2013169308A (en) * 2012-02-20 2013-09-02 Canon Inc Image display device, image display method, and photographing system
JP2014155534A (en) * 2013-02-14 2014-08-28 Osaka Bioscience Institute Balance function inspection device
JP2014217423A (en) * 2013-05-01 2014-11-20 キヤノン株式会社 Optical interference tomography apparatus
JP2015009108A (en) * 2013-07-02 2015-01-19 株式会社ニデック Ophthalmologic imaging apparatus and ophthalmologic image processing program
WO2015029675A1 (en) * 2013-08-28 2015-03-05 株式会社トプコン Ophthalmologic apparatus
JP2015043898A (en) * 2013-08-28 2015-03-12 株式会社トプコン Ophthalmologic apparatus
JP2016054786A (en) * 2014-09-05 2016-04-21 キヤノン株式会社 Ophthalmologic apparatus, and operation method for ophthalmologic apparatus

Also Published As

Publication number Publication date
JP6927715B2 (en) 2021-09-01

Similar Documents

Publication Publication Date Title
KR102507711B1 (en) Medical image processing apparatus, medical image processing method, and computer readable medium
US8687863B2 (en) Image processing apparatus, control method thereof and computer program
WO2020183799A1 (en) Medical image processing device, medical image processing method, and program
US11922601B2 (en) Medical image processing apparatus, medical image processing method and computer-readable medium
JP7406892B2 (en) Medical image processing device, medical image processing method and program
US11954860B2 (en) Image matching method and device, and storage medium
JP6512738B2 (en) Image processing apparatus, image processing method and program
US20160180526A1 (en) Image processing apparatus, image processing method, image processing system, and non-transitory computer-readable storage medium
CN103222848A (en) Image processing apparatus, and image processing method
US20140369583A1 (en) Ultrasound diagnostic device, ultrasound diagnostic method, and computer-readable medium having recorded program therein
JP6201255B2 (en) Medical image processing system and medical image processing program
JP2017164496A (en) Medical image processing apparatus and medical image processing program
JP2018041434A (en) Diagnosis assist device, image processing method in diagnosis assist device, and program
JPWO2011142222A1 (en) Image processing apparatus and image processing method
JP2018000246A (en) Ophthalmological image processing system, and ophthalmological image processing program
JP2023017051A (en) Medical image processing apparatus, medical image processing method, and program
KR20190114229A (en) Apparatus and method for processing image
JP6927715B2 (en) Ophthalmic image display device, ophthalmic image display method and program
JPWO2015053319A1 (en) Image processing apparatus and surgical microscope system
JP6909020B2 (en) Fundus information display device, fundus information display method and program
JP5484425B2 (en) Ophthalmic apparatus, control method therefor, and computer program
JP7007125B2 (en) Ophthalmology information processing equipment and ophthalmology imaging equipment
JP5455512B2 (en) Medical image display device, medical image display method, and program for executing the same
JP2020121012A (en) Ophthalmologic information processing apparatus, learned model, learning apparatus, ophthalmologic information processing method, and program
JP5989498B2 (en) Image processing apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210805

R150 Certificate of patent or registration of utility model

Ref document number: 6927715

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150