JP6927715B2 - Ophthalmic image display device, ophthalmic image display method and program - Google Patents

Ophthalmic image display device, ophthalmic image display method and program Download PDF

Info

Publication number
JP6927715B2
JP6927715B2 JP2017040759A JP2017040759A JP6927715B2 JP 6927715 B2 JP6927715 B2 JP 6927715B2 JP 2017040759 A JP2017040759 A JP 2017040759A JP 2017040759 A JP2017040759 A JP 2017040759A JP 6927715 B2 JP6927715 B2 JP 6927715B2
Authority
JP
Japan
Prior art keywords
image
unit
images
interpolated
ophthalmic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017040759A
Other languages
Japanese (ja)
Other versions
JP2018143434A (en
Inventor
裕和 恩地
裕和 恩地
龍一 大原
龍一 大原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2017040759A priority Critical patent/JP6927715B2/en
Publication of JP2018143434A publication Critical patent/JP2018143434A/en
Application granted granted Critical
Publication of JP6927715B2 publication Critical patent/JP6927715B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は被検眼を診断するために用いられる眼科画像表示装置、眼科画像表示方法及びプログラムに関する。 The present invention relates to an ophthalmic image display device, an ophthalmic image display method and a program used for diagnosing an eye to be inspected.

眼科分野においては、被検眼の状態を観察するために各種の画像を取得する。このように眼科分野で取得される画像を眼科画像と呼ぶ。 In the field of ophthalmology, various images are acquired in order to observe the condition of the eye to be inspected. Images acquired in the field of ophthalmology in this way are called ophthalmic images.

眼科画像は、各種の眼科撮影装置によって取得される。眼科撮影装置の例として、光コヒーレンストモグラフィ(OpticalCoherence Tomography、OCT)を用いて断層像を得る光干渉断層計、眼底を写真撮影する眼底カメラ、共焦点光学系を用いたレーザ走査により眼底の画像を得る走査型レーザ検眼鏡(ScanningLaser Ophthalmoscope、SLO)、スリット光を用いて角膜の光切片を切り取ることにより画像を得るスリットランプ等がある。 Ophthalmologic images are acquired by various ophthalmologic imaging devices. Examples of ophthalmologic imaging devices include an optical coherence tomography that obtains a tomographic image using optical coherence tomography (OCT), a fundus camera that photographs the fundus, and an image of the fundus by laser scanning using a confocal optical system. There are scanning laser ophthalmoscopes (Scanning Laser Ophthalmoscope, SLO), slit lamps that obtain images by cutting out optical sections of the cornea using slit light, and the like.

また、OCT信号より得た眼底の層厚情報に基づいて,層厚の二次元分布を表す厚みマップを生成することが行われる。この厚みマップや、層厚の時系列的な変化を表す厚みの変化マップも、眼科画像に含まれる。 Further, a thickness map showing a two-dimensional distribution of the layer thickness is generated based on the layer thickness information of the fundus obtained from the OCT signal. This thickness map and the thickness change map showing the time-series change of the layer thickness are also included in the ophthalmologic image.

これらの眼科画像を表示手段に表示することで、被検眼の状態を観察することができる。 By displaying these ophthalmic images on the display means, the state of the eye to be inspected can be observed.

例えば、特許文献1には、経過観察を行うための経過観察モードにおいて、モニタ上に、同一被検眼において異なる日時で取得された眼底の正面像や断層像を並べて同時表示する装置が記載されている。 For example, Patent Document 1 describes a device for simultaneously displaying frontal images and tomographic images of the fundus acquired at different dates and times on a monitor in a follow-up mode for performing follow-up observation. There is.

特開2013−27443号公報Japanese Unexamined Patent Publication No. 2013-27443

しかしながら、正面像や断層像を並べて同時表示するだけでは、時間的変化が視覚的にわかりにくく、微小な変化を認識しにくいという欠点があった。 However, there is a drawback that it is difficult to visually understand the temporal change and it is difficult to recognize a minute change only by displaying the front image and the tomographic image side by side at the same time.

本発明はこのような事情に鑑みてなされたもので、同一患者の別時刻に得られた眼科画像の時間的変化を視覚的に容易に把握することを可能にする眼科画像表示装置、眼科画像表示方法及びプログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and is an ophthalmologic image display device and an ophthalmologic image that makes it possible to visually easily grasp temporal changes in ophthalmic images obtained at different times of the same patient. The purpose is to provide a display method and a program.

上記目的を達成するために眼科画像表示装置の一の態様は、同一被検眼に関する複数の撮影画像、又は同一被検眼の形状に関する複数の解析画像を取得する画像取得部と、取得した複数の画像の位置合わせを行う位置合わせ部と、位置合わせされた複数の画像を時系列順につなぎ合わせて動画を作成する動画作成部と、作成した動画を表示する表示部と、を備えた。 In order to achieve the above object, one aspect of the ophthalmic image display device is an image acquisition unit that acquires a plurality of captured images relating to the same eye to be inspected, or a plurality of analysis images relating to the shape of the same eye to be inspected, and a plurality of acquired images. It is provided with an alignment unit for aligning images, a video creation unit for creating a moving image by connecting a plurality of aligned images in chronological order, and a display unit for displaying the created moving image.

本態様によれば、同一被検眼に関する複数の撮影画像、又は被検眼の形状に関する複数の解析画像を取得し、取得した複数の画像の位置合わせを行い、位置合わせされた複数の画像を時系列順につなぎ合わせて動画を作成し、作成した動画を表示するようにしたので、同一患者の別時刻に得られた眼科画像の時間的変化を視覚的に容易に把握することができる。 According to this aspect, a plurality of captured images relating to the same eye to be inspected or a plurality of analysis images relating to the shape of the eye to be inspected are acquired, the acquired plurality of images are aligned, and the plurality of aligned images are time-series. Since the moving images are created by connecting them in order and the created moving images are displayed, it is possible to easily visually grasp the temporal change of the ophthalmic images obtained at different times of the same patient.

位置合わせ部は、複数の画像のうちの1つの画像である第1画像から複数の特徴点を抽出する特徴点抽出部と、複数の画像のうちの第1画像以外の第2画像から複数の特徴点に対応する複数の対応点を検出する対応点検出部と、第2画像を変形して複数の対応点の位置をそれぞれ対応する複数の特徴点の位置に一致させる画像変形部と、を備えることが好ましい。これにより、取得した複数の画像の位置合わせを適切に行うことができる。 The alignment unit includes a feature point extraction unit that extracts a plurality of feature points from the first image, which is one image of the plurality of images, and a plurality of second images other than the first image among the plurality of images. A corresponding point detection unit that detects a plurality of corresponding points corresponding to the feature points, and an image deformation unit that deforms the second image to match the positions of the plurality of corresponding points with the positions of the corresponding plurality of feature points. It is preferable to prepare. As a result, it is possible to appropriately align the acquired plurality of images.

対応点検出部は、テンプレートマッチングを用いて複数の対応点を検出することが好ましい。これにより、第2画像から複数の特徴点に対応する複数の対応点を適切に検出することができる。 It is preferable that the corresponding point detection unit detects a plurality of corresponding points by using template matching. Thereby, a plurality of corresponding points corresponding to the plurality of feature points can be appropriately detected from the second image.

画像変形部は、アフィン変換を用いて複数の対応点の位置をそれぞれ対応する複数の特徴点の位置に一致させることが好ましい。これにより、取得した複数の画像の位置合わせを適切に行うことができる。 It is preferable that the image deformation portion uses an affine transformation to match the positions of the plurality of corresponding points with the positions of the plurality of corresponding feature points. As a result, it is possible to appropriately align the acquired plurality of images.

位置合わせ部は、複数の画像のうちの1つの画像である第1画像と第1画像以外の第2画像との間の回転移動量を算出する回転移動量算出部と、回転移動量算出部により算出された回転移動量に基づいて第1画像と第2画像との間の回転方向の位置合わせを行う画像回転部と、画像回転部による位置合わせがなされた第1画像と第2画像とに対し位相限定相関処理を施すことにより、第1画像と第2画像との間の平行移動量を算出する平行移動量算出部と、平行移動量算出部により算出された平行移動量に基づいて第1画像と第2画像との間の平行方向の位置合わせを行う画像平行移動部と、を備えることが好ましい。これにより、取得した複数の画像の位置合わせを適切に行うことができる。 The alignment unit includes a rotational movement amount calculation unit that calculates a rotational movement amount between a first image that is one of a plurality of images and a second image other than the first image, and a rotational movement amount calculation unit. An image rotation unit that aligns the rotation direction between the first image and the second image based on the rotation movement amount calculated by the above, and the first image and the second image that are aligned by the image rotation unit. Based on the translation amount calculation unit that calculates the translation amount between the first image and the second image and the translation amount calculated by the translation amount calculation unit by performing phase-limited correlation processing on the subject. It is preferable to include an image translation unit for aligning the first image and the second image in the parallel direction. As a result, it is possible to appropriately align the acquired plurality of images.

回転移動量算出部は、第1画像と第2画像とに対し位相限定相関処理を施すことにより、第1画像と第2画像との間の回転移動量を算出することが好ましい。これにより、取得した複数の画像の間の回転移動量を適切に算出することができる。 It is preferable that the rotation movement amount calculation unit calculates the rotation movement amount between the first image and the second image by performing phase-limited correlation processing on the first image and the second image. Thereby, the amount of rotational movement between the acquired plurality of images can be appropriately calculated.

回転移動量算出部は、第2画像に対し離散フーリエ変換を施す第1変換処理部と、第2画像についての第1変換処理部による演算結果に対し極座標変換を施す極座標変換部と、第2画像についての極座標変換部による演算結果に対し離散フーリエ変換を施す第2変換処理部と、第1画像について予め求められた第1データと、第2画像についての第2変換処理部による演算結果に基づき求められた第2データとを合成する位相限定合成処理を行う第1位相限定合成部と、第1位相限定合成部による演算結果に対し逆離散フーリエ変換を施す第1逆変換処理部と、を備え、第1逆変換処理部による演算結果に基づいて回転移動量を算出することが好ましい。これにより、取得した複数の画像の間の回転移動量を適切に算出することができる。 The rotational movement amount calculation unit includes a first conversion processing unit that performs a discrete Fourier transform on the second image, a polar coordinate conversion unit that performs polar coordinate transformation on the calculation result of the first conversion processing unit for the second image, and a second. The second conversion processing unit that performs the discrete Fourier transform on the calculation result by the polar coordinate conversion unit for the image, the first data obtained in advance for the first image, and the calculation result by the second conversion processing unit for the second image. A first phase-limited compositing unit that performs a phase-limited compositing process that synthesizes the second data obtained based on the above, and a first inverse transform processing unit that performs an inverse discrete Fourier transform on the calculation result by the first phase-limited compositing unit. It is preferable to calculate the rotational movement amount based on the calculation result by the first inverse transform processing unit. Thereby, the amount of rotational movement between the acquired plurality of images can be appropriately calculated.

複数の画像の明るさをそれぞれ一致させる明るさ変更部を備えることが好ましい。これにより、眼科画像の時間的変化を視覚的により容易に把握することができる。 It is preferable to provide a brightness changing unit that matches the brightness of a plurality of images. Thereby, the temporal change of the ophthalmologic image can be grasped more easily visually.

時系列順につなぎ合わされた複数の画像のうちの時系列順に隣接する2つの画像の間を時系列的に補間する補間画像を作成する補間画像作成部を備え、動画作成部は、補間画像を含めて動画を作成することが好ましい。これにより、同一患者の別時刻に得られた眼科画像の時間的変化を視覚的に容易に把握することができる。 It is equipped with an interpolated image creation unit that creates an interpolated image that interpolates between two images that are adjacent in chronological order among a plurality of images that are joined in chronological order, and the moving image creation unit includes the interpolated image. It is preferable to create a moving image. As a result, it is possible to easily visually grasp the temporal change of the ophthalmic image obtained at different times of the same patient.

撮影画像は、眼底の正面像又は眼底の断層像であることが好ましい。また、解析画像は、眼底の層厚の二次元分布を表す厚みマップ、又は層厚の時系列的な変化を表す厚みの変化マップであることが好ましい。これにより、撮影画像や解析画像の時間的変化を視覚的に容易に把握することができる。 The captured image is preferably a frontal image of the fundus or a tomographic image of the fundus. Further, the analysis image is preferably a thickness map showing a two-dimensional distribution of the layer thickness of the fundus, or a thickness change map showing a time-series change in the layer thickness. As a result, it is possible to easily visually grasp the temporal change of the photographed image and the analyzed image.

上記目的を達成するために眼科画像表示方法の一の態様は、同一被検眼に関する複数の撮影画像、又は同一被検眼の形状に関する複数の解析画像を取得する画像取得工程と、取得した複数の画像の位置合わせを行う位置合わせ工程と、位置合わせされた複数の画像を時系列順につなぎ合わせて動画を作成する動画作成工程と、作成した動画を表示部に表示する表示工程と、を備えた。 One aspect of the ophthalmic image display method for achieving the above object is an image acquisition step of acquiring a plurality of captured images relating to the same eye to be inspected or a plurality of analysis images relating to the shape of the same eye to be inspected, and a plurality of acquired images. It is provided with an alignment step of performing alignment, a moving image creation step of connecting a plurality of aligned images in chronological order to create a moving image, and a display step of displaying the created moving image on a display unit.

本態様によれば、同一被検眼に関する複数の撮影画像、又は被検眼の形状に関する複数の解析画像を取得し、取得した複数の画像の位置合わせを行い、位置合わせされた複数の画像を時系列順につなぎ合わせて動画を作成し、作成した動画を表示するようにしたので、同一患者の別時刻に得られた眼科画像の時間的変化を視覚的に容易に把握することができる。 According to this aspect, a plurality of captured images relating to the same eye to be inspected or a plurality of analysis images relating to the shape of the eye to be inspected are acquired, the acquired plurality of images are aligned, and the plurality of aligned images are time-series. Since the moving images are created by connecting them in order and the created moving images are displayed, it is possible to easily visually grasp the temporal change of the ophthalmic images obtained at different times of the same patient.

上記目的を達成するためにプログラムの一の態様は、コンピュータに、同一被検眼に関する複数の撮影画像、又は同一被検眼の形状に関する複数の解析画像を取得する画像取得工程と、取得した複数の画像の位置合わせを行う位置合わせ工程と、位置合わせされた複数の画像を時系列順につなぎ合わせて動画を作成する動画作成工程と、作成した動画を表示部に表示する表示工程と、を実行させる。 One aspect of the program for achieving the above object is an image acquisition step of acquiring a plurality of captured images relating to the same eye to be inspected or a plurality of analysis images relating to the shape of the same eye to be inspected, and a plurality of acquired images. The alignment step of performing the alignment, the moving image creation step of connecting a plurality of aligned images in chronological order to create a moving image, and the display step of displaying the created moving image on the display unit are executed.

本態様によれば、同一被検眼に関する複数の撮影画像、又は被検眼の形状に関する複数の解析画像を取得し、取得した複数の画像の位置合わせを行い、位置合わせされた複数の画像を時系列順につなぎ合わせて動画を作成し、作成した動画を表示するようにしたので、同一患者の別時刻に得られた眼科画像の時間的変化を視覚的に容易に把握することができる。 According to this aspect, a plurality of captured images relating to the same eye to be inspected or a plurality of analysis images relating to the shape of the eye to be inspected are acquired, the acquired plurality of images are aligned, and the plurality of aligned images are time-series. Since the moving images are created by connecting them in order and the created moving images are displayed, it is possible to easily visually grasp the temporal change of the ophthalmic images obtained at different times of the same patient.

また、プログラムを記録したコンピュータ読み取り可能な非一時的記録媒体も本態様に含まれる。 A computer-readable non-temporary recording medium on which a program is recorded is also included in this embodiment.

本発明によれば、同一患者の別時刻に得られた眼科画像の時間的変化を視覚的に容易に把握することができる。 According to the present invention, it is possible to visually easily grasp the temporal change of the ophthalmic image obtained at different times of the same patient.

眼科画像表示装置の構成を示すブロック図Block diagram showing the configuration of an ophthalmic image display device 眼科画像表示装置が実行する動画表示処理を示すフローチャートA flowchart showing a moving image display process executed by an ophthalmic image display device. ベース画像の一例を示す図Diagram showing an example of a base image 動画作成用画像の一例を示す図Diagram showing an example of an image for creating a video ベース画像及び動画作成用画像の撮影日と、時系列順に並べた場合の順序を示す図The figure which shows the shooting date of the base image and the image for moving image, and the order when arranged in chronological order. 眼科画像表示装置の構成を示すブロック図Block diagram showing the configuration of an ophthalmic image display device 眼科画像表示装置が実行する動画表示処理を示すフローチャートA flowchart showing a moving image display process executed by an ophthalmic image display device. 時系列順に隣接する2つの画像の撮影間隔を示した図The figure which showed the shooting interval of two adjacent images in chronological order 眼科画像表示装置の構成を示すブロック図Block diagram showing the configuration of an ophthalmic image display device 位置合わせ部の一例を示すブロック図Block diagram showing an example of the alignment unit 眼科画像表示装置が実行する動画表示処理を示すフローチャートA flowchart showing a moving image display process executed by an ophthalmic image display device.

以下、添付図面に従って本発明の好ましい実施形態について詳説する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

<第1の実施形態>
〔眼科画像表示装置の構成〕
図1は、第1の実施形態に係る眼科画像表示装置10の構成を示すブロック図である。図1に示すように、眼科画像表示装置10は、制御部12、通信部14、画像メモリ16、位置合わせ部18、画像選択部25、明るさ変更部26、動画作成部28、操作部30、及び表示部32等から構成される。
<First Embodiment>
[Configuration of ophthalmic image display device]
FIG. 1 is a block diagram showing a configuration of an ophthalmic image display device 10 according to the first embodiment. As shown in FIG. 1, the ophthalmic image display device 10 includes a control unit 12, a communication unit 14, an image memory 16, an alignment unit 18, an image selection unit 25, a brightness change unit 26, a moving image creation unit 28, and an operation unit 30. , And a display unit 32 and the like.

制御部12は、不図示のCPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)を備えている。ROMには、各種プログラム及び制御用データが記憶される。また、RAMには、CPUにより実行されるプログラム及びデータが一時記憶される。 The control unit 12 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory) (not shown). Various programs and control data are stored in the ROM. In addition, programs and data executed by the CPU are temporarily stored in the RAM.

制御部12は、ROMから読み出したプログラムをCPUにおいて実行することで、眼科画像表示装置10の各部を統括制御する制御手段として機能するとともに、各種演算処理を行う演算手段として機能する。 The control unit 12 functions as a control means for controlling each part of the ophthalmic image display device 10 by executing a program read from the ROM in the CPU, and also functions as a calculation means for performing various calculation processes.

通信部14は、不図示の通信インターフェースを備え、通信インターフェースと接続された外部のサーバ100との間でデータの送受信を行う。サーバ100は、各種眼科画像及び診断データ等のデータベースを構成している。 The communication unit 14 includes a communication interface (not shown), and transmits / receives data to / from the communication interface and an external server 100 connected to the communication interface. The server 100 constitutes a database of various ophthalmic images and diagnostic data.

画像メモリ16は、画像データを含む各種データの一時記憶手段であり、制御部12を通じてデータの読み書きが行われる。通信部14(画像取得部の一例)を介してサーバ100から取り込まれた画像データは、画像メモリ16に格納される。 The image memory 16 is a temporary storage means for various data including image data, and data is read / written through the control unit 12. The image data taken in from the server 100 via the communication unit 14 (an example of the image acquisition unit) is stored in the image memory 16.

位置合わせ部18は、入力された複数の画像の位置を合わせる画像処理手段であり、特徴点抽出部20、対応点検出部22、及び画像変形部24を備えている。 The alignment unit 18 is an image processing means for aligning the positions of a plurality of input images, and includes a feature point extraction unit 20, a corresponding point detection unit 22, and an image deformation unit 24.

特徴点抽出部20は、入力された画像に含まれる特徴点を抽出し、抽出した特徴点の位置を特定する。ここで、特徴点とは、画像内の相対的に特徴量が大きい箇所であり、例えばエッジや頂点が該当する。特徴点抽出部20は、画像全体の特徴量を算出し、算出した特徴量が閾値を超えた画素を特徴点として抽出する。 The feature point extraction unit 20 extracts the feature points included in the input image and specifies the position of the extracted feature points. Here, the feature point is a place in the image where the feature amount is relatively large, and corresponds to, for example, an edge or a vertex. The feature point extraction unit 20 calculates the feature amount of the entire image, and extracts pixels in which the calculated feature amount exceeds the threshold value as feature points.

対応点検出部22は、入力された画像に含まれる対応点を抽出し、抽出した対応点の位置を特定する。対応点とは、特徴点抽出部20において抽出された特徴点と同じ特徴を有する画像内の点である。対応点検出部22は、画像全体の特徴量を算出し、算出した特徴量と特徴点の特徴量との類似度が高い点を対応点として抽出する。 The corresponding point detection unit 22 extracts the corresponding points included in the input image and specifies the position of the extracted corresponding points. The corresponding points are points in the image having the same features as the feature points extracted by the feature point extraction unit 20. The corresponding point detection unit 22 calculates the feature amount of the entire image, and extracts points having a high degree of similarity between the calculated feature amount and the feature amount of the feature point as corresponding points.

画像変形部24は、入力された画像に平行移動処理、回転移動処理、拡大処理、及び縮小処理を行い、画像を変形する。ここでは、特に特徴点抽出部20によって特徴点が抽出された画像の特徴点と対応点検出部22によって対応点が検出された画像の対応点との位置関係に基づいて、対応点検出部22によって対応点が検出された画像を変形する。 The image deformation unit 24 transforms the input image by performing translation processing, rotation movement processing, enlargement processing, and reduction processing on the input image. Here, in particular, based on the positional relationship between the feature points of the image in which the feature points are extracted by the feature point extraction unit 20 and the corresponding points in the image in which the corresponding points are detected by the corresponding point detecting unit 22, the corresponding point detecting unit 22 Transforms the image in which the corresponding point is detected by.

画像選択部25は、サーバ100に記録されている眼科画像から所望の眼科画像を選択する。 The image selection unit 25 selects a desired ophthalmic image from the ophthalmic images recorded on the server 100.

明るさ変更部26は、入力された画像の明るさを変更する。 The brightness changing unit 26 changes the brightness of the input image.

動画作成部28は、位置合わせ部18によって位置が合わせられた複数の画像を時系列的に結合し、各画像を順に表示する動画を作成する。 The moving image creation unit 28 creates a moving image in which a plurality of images aligned by the alignment unit 18 are combined in chronological order and each image is displayed in order.

操作部30は、操作ボタンやキーボード等の操作部材を備え、操作部材から入力された操作情報を制御部12に出力する。制御部12は、操作部30から入力された操作情報に応じて各種処理を実行する。 The operation unit 30 includes operation members such as operation buttons and a keyboard, and outputs operation information input from the operation members to the control unit 12. The control unit 12 executes various processes according to the operation information input from the operation unit 30.

表示部32は、動画作成部28によって作成された動画を含む各種画像や患者に関する診断情報等を表示する。表示部32としては、例えば液晶ディスプレイや有機ELディスプレイ等を適用可能である。操作部30と表示部32とを一体化したタッチパネルを用いてもよい。 The display unit 32 displays various images including the moving image created by the moving image creating unit 28, diagnostic information about the patient, and the like. As the display unit 32, for example, a liquid crystal display, an organic EL display, or the like can be applied. A touch panel in which the operation unit 30 and the display unit 32 are integrated may be used.

〔動画表示方法〕
図2は、本実施形態に係る眼科画像表示装置10が実行する動画表示処理(眼科画像表示方法の一例)を示すフローチャートである。
[Video display method]
FIG. 2 is a flowchart showing a moving image display process (an example of an ophthalmic image display method) executed by the ophthalmic image display device 10 according to the present embodiment.

本実施形態では、同一患者の同一の眼である同一被検眼の複数の眼科画像を結合して動画を作成し、作成した動画を表示することで、観察者に眼科画像の時間的変化を視覚的に容易に把握させる。 In the present embodiment, a plurality of ophthalmic images of the same eye of the same patient and the same eye to be inspected are combined to create a moving image, and the created moving image is displayed so that the observer can visually recognize the temporal change of the ophthalmic image. Easy to grasp.

眼科画像としては、被検眼を各種の眼科撮影装置によって撮影した撮影画像、及びその解析結果から作成した被検眼の形状に関する解析画像が含まれる。撮影画像には、眼底の正面像、眼底の二次元断層像、三次元断層像、及び蛍光物質を励起させた蛍光を撮影する蛍光画像も含まれる。さらに、解析画像には、眼底の層厚の二次元分布を表す厚みマップ及び層厚の時系列的な変化を表す厚みの変化マップが含まれる。 The ophthalmic image includes a photographed image of the eye to be inspected by various ophthalmologic imaging devices and an analysis image regarding the shape of the eye to be inspected created from the analysis result. Captured images also include a frontal image of the fundus, a two-dimensional tomographic image of the fundus, a three-dimensional tomographic image, and a fluorescence image that captures fluorescence excited by a fluorescent substance. Further, the analysis image includes a thickness map showing the two-dimensional distribution of the layer thickness of the fundus and a thickness change map showing the time-series change of the layer thickness.

ここでは、眼科画像は全てサーバ100に記録されているものとする。 Here, it is assumed that all the ophthalmic images are recorded on the server 100.

最初に、制御部12は、変数nを0に初期化する(ステップS1)。 First, the control unit 12 initializes the variable n to 0 (step S1).

次に、観察者は、動画を作成しようとする被検眼に関するベース画像P(第1画像の一例)を選択する(ステップS2、画像取得工程の一例)。 Next, the observer selects the base image P 0 (an example of the first image) relating to the eye to be inspected for which the moving image is to be created (step S2, an example of the image acquisition step).

ベース画像Pの選択は、制御部12において表示部32にサーバ100に記録されている眼科画像の一覧を表示し、観察者が、操作部30を用いて一覧表示から所望の画像を選択してもよいし、観察者が患者の氏名を入力することで、制御部12において入力された氏名に関連付けられた眼科画像を自動的に選択してもよい。 To select the base image P 0 , the control unit 12 displays a list of ophthalmic images recorded on the server 100 on the display unit 32, and the observer selects a desired image from the list display using the operation unit 30. Alternatively, the observer may input the patient's name to automatically select the ophthalmologic image associated with the input name in the control unit 12.

これにより、選択された画像が通信部14を介して眼科画像表示装置10に取得され、ベース画像Pとして画像メモリ16に記憶される。ベース画像Pには撮影時期又は取得時期等の限定はなく、観察者は任意の画像をベース画像Pとして選択することができる。 As a result, the selected image is acquired by the ophthalmic image display device 10 via the communication unit 14, and is stored in the image memory 16 as the base image P 0. The base image P 0 is not limited to the shooting time or the acquisition time, and the observer can select any image as the base image P 0.

続いて、特徴点抽出部20において、ベース画像Pから複数の特徴点を抽出する(ステップS3)。 Subsequently, the feature point extraction unit 20 extracts a plurality of feature points from the base image P 0 (step S3).

図3は、画像メモリ16に記憶されたベース画像Pの一例を示す図である。ここでは、ベース画像Pとして眼底カメラによって撮影された眼底写真を選択した例を示している。 Figure 3 is a diagram showing an example of the base image P 0, which is stored in the image memory 16. Here, an example in which a fundus photograph taken by a fundus camera is selected as the base image P 0 is shown.

図3に示すように、特徴点抽出部20は、ベース画像Pから、視神経乳頭部を含む特徴点A、血管の分岐部を含む特徴点A及びAを抽出している。なお複数の特徴点は、観察者が任意の点を指定することで決定してもよい。 As shown in FIG. 3, the feature point extraction unit 20 extracts the feature point A 1 including the optic nerve head, and the feature points A 2 and A 3 including the bifurcation of the blood vessel from the base image P 0 . The plurality of feature points may be determined by the observer designating an arbitrary point.

ベース画像Pからの特徴点の抽出が終了すると、制御部12は変数nをインクリメントする(ステップS4)。 When the extraction of the feature points from the base image P 0 is completed, the control unit 12 increments the variable n (step S4).

次に、画像選択部25は、動画を作成するための動画作成用画像P(第1画像以外の第2画像の一例)を選択する(ステップS5、画像取得工程の一例)。 Next, the image selection unit 25 selects an image Pn for creating a moving image (an example of a second image other than the first image) for creating a moving image (step S5, an example of an image acquisition step).

画像選択部25は、サーバ100に記録されている眼科画像のうち、ベース画像Pと同一被検眼の眼科画像であり、かつベース画像Pと同種の眼科画像を選択する。これにより、選択された画像が通信部14を介して眼科画像表示装置10に取得され、動画作成用画像Pとして画像メモリ16に記憶される。 The image selection unit 25 selects an ophthalmic image of the same eye as the base image P 0 and the same type of ophthalmic image as the base image P 0 among the ophthalmic images recorded on the server 100. As a result, the selected image is acquired by the ophthalmic image display device 10 via the communication unit 14, and is stored in the image memory 16 as the moving image creation image Pn.

なお、同種の眼科画像とは、同一の種類の装置によって撮影された撮影画像、又は同一の指標に基づいて同一の表現手法で表された解析画像を指す。同一の種類の装置とは、メーカー及び型番まで同一の装置である必要はなく、撮影原理が同一であればよい。 The same type of ophthalmic image refers to a photographed image taken by the same type of device or an analysis image represented by the same expression method based on the same index. The same type of device does not have to be the same device up to the manufacturer and model number, as long as the imaging principle is the same.

図4は、動画を作成するための動画作成用画像Pの一例を示す図である。動画作成用画像Pは、ベース画像Pと同様の同一被検眼の眼底写真である。 Figure 4 is a diagram showing an example of a moving image creating images P 1 to create a video. The moving image creation image P 1 is a fundus photograph of the same eye to be inspected as in the base image P 0.

続いて、対応点検出部22において、動画作成用画像Pから複数の特徴点を検出する(ステップS6)。対応点の検出は、例えばテンプレートマッチング、又は位相限定相関法等を用いることができる。 Subsequently, the corresponding point detection unit 22 detects a plurality of feature points from the moving image creation image Pn (step S6). For the detection of the corresponding points, for example, template matching, a phase-limited correlation method, or the like can be used.

ここでは、図4に示すように、特徴点Aに対応する対応点として対応点B、特徴点Aに対応する対応点として対応点B、及び特徴点Aに対応する対応点として対応点Bを検出している。 Here, as shown in FIG. 4, corresponding points B 1, the corresponding point as the corresponding point corresponding to the feature point A 2 B 2, and the corresponding points corresponding to the characteristic point A 3 as the corresponding point corresponding to the feature point A 1 detects a corresponding point B 3 are as.

次に、画像変形部24において、ベース画像Pを基準として動画作成用画像Pを変形し、ベース画像Pと動画作成用画像Pとの位置合わせを行う(ステップS7、位置合わせ工程の一例)。 Then, the image deforming unit 24, based on the image P 0 by modifying the image P n for movie created as a reference, the alignment of the base image P 0 and the moving creating image P n performs (step S7, positioning step An example).

ここでは、動画作成用画像Pの各対応点Bの座標位置がベース画像Pの各特徴点Aの座標位置に一致するように動画作成用画像Pを変形する。例えば、各対応点Bの位置が各特徴点Aの位置に対してX方向、Y方向、又はXY両方向に平行移動している場合は、画像変形部24は、動画作成用画像Pを平行移動させる。また、各対応点Bの位置が各特徴点Aの位置に対してXY平面を回転移動している場合は、画像変形部24は、動画作成用画像Pを回転移動させる。 Here, the coordinate position of each corresponding point B n of video creating image P n to deform the image P n for moving created to match the coordinate position of each feature point A n of the base image P 0. For example, when the position of the corresponding point B n is moving parallel to the X direction, Y direction or XY directions relative to the position of each feature point A n, the image deformation unit 24, the image P n for creating video Is translated. Further, when the position of the corresponding point B n is rotating moves the XY plane relative to the position of each feature point A n, the image deformation unit 24 rotates moving the image P n for creating video.

さらに、各対応点Bの位置関係が各特徴点Aの位置関係に対して縮小している場合は、画像変形部24は、動画作成用画像Pを拡大させる。また、各対応点Bの位置関係が各特徴点Aの位置関係に対して拡大している場合は、画像変形部24は、動画作成用画像Pを縮小させる。 Further, if the positional relationship between the corresponding points B n is shrinking relative positional relationship of each feature point A n, the image deformation unit 24 expands the image P n for creating video. Further, if the positional relationship between the corresponding points B n is enlarged relative positional relationship of each feature point A n, the image deformation unit 24 reduces the image P n for creating video.

これらの画像変形は、各特徴点Aと各対応点Bとのそれぞれの距離の総和が最小となるように移動ベクトルを決めればよい。なお、これらの平行移動処理、回転移動処理、拡大処理、及び縮小処理は、アフィン変換により行うことができる。 For these image deformations, the movement vector may be determined so that the sum of the distances between each feature point An and each corresponding point B n is minimized. The parallel movement process, the rotational movement process, the enlargement process, and the reduction process can be performed by the affine transformation.

このように変形された動画作成用画像Pは、ベース画像Pに対して位置が合った画像となる。 The moving image creation image P n deformed in this way is an image in which the position is aligned with the base image P 0.

続いて、明るさ変更部26において、動画作成用画像Pの明るさがベース画像Pの明るさに一致するように動画作成用画像Pの明るさを変更する(ステップS8)。 Subsequently, the brightness change unit 26, the brightness of the moving image creating image P n to change the brightness of the moving image creating image P n to match the brightness of the base image P 0 (step S8).

明るさ補正は、ここでは、各動画作成用画像Pの平均輝度値をベース画像Pの平均輝度値に合わせることで行う。また、各動画作成用画像Pのダイナミックレンジを、ベース画像Pのダイナミックレンジと一致させるように変更してもよい。 Here, the brightness correction is performed by matching the average luminance value of each moving image creation image P n with the average luminance value of the base image P 0. Further, the dynamic range of each moving image P n may be changed so as to match the dynamic range of the base image P 0.

なお、ここではベース画像Pの明るさに合わせて各動画作成用画像Pの明るさを変更したが、ベース画像P及び動画作成用画像Pの明るさを一致させることができれば、基準とする明るさは観察者が任意に決めてよい。 Note that, although change the brightness of the moving image creating images P n in accordance with the brightness of the base image P 0 is, if it is possible to match the base image P 0 and the brightness of the moving image creating images P n, The reference brightness may be arbitrarily determined by the observer.

次に、制御部12は、画像選択部25において、動画を作成するための動画作成用画像Pの選択を終了したか否かを判定する(ステップS9)。 Next, the control unit 12 determines whether or not the image selection unit 25 has completed the selection of the moving image creation image Pn for creating the moving image (step S9).

サーバ100に、ベース画像Pと同一被検眼の眼科画像であり、かつベース画像Pと同種の眼科画像のうち、まだ選択していない眼科画像が存在する場合は、ステップS4に移行し、同様の処理を繰り返す。すなわち、nをインクリメントし(ステップS4)、動画作成用画像Pを選択し(ステップS5)、同様の処理を行う(ステップS6〜S9)。 The server 100, the base image P 0 and an ophthalmologic image of the same eye to be examined, and in the base image P 0 and the same type of ophthalmologic image, if there is an ophthalmologic image not yet been selected, the process proceeds to step S4, The same process is repeated. That is, n is incremented (step S4), the moving image creation image Pn is selected (step S5), and the same processing is performed (steps S6 to S9).

なお、動画作成用画像Pの選択は、観察者が操作部30を用いて手動で行ってもよい。 The image Pn for creating a moving image may be manually selected by the observer using the operation unit 30.

画像の選択が終了した場合は、動画作成部28は、ベース画像P及び動画作成用画像P〜Pを、時系列順にソートする(ステップS10)。 If selection of the image is finished, moving image creating unit 28, the base image P 0 and the image P 1 to P n for moving image creating, when sorted in chronological order (step S10).

サーバ100に記憶されている眼科画像のヘッダ部には、撮影画像であれば撮影日時が、解析画像であれば解析の基となった撮影画像の撮影日時が記録されている。 In the header portion of the ophthalmic image stored in the server 100, the shooting date and time of the captured image is recorded, and if it is the analysis image, the shooting date and time of the captured image that is the basis of the analysis is recorded.

図5は、ベース画像P及び動画作成用画像P〜Pの撮影日と、時系列順に並べた場合の順序を示す図である。ここでは、時系列順として、古い順に並べている。 FIG. 5 is a diagram showing the shooting dates of the base image P 0 and the moving image creation images P 1 to P 5 and the order when arranged in chronological order. Here, they are arranged in chronological order in chronological order.

図5に示すように、ベース画像P及び動画作成用画像P〜Pの撮影日は、それぞれベース画像Pが2013年6月22日、動画作成用画像Pが2014年7月1日、動画作成用画像Pが2013年12月15日、動画作成用画像Pが2016年1月12日、動画作成用画像Pが2016年7月21日、及び動画作成用画像Pが2015年1月31日である。したがって、撮影日の古い順に画像を並べると、ベース画像P、動画作成用画像P、動画作成用画像P、動画作成用画像P、動画作成用画像P、及び動画作成用画像Pの順になる。 As shown in FIG. 5, the base image P 0 and the shooting date of the moving image creating images P 1 to P 5 each base image P 0 June 22, 2013, the moving image creating image P 1 July 2014 1st, video creation image P 2 is December 15, 2013, video creation image P 3 is January 12, 2016, video creation image P 4 is July 21, 2016, and video creation image P 5 is a January 31, 2015. Thus, when arranging the image to the old order of the shooting date, the base image P 0, image P for creating video 2, video created for the image P 1, the video created for the image P 5, the video created for the image P 3, and videos for creating image made in the order of P 4.

続いて、動画作成部28は、時系列順にソートしたベース画像P及び動画作成用画像P〜Pを時系列的に結合して、タイムラプス動画を作成する(ステップS11、動画作成工程の一例)。 Subsequently, the moving image creating unit 28, when the base image P 0 and the image P 1 to P n for the moving image creating sorted in chronological order chronologically combine to create a time-lapse video (step S11, the moving image creating process One case).

最後に、制御部12は、動画作成部28において作成された動画を、表示部32に表示する(ステップS12、表示工程の一例)。制御部12は、この動画をサーバ100に記録してもよい。 Finally, the control unit 12 displays the moving image created by the moving image creating unit 28 on the display unit 32 (step S12, an example of the display process). The control unit 12 may record this moving image on the server 100.

このように、複数の眼科画像を時系列順に連続して表示する動画を用いることで、観察者は、同一被検眼の時間的変化を視覚的に容易に把握することができる。ここでは眼底の正面像を動画にした例を説明したが、眼底の二次元断層像、三次元断層像、蛍光画像、厚みマップ及び厚みの変化マップ等を動画にすることで、同様の効果を得ることができる。 In this way, by using a moving image in which a plurality of ophthalmic images are continuously displayed in chronological order, the observer can easily visually grasp the temporal change of the same eye to be inspected. Here, an example in which the frontal image of the fundus is made into a moving image has been described, but the same effect can be obtained by making a moving image of a two-dimensional tomographic image, a three-dimensional tomographic image, a fluorescence image, a thickness map, a thickness change map, etc. of the fundus. Obtainable.

<第2の実施形態>
〔眼科画像表示装置の構成〕
図6は、第2の実施形態に係る眼科画像表示装置40の構成を示すブロック図である。なお、図1に示すブロック図と共通する部分には同一の符号を付し、その詳細な説明は省略する。
<Second embodiment>
[Configuration of ophthalmic image display device]
FIG. 6 is a block diagram showing the configuration of the ophthalmic image display device 40 according to the second embodiment. The parts common to the block diagram shown in FIG. 1 are designated by the same reference numerals, and detailed description thereof will be omitted.

図6に示すように、眼科画像表示装置40は、補間画像作成部34を備えている。 As shown in FIG. 6, the ophthalmic image display device 40 includes an interpolated image creating unit 34.

補間画像作成部34は、入力された2つの画像の間を時系列的に補間する補間画像を作成する。ここでは、補間画像作成部34は、2つの画像からブロックマッチング処理によって動きベクトルを検出し、検出した動きベクトルに基づいて補間画像を作成する。 The interpolated image creation unit 34 creates an interpolated image that interpolates between the two input images in chronological order. Here, the interpolated image creation unit 34 detects a motion vector from the two images by block matching processing, and creates an interpolated image based on the detected motion vector.

〔動画作成方法〕
図7は、本実施形態に係る眼科画像表示装置40が実行する動画表示処理を示すフローチャートである。なお、図2に示すフローチャートと共通する部分には同一の符号を付し、その詳細な説明は省略する。
[How to create a video]
FIG. 7 is a flowchart showing a moving image display process executed by the ophthalmic image display device 40 according to the present embodiment. The parts common to the flowchart shown in FIG. 2 are designated by the same reference numerals, and detailed description thereof will be omitted.

本実施形態では、動画を作成する画像の撮影日を基準に補間してモーフィングを作成することで、眼科画像の時間的変化を視覚的により容易に把握させる。 In the present embodiment, the temporal change of the ophthalmic image is more easily grasped visually by creating the morphing by interpolating based on the shooting date of the image for which the moving image is created.

ステップS1〜ステップS10までの処理は、第1の実施形態と同様である。本実施形態において選択されたベース画像P及び動画作成用画像Pは、図5に示すベース画像P及び動画作成用画像P〜Pと同様であるものとする。 The processes from step S1 to step S10 are the same as those in the first embodiment. Base image P 0 and the image P n for the moving image creating selected in the present embodiment is assumed to be the same as the base image P 0 and the moving image creating images P 1 to P 5 shown in FIG.

ステップS10において、動画作成部28がベース画像P及び動画作成用画像P〜Pを時系列順にソートすると、補間画像作成部34は、時系列順に隣接する2つの画像の間を時系列的に補間する補間画像を作成する(ステップS21)。ここでは、時系列順に隣接する2つの画像の撮影間隔に応じた数の補間画像を作成する。 In step S10, the moving image creation section 28 sorts the base image P 0 and the image P 1 to P n for moving created in chronological order, time series between the two images interpolated image forming unit 34, which when adjacent in chronological order An interpolated image to be interpolated is created (step S21). Here, a number of interpolated images are created according to the shooting interval of two adjacent images in chronological order.

図8は、ベース画像P及び動画作成用画像P〜Pを時系列順に並べ、時系列順に隣接する2つの画像の撮影間隔を示した図である。図8に示すように、ベース画像Pと動画作成用画像Pとの撮影間隔は約6ヶ月、動画作成用画像Pと動画作成用画像Pとの撮影間隔は約6ヶ月、動画作成用画像Pと動画作成用画像Pとの撮影間隔は約6ヶ月、動画作成用画像Pと動画作成用画像Pとの撮影間隔は約12ヶ月、及び動画作成用画像Pと動画作成用画像Pとの撮影間隔は約6ヶ月である。 Figure 8 arranges the base image P 0 and the moving image creating images P 1 to P 5 in chronological order, is a diagram illustrating a photographing interval of the two images adjacent in time series order. As shown in FIG. 8, the shooting interval between the base image P 0 and the moving image creation image P 2 is about 6 months, the shooting interval between the moving image creation image P 2 and the moving image creation image P 1 is about 6 months, and the moving image. shooting interval between creating image P 1 and the moving image shooting interval between creating image P 5 is from about 6 months, moving creating image P 5 and video creating image P 3 is about 12 months, and moving creating image P 3 shooting interval of the video created for the image P 4 and is about 6 months.

ここでは、約3ヶ月経過毎の補間画像を作成するものとする。したがって、必要な補間画像の数は、ベース画像Pと動画作成用画像Pとの間を補間する補間画像は1つ、動画作成用画像Pと動画作成用画像Pとの間を補間する補間画像は1つ、動画作成用画像Pと動画作成用画像Pとの間を補間する補間画像は1つ、動画作成用画像Pと動画作成用画像Pとの間を補間する補間画像は3つ、及び動画作成用画像Pと動画作成用画像Pとの間を補間する補間画像は1つである。 Here, it is assumed that an interpolated image is created every about 3 months. Accordingly, the number of required interpolated images, interpolated images to interpolate between the base image P 0 and the moving creating image P 2 is one, between the moving image creating image P 2 and moving creating image P 1 interpolation image to interpolate is one interpolation image for interpolating between the moving image creating image P 1 and the moving image creating image P 5 is one, between the moving image creating image P 5 and video creating image P 3 interpolation image for interpolating three, and the interpolation image for interpolating between the moving image creating image P 3 and moving creating image P 4 is one.

補間画像作成部34は、必要な数の補間画像を作成する。例えば、ベース画像Pと動画作成用画像Pとの補間画像であれば、この2つの画像から検出された動きベクトルを2等分する補間画像を作成する。また、動画作成用画像Pと動画作成用画像Pと補間画像であれば、この2つの画像から検出された動きベクトルを4等分する補間画像を作成する。 The interpolated image creation unit 34 creates a required number of interpolated images. For example, in the case of an interpolated image of the base image P 0 and the moving image creation image P 2 , an interpolated image that divides the motion vector detected from these two images into two equal parts is created. Further, if the interpolated image and the moving image creating image P 5 and video creating image P 3, generating an interpolation image to 4 equally dividing the detected motion vector from the two images.

補間画像を作成したら、動画作成部28は、時系列順にソートしたベース画像P及び動画作成用画像P〜P及びそれぞれの補間画像を時系列的に結合して、タイムラプス動画を作成する(ステップS11)。また、制御部12は、動画作成部28において作成された動画を、表示部32に表示する(ステップS12)。 After creating the interpolated image, moving image creating unit 28, when the sorted based image P 0 and the image P 1 to P n and the respective interpolated image for a moving image created in chronological order chronologically combine to create a time-lapse video (Step S11). Further, the control unit 12 displays the moving image created by the moving image creating unit 28 on the display unit 32 (step S12).

このように作成された動画は、時系列順に先の画像から時系列順に後の画像へと変化する様子が滑らかに再現される。したがって、観察者は、同一被検眼の時間的変化を視覚的にさらに容易に把握することができる。 The moving image created in this way smoothly reproduces how the previous image changes in chronological order to the later image in chronological order. Therefore, the observer can more easily visually grasp the temporal change of the same eye to be inspected.

また、時系列順に隣接する2つの画像の撮影間隔に応じた数の補間画像を作成することで、同一被検眼の時間的変化を正確に再現させることができる。なお、作成する補間画像の数は特に限定されず、一般的に動画として視認しやすい枚数を適宜作成すればよい。 Further, by creating a number of interpolated images according to the shooting interval of two adjacent images in chronological order, it is possible to accurately reproduce the temporal change of the same eye to be inspected. The number of interpolated images to be created is not particularly limited, and generally, the number of interpolated images that can be easily visually recognized as a moving image may be appropriately created.

<第3の実施形態>
〔眼科画像表示装置の構成〕
図9は、第3の実施形態に係る眼科画像表示装置50の構成を示すブロック図である。なお、図6に示すブロック図と共通する部分には同一の符号を付し、その詳細な説明は省略する。
<Third embodiment>
[Configuration of ophthalmic image display device]
FIG. 9 is a block diagram showing the configuration of the ophthalmic image display device 50 according to the third embodiment. The parts common to the block diagram shown in FIG. 6 are designated by the same reference numerals, and detailed description thereof will be omitted.

眼科画像表示装置50の位置合わせ部18は、ベース画像Pと動画作成用画像Pとの間の回転移動量をサブピクセルレベルで算出し、この回転移動量に基づいてベース画像Pと動画作成用画像Pとの間で回転方向の位置合わせを行う。その後、位置合わせ部18は、位置合わせがなされたベース画像Pと動画作成用画像Pとの間の平行移動量をサブピクセルレベルで算出し、この平行移動量に基づいてベース画像Pと動画作成用画像Pとの間で平行方向の位置合わせを行う。 The alignment unit 18 of the ophthalmic image display device 50 calculates the amount of rotational movement between the base image P 0 and the moving image P n at the sub-pixel level, and based on this amount of rotational movement, the base image P 0 and aligning the rotational direction between the moving image creating image P n. After that, the alignment unit 18 calculates the amount of translation between the aligned base image P 0 and the moving image creation image P n at the sub-pixel level, and based on this translation amount, the base image P 0 And the moving image creation image Pn are aligned in the parallel direction.

このような処理を実現するために、位置合わせ部18は、図9に示すように、回転移動量算出部52、画像回転部54、平行移動量算出部56、及び画像平行移動部58を備えている。 In order to realize such processing, as shown in FIG. 9, the alignment unit 18 includes a rotation movement amount calculation unit 52, an image rotation amount 54, a translation amount calculation unit 56, and an image translation amount calculation unit 58. ing.

位置合わせ部18は、後述する位相限定相関処理を施すことにより、ベース画像Pと動画作成用画像Pとの間の回転移動量及び平行移動量を算出する。ここで、位置合わせ部18は、位相限定相関処理に用いられるベース画像についてのPOC(Phase Only Correlation)データ(第1データ)については予め算出しておく。以下、ベース画像PについてのPOCデータをベースPOCデータと呼び、動画作成用画像PについてのPOCデータをターゲットPOCデータと呼ぶことがある。位置合わせ部18は、ターゲット画像POCデータ(第2データ)が算出されると、ターゲットPOCデータと予め求められたベースPOCデータとを用いて位相限定相関処理を継続させる。これにより、処理負荷の軽減と処理時間との短縮化とを図り、微小な位置ずれ量を算出する。 The alignment unit 18 calculates the amount of rotational movement and the amount of translation between the base image P 0 and the moving image P n by performing phase-limited correlation processing described later. Here, the alignment unit 18 calculates in advance the POC (Phase Only Correlation) data (first data) of the base image used for the phase-limited correlation processing. Hereinafter, the POC data for the base image P 0 may be referred to as the base POC data, and the POC data for the moving image creation image P n may be referred to as the target POC data. When the target image POC data (second data) is calculated, the alignment unit 18 continues the phase-limited correlation processing using the target POC data and the base POC data obtained in advance. As a result, the processing load is reduced and the processing time is shortened, and a minute amount of misalignment is calculated.

(位相限定相関処理)
本実施形態における位相限定相関処理では、公知の位相限定相関関数が用いられる。
(Phase-limited correlation processing)
In the phase-limited correlation processing in the present embodiment, a known phase-limited correlation function is used.

まず、画像サイズがN×N(N、Nは正の整数)であるベース画像Pをf(n,n)、動画作成用画像Pをg(n,n)とする。ここで、離散空間上でn=−M,・・・,Mとし、N=2M+1(Mは正の整数)とし、f(n,n)の2次元離散フーリエ変換(Discrete Fourier Transformation:以下、DFT)の演算結果をF(k,k)とすると、F(k,k)は、式(1)のように表される。 First, the base image P 0 having an image size of N 1 × N 2 (N 1 and N 2 are positive integers) is f (n 1 , n 2 ), and the moving image P n is g (n 1 , n). 2 ). Here, n 1 = −M 1 , ···, M 1 in the discrete space, N 1 = 2M 1 + 1 (M 1 is a positive integer), and two-dimensional discrete f (n 1 , n 2). Assuming that the calculation result of the Discrete Fourier Transformation (DFT) is F (k 1 , k 2 ), F (k 1 , k 2 ) is expressed by Eq. (1).

Figure 0006927715
Figure 0006927715

式(1)において、AF(k,k)はf(n,n)の振幅成分であり、ejθF(k1,k2)はf(n,n)の位相成分である。 In equation (1), AF (k 1 , k 2 ) is the amplitude component of f (n 1 , n 2 ), and e jθF (k 1, k 2) is the phase component of f (n 1 , n 2). ..

同様に、離散空間上でn=−M,・・・,Mとし、N=2M+1(Mは正の整数)とし、g(n,n)の2次元DFTの演算結果をG(k,k)とすると、G(k,k)は、式(2)のように表される。 Similarly, in a discrete space, n 2 = -M 2 , ..., M 2 , N 2 = 2 M 2 + 1 (M 2 is a positive integer), and g (n 1 , n 2 ) two-dimensional DFT. Assuming that the calculation result of is G (k 1 , k 2 ), G (k 1 , k 2 ) is expressed as in Eq. (2).

Figure 0006927715
Figure 0006927715

式(2)において、A(k,k)はg(n,n)の振幅成分であり、ejθG(k1,k2)はg(n,n)の位相成分である。 In equation (2), AG (k 1 , k 2 ) is the amplitude component of g (n 1 , n 2 ), and e jθG (k 1, k 2) is the phase component of g (n 1 , n 2). be.

位相限定合成処理に用いられる位相限定合成関数は、式(1)及び式(2)を用いて、式(3)のように定義される。 The phase-limited synthesis function used in the phase-limited synthesis processing is defined as in equation (3) using equations (1) and (2).

Figure 0006927715
Figure 0006927715

本実施形態における位相限定相関関数は、式(3)の位相限定合成関数に対して2次元逆離散フーリエ変換(Inverse Discrete Fourier Transformation:以下、IDFT)を施すことにより、式(4)のように表される。 The phase-limited correlation function in the present embodiment is as shown in the equation (4) by applying a two-dimensional inverse discrete Fourier transform (IDFT) to the phase-limited composite function of the equation (3). expressed.

Figure 0006927715
Figure 0006927715

連続空間で定義された2次元画像s(x,x)を、x方向に微小移動量δだけ、且つ、x方向に微小移動量δだけシフトさせて得られる画像は、s(x−δ,x−δ)と表される。標本化間隔Tで標本化された離散空間上の2次元画像f(n,n)は、式(5)のように定義される。 The 2-dimensional images s c of the continuous space is defined (x 1, x 2), by a minute amount of movement [delta] 1 in x 1 direction and the image obtained by shifting the x 2 direction by a minute amount of movement [delta] 2 is is expressed as s c (x 1 -δ 1, x 2 -δ 2). The two-dimensional image f (n 1 , n 2 ) on the discrete space sampled at the sampling interval T 1 is defined by Eq. (5).

Figure 0006927715
Figure 0006927715

同様に、標本化間隔Tで標本化された離散空間上の2次元画像g(n,n)は、式(6)のように定義される。 Similarly, the two-dimensional image g (n 1 , n 2 ) on the discrete space sampled at the sampling interval T 2 is defined by Eq. (6).

Figure 0006927715
Figure 0006927715

式(5)及び式(6)において、n=−M,・・・,Mであり、n=−M,・・・,Mである。これにより、離散空間上の2次元画像f(n,n)、g(n,n)に関する位相限定相関関数は、式(7)のような一般形で表される。式(7)において、α=1である。 In equations (5) and (6), n 1 = -M 1 , ..., M 1 and n 2 = -M 2 , ..., M 2 . As a result, the phase-limited correlation function for the two-dimensional images f (n 1 , n 2 ) and g (n 1 , n 2 ) in the discrete space is expressed in the general form as in Eq. (7). In equation (7), α = 1.

Figure 0006927715
Figure 0006927715

上記の位相限定相関処理を行う位置合わせ部18について説明する。図10は、位置合わせ部18の一例を示すブロック図である。 The alignment unit 18 that performs the above-mentioned phase-limited correlation processing will be described. FIG. 10 is a block diagram showing an example of the alignment unit 18.

(回転移動量算出部)
回転移動量算出部52は、ベース画像Pと動画作成用画像Pとの間の回転移動量を算出する。具体的には、回転移動量算出部52は、ベース画像Pと動画作成用画像Pとに対し位相限定相関処理を施すことにより、ベース画像Pと動画作成用画像Pとの間の回転移動量を算出する。このような回転移動量算出部52は、図10に示すように、回転移動量算出部52は、第1変換処理部60、対数変換部62、極座標変換部64、第2変換処理部66、第1位相限定合成部68、及び第1逆変換処理部70を備えている。
(Rotation movement amount calculation unit)
The rotation movement amount calculation unit 52 calculates the rotation movement amount between the base image P 0 and the moving image creation image P n. Specifically, the rotational movement amount calculating section 52, by contrast with the base image P 0 and the moving creating image P n subjected to phase-only correlation processing between the base image P 0 and the moving creating image P n Calculate the amount of rotational movement of. As shown in FIG. 10, such a rotational movement amount calculation unit 52 includes a first conversion processing unit 60, a logarithmic conversion unit 62, a polar coordinate conversion unit 64, and a second conversion processing unit 66. It includes a first phase limited synthesis unit 68 and a first inverse conversion processing unit 70.

第1変換処理部60は、ベース画像Pに対し2次元DFT処理を施す。また、第1変換処理部60は、動画作成用画像Pに対し2次元DFT処理を施す。第1変換処理部60により行われる2次元DFT処理は、2次元DFTと、この2次元DFTの演算結果に対し象限をシフトする公知のシフト処理とを含む。以下、このシフト処理を、「シフト」と呼ぶことがある。なお、第1変換処理部60により行われる2次元DFTは、2次元FFT(Fast Fourier Transformation)であってよい。 The first conversion processing unit 60 performs two-dimensional DFT processing on the base image P 0. Further, the first conversion processing unit 60 performs two-dimensional DFT processing on the moving image creation image Pn. The two-dimensional DFT process performed by the first conversion processing unit 60 includes a two-dimensional DFT and a known shift process for shifting the quadrant with respect to the calculation result of the two-dimensional DFT. Hereinafter, this shift process may be referred to as "shift". The two-dimensional DFT performed by the first transformation processing unit 60 may be a two-dimensional FFT (Fast Fourier Transformation).

対数変換部62は、ベース画像Pについての第1変換処理部60による演算結果に対し対数変換を施す。また、対数変換部62は、動画作成用画像Pについての第1変換処理部60による演算結果に対し対数変換を施す。対数変換部62による対数変換は、自然画像において空間周波数の低周波数領域に集中する傾向がある振幅スペクトルを圧縮させる効果を有する。 The logarithmic conversion unit 62 performs logarithmic conversion on the calculation result of the base image P 0 by the first conversion processing unit 60. Further, the logarithmic conversion unit 62 performs logarithmic conversion on the calculation result of the first conversion processing unit 60 for the moving image creation image Pn. The logarithmic conversion by the logarithmic conversion unit 62 has the effect of compressing the amplitude spectrum that tends to be concentrated in the low frequency region of the spatial frequency in the natural image.

極座標変換部64は、ベース画像Pについての対数変換部62による演算結果に対し極座標変換を施す。また、極座標変換部64は、動画作成用画像Pについての対数変換部62による演算結果に対し極座標変換を施す。なお、対数変換部62による対数変換を行わない場合、極座標変換部64は、ベース画像Pについての第1変換処理部60による演算結果に対し極座標変換を施し、動画作成用画像Pについての第1変換処理部60による演算結果に対し極座標変換を施す。極座標変換部64による極座標変換は、回転方向の移動量を式(1)〜式(7)における平行方向(n方向やn方向)の移動量に変換する処理である。 The polar coordinate conversion unit 64 performs polar coordinate conversion on the calculation result of the logarithmic conversion unit 62 for the base image P 0. Further, the polar coordinate conversion unit 64 performs polar coordinate conversion on the calculation result by the logarithmic conversion unit 62 for the moving image P n. When the logarithmic conversion by the logarithmic conversion unit 62 is not performed, the polar coordinate conversion unit 64 performs polar coordinate conversion on the calculation result by the first conversion processing unit 60 for the base image P 0 , and the moving image P n is subjected to polar coordinate conversion. Polar coordinate conversion is performed on the calculation result by the first conversion processing unit 60. Polar conversion by polar coordinate transformation unit 64 is a process of converting the movement amount of the rotational direction to the amount of movement of the parallel direction (n 1 direction and n 2 direction) in the formula (1) to (7).

第2変換処理部66は、式(1)に示すように、ベース画像Pについての極座標変換部64による演算結果に対し2次元DFT処理(2次元DFT+シフト)を施す。ベース画像Pについての第2変換処理部66による処理結果は、第1位相限定合成部68による演算処理に先立って、振幅成分で正規化されたベースPOCデータ(第1データ)として、例えば制御部12の不図示のROMに事前に保存される。また、第2変換処理部66は、式(2)に示すように、動画作成用画像Pについての極座標変換部64による演算結果に対し2次元DFT処理(2次元DFT+シフト)を施す。なお、第2変換処理部66により行われる2次元DFTもまた、2次元FFTであってよい。 As shown in the equation (1), the second conversion processing unit 66 performs two-dimensional DFT processing (two-dimensional DFT + shift) on the calculation result of the polar coordinate conversion unit 64 for the base image P 0. The processing result of the base image P 0 by the second conversion processing unit 66 is controlled as, for example, the base POC data (first data) normalized by the amplitude component prior to the arithmetic processing by the first phase limited synthesis unit 68. It is stored in advance in a ROM (not shown) of the unit 12. Further, as shown in the equation (2), the second conversion processing unit 66 performs two-dimensional DFT processing (two-dimensional DFT + shift) on the calculation result by the polar coordinate conversion unit 64 for the moving image creation image Pn. The two-dimensional DFT performed by the second conversion processing unit 66 may also be a two-dimensional FFT.

第1位相限定合成部68は、式(3)に示すように、ベース画像Pについて予め求められたベースPOCデータ(第1データ)と、動画作成用画像Pについての第2変換処理部66による演算結果に基づいて振幅成分で正規化されたターゲットPOCデータ(第2データ)とを合成する位相限定合成処理を行う。 As shown in the equation (3), the first phase limited synthesis unit 68 is a second conversion processing unit for the base POC data (first data) obtained in advance for the base image P 0 and the moving image creation image P n. A phase-limited synthesis process for synthesizing the target POC data (second data) normalized by the amplitude component based on the calculation result by 66 is performed.

第1逆変換処理部70は、第1位相限定合成部68による演算結果に対し2次元IDFT処理を施す。第1逆変換処理部70により行われる2次元IDFT処理は、2次元IDFTと、この2次元IDFTの演算結果に対し象限をシフトする公知のシフト処理とを含む。なお、2次元IDFTは、2次元逆高速フーリエ変換(Inverse Fast Fourier Transformation:以下、IFFT)により演算してもよい。 The first inverse transformation processing unit 70 performs two-dimensional IDFT processing on the calculation result by the first phase limited synthesis unit 68. The two-dimensional IDFT process performed by the first inverse transformation processing unit 70 includes a two-dimensional IDFT and a known shift process for shifting the quadrant with respect to the calculation result of the two-dimensional IDFT. The two-dimensional IDFT may be calculated by a two-dimensional Inverse Fast Fourier Transformation (hereinafter referred to as IFFT).

回転移動量算出部52は、第1逆変換処理部70による演算結果に基づいて回転移動量を算出する。具体的には、回転移動量算出部52は、第1逆変換処理部70による演算結果に基づいてピーク位置を特定することにより、ピクセルレベルで回転方向の移動量(回転移動量、位置ずれ量)を算出する。その後、回転移動量算出部52は、ピクセルレベルで特定されたピーク位置の近傍において、式(7)に示す位相限定相関関数の相関値が最大となるときの画素位置を特定することにより、サブピクセルレベルで回転方向の移動量(回転移動量、位置ずれ量)を算出する。 The rotation movement amount calculation unit 52 calculates the rotation movement amount based on the calculation result by the first inverse conversion processing unit 70. Specifically, the rotational movement amount calculation unit 52 specifies the peak position based on the calculation result by the first inverse transformation processing unit 70, so that the rotational movement amount (rotational movement amount, misalignment amount) at the pixel level. ) Is calculated. After that, the rotation movement amount calculation unit 52 specifies the pixel position when the correlation value of the phase-limited correlation function shown in the equation (7) becomes maximum in the vicinity of the peak position specified at the pixel level, thereby substituting. The amount of movement in the rotation direction (rotational movement amount, misalignment amount) is calculated at the pixel level.

回転移動量算出部52は、ベース画像Pを基準に、動画作成用画像Pの回転方向の移動量を算出するものとして説明したが、これに限定されるものではない。回転移動量算出部52は、ターゲット画像を基準に、ベース画像の回転方向の移動量を算出してもよい。 The rotation movement amount calculation unit 52 has been described as calculating the movement amount of the moving image P n in the rotation direction with reference to the base image P 0, but the present invention is not limited to this. The rotation movement amount calculation unit 52 may calculate the movement amount in the rotation direction of the base image with reference to the target image.

また、回転移動量算出部52は、位相限定相関処理により回転移動量を算出するものでなくてもよく、公知の手法により回転移動量を算出し、算出された回転移動量を画像回転部54に出力するようにしてもよい。 Further, the rotational movement amount calculation unit 52 does not have to calculate the rotational movement amount by phase-limited correlation processing, calculates the rotational movement amount by a known method, and uses the calculated rotational movement amount as the image rotation unit 54. It may be output to.

(画像回転部)
画像回転部54は、回転移動量算出部52により算出された回転移動量に基づいてベース画像Pと動画作成用画像Pとの間の回転方向の位置合わせを行う。具体的には、画像回転部54は、回転移動量算出部52により算出された回転移動量に基づいて、ベース画像Pを基準に、回転移動量が零となるように動画作成用画像Pに対し回転方向の位置合わせを行う。
(Image rotation part)
The image rotation unit 54 aligns the base image P 0 and the moving image creation image P n in the rotation direction based on the rotation movement amount calculated by the rotation movement amount calculation unit 52. Specifically, the image rotation unit 54 uses the base image P 0 as a reference based on the rotation movement amount calculated by the rotation movement amount calculation unit 52, so that the rotation movement amount becomes zero. Aligning in the rotation direction with respect to n.

(平行移動量算出部)
平行移動量算出部56は、画像回転部54による位置合わせがなされたベース画像Pと動画作成用画像Pとの間の平行移動量を算出する。具体的には、平行移動量算出部56は、画像回転部54による位置合わせがなされたベース画像Pと動画作成用画像Pとに対し位相限定相関処理を施すことにより、ベース画像Pと動画作成用画像Pとの間の平行移動量を算出する。このような平行移動量算出部56は、図10に示すように、第3変換処理部72、第2位相限定合成部74、及び第2逆変換処理部76を備えている。
(Translation amount calculation unit)
The translation amount calculation unit 56 calculates the translation amount between the base image P 0 aligned by the image rotation unit 54 and the moving image creation image P n. Specifically, the translation amount calculation unit 56 performs phase-limited correlation processing on the base image P 0 aligned by the image rotation unit 54 and the moving image creation image P n , thereby causing the base image P 0. The amount of translation between the image P n and the moving image P n is calculated. As shown in FIG. 10, such a translation amount calculation unit 56 includes a third conversion processing unit 72, a second phase limited synthesis unit 74, and a second inverse conversion processing unit 76.

第3変換処理部72は、式(1)に示すように、ベース画像Pに対し2次元DFT処理(2次元DFT+シフト)を施す。ベース画像Pについての第3変換処理部72による処理結果は、第2位相限定合成部74による演算処理に先立って、振幅成分で正規化されたベースPOCデータ(第3データ)として、たとえば記憶部212に事前に保存される。また、第3変換処理部72は、式(2)に示すように、動画作成用画像Pに対し2次元DFT処理(2次元DFT+シフト)を施す。なお、第3変換処理部72により行われる2次元DFTは、2次元FFTであってよい。 As shown in the equation (1), the third conversion processing unit 72 performs two-dimensional DFT processing (two-dimensional DFT + shift) on the base image P 0. The processing result of the base image P 0 by the third conversion processing unit 72 is stored, for example, as base POC data (third data) normalized by the amplitude component prior to the arithmetic processing by the second phase limited synthesis unit 74. Pre-stored in section 212. Further, as shown in the equation (2), the third conversion processing unit 72 performs a two-dimensional DFT process (two-dimensional DFT + shift) on the moving image creation image Pn. The two-dimensional DFT performed by the third conversion processing unit 72 may be a two-dimensional FFT.

第2位相限定合成部74は、式(3)に示すように、ベース画像Pについて予め求められたベースPOCデータ(第3データ)と、動画作成用画像Pについての第3変換処理部72による演算結果に基づいて、振幅成分で正規化されたターゲットPOCデータ(第4データ)とを合成する位相限定合成処理を行う。 As shown in the equation (3), the second phase limited synthesis unit 74 is a third conversion processing unit for the base POC data (third data) obtained in advance for the base image P 0 and the moving image creation image P n. Based on the calculation result according to 72, a phase-limited synthesis process for synthesizing the target POC data (fourth data) normalized by the amplitude component is performed.

第2逆変換処理部76は、第2位相限定合成部74による演算結果に対し2次元IDFT処理(2次元IDFT+シフト)を施す。なお、第2逆変換処理部76により行われる2次元IDFTは、2次元IFFTであってよい。 The second inverse transformation processing unit 76 performs two-dimensional IDFT processing (two-dimensional IDFT + shift) on the calculation result by the second phase limited synthesis unit 74. The two-dimensional IDFT performed by the second inverse transform processing unit 76 may be a two-dimensional IFFT.

平行移動量算出部56は、第2逆変換処理部76による演算結果に基づいて平行移動量を算出する。具体的には、平行移動量算出部56は、第2逆変換処理部76による演算結果に基づいてピーク位置を特定することにより、ピクセルレベルで平行方向の移動量(平行移動量、位置ずれ量)を算出する。その後、平行移動量算出部56は、ピクセルレベルで特定されたピーク位置の近傍において、式(7)に示す位相限定相関関数の相関値が最大となるときの画素位置を特定することにより、サブピクセルレベルで平行方向の移動量(平行移動量、位置ずれ量)を算出する。 The translation amount calculation unit 56 calculates the translation amount based on the calculation result by the second inverse transformation processing unit 76. Specifically, the translation amount calculation unit 56 specifies the peak position based on the calculation result by the second inverse transformation processing unit 76, so that the translation amount in the parallel direction (translation amount, misalignment amount) at the pixel level. ) Is calculated. After that, the translation amount calculation unit 56 subordinates by specifying the pixel position when the correlation value of the phase-limited correlation function shown in the equation (7) becomes maximum in the vicinity of the peak position specified at the pixel level. Calculate the amount of movement in the parallel direction (translation amount, misalignment amount) at the pixel level.

平行移動量算出部56は、ベース画像Pを基準に、動画作成用画像Pの平行方向の移動量を算出するものとして説明したが、これに限定されるものではない。平行移動量算出部56は、動画作成用画像Pを基準に、ベース画像Pの平行方向の移動量を算出してもよい。 The translation amount calculation unit 56 has been described as calculating the movement amount of the moving image P n in the parallel direction with reference to the base image P 0, but the present invention is not limited to this. The translation amount calculation unit 56 may calculate the movement amount of the base image P 0 in the parallel direction based on the moving image P n.

平行移動量算出部56において算出された平行移動量は、画像平行移動部58に出力される。 The translation amount calculated by the translation amount calculation unit 56 is output to the image translation amount calculation unit 58.

(画像平行移動部)
画像平行移動部58は、平行移動量算出部56により算出された平行移動量に基づいてベース画像Pと動画作成用画像Pとの間の平行方向の位置合わせを行う。具体的には、画像平行移動部58は、平行移動量算出部56により算出された平行移動量に基づいて、ベース画像Pを基準に、平行移動量が零となるように動画作成用画像Pに対し平行方向の位置合わせを行う。
(Image translation part)
The image translation unit 58 aligns the base image P 0 and the moving image creation image P n in the parallel direction based on the translation amount calculated by the translation amount calculation unit 56. Specifically, the image translation unit 58 is an image for creating a moving image so that the translation amount becomes zero based on the base image P 0 based on the translation amount calculated by the translation amount calculation unit 56. Align in the direction parallel to P n.

〔動画作成方法〕
図11は、本実施形態に係る眼科画像表示装置50が実行する動画表示処理を示すフローチャートである。なお、図7に示すフローチャートと共通する部分には同一の符号を付し、その詳細な説明は省略する。
[How to create a video]
FIG. 11 is a flowchart showing a moving image display process executed by the ophthalmic image display device 50 according to the present embodiment. The parts common to the flowchart shown in FIG. 7 are designated by the same reference numerals, and detailed description thereof will be omitted.

本実施形態では、動画を作成する際の画像の位置合わせに位相限定相関処理を用いる。 In this embodiment, phase-limited correlation processing is used for image alignment when creating a moving image.

第2の実施形態と同様に、変数nを0に初期化し(ステップS1)、観察者がベース画像Pを選択する(ステップS2)。 Similar to the second embodiment, the variable n is initialized to 0 (step S1), and the observer selects the base image P 0 (step S2).

次に、変数nをインクリメントし(ステップS4)、動画を作成するための動画作成用画像Pを選択する(ステップS5)。 Next, the variable n is incremented (step S4), and the moving image creation image P n for creating the moving image is selected (step S5).

続いて、回転移動量算出部52は、ベース画像Pと動画作成用画像Pとの間の回転移動量を算出する(ステップS31)。また、画像回転部54は、回転移動量算出部52により算出された回転移動量に基づいてベース画像Pと動画作成用画像Pとの間の回転方向の位置合わせを行う(ステップS32)。 Subsequently, the rotation movement amount calculation unit 52 calculates the rotation movement amount between the base image P 0 and the moving image creation image P n (step S31). Further, the image rotation unit 54 aligns the base image P 0 and the moving image creation image P n in the rotation direction based on the rotation movement amount calculated by the rotation movement amount calculation unit 52 (step S32). ..

次に、平行移動量算出部56は、画像回転部54による位置合わせがなされたベース画像Pと動画作成用画像Pとの間の平行移動量を算出する(ステップS33)。さらに、画像平行移動部58は、平行移動量算出部56により算出された平行移動量に基づいてベース画像Pと動画作成用画像Pとの間の平行方向の位置合わせを行う(ステップS34)。 Next, the translation amount calculation unit 56 calculates the translation amount between the base image P 0 aligned by the image rotation unit 54 and the moving image creation image P n (step S33). Further, the image translation unit 58 aligns the base image P 0 and the moving image creation image P n in the parallel direction based on the translation amount calculated by the translation amount calculation unit 56 (step S34). ).

以下、第2の実施形態と同様に、動画作成用画像Pの明るさがベース画像Pの明るさに一致するように動画作成用画像Pの明るさを変更し(ステップS8)、動画を作成するための動画作成用画像Pの選択が終了するまで同様の処理を繰り返す(ステップS9)。 Hereinafter, as in the second embodiment, by changing the brightness of the moving image creating images P n as the brightness of the moving image creating images P n coincides with the brightness of the base image P 0 (step S8), and The same process is repeated until the selection of the moving image creation image Pn for creating the moving image is completed (step S9).

このように、本実施形態によれば、動画を作成する際の画像の位置合わせに位相限定相関処理を用いることで、より適切な動画を作成することができる。 As described above, according to the present embodiment, a more appropriate moving image can be created by using the phase-limited correlation process for the alignment of the image when creating the moving image.

<その他>
ここまで説明した実施形態において、例えば、制御部12、位置合わせ部18、明るさ変更部26、動画作成部28、補間画像作成部34、回転移動量算出部52、画像回転部54、平行移動量算出部56、画像平行移動部58、第1変換処理部60、対数変換部62、極座標変換部64、第2変換処理部66、第1位相限定合成部68、第1逆変換処理部70、第3変換処理部72、第2位相限定合成部74、及び第2逆変換処理部76等の各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
<Others>
In the embodiments described so far, for example, the control unit 12, the alignment unit 18, the brightness change unit 26, the moving image creation unit 28, the interpolation image creation unit 34, the rotation movement amount calculation unit 52, the image rotation unit 54, and the translation unit. Quantity calculation unit 56, image translation unit 58, first conversion processing unit 60, logarithmic conversion unit 62, polar coordinate conversion unit 64, second conversion processing unit 66, first phase limited synthesis unit 68, first inverse conversion processing unit 70. The hardware structure of the processing unit that executes various processes such as the third conversion processing unit 72, the second phase limited synthesis unit 74, and the second inverse conversion processing unit 76 is as shown below. Various processors. For various processors, the circuit configuration can be changed after manufacturing the CPU (Central Processing Unit), FPGA (Field Programmable Gate Array), etc., which are general-purpose processors that execute software (programs) and function as various processing units. Includes a dedicated electric circuit, which is a processor having a circuit configuration specially designed for executing a specific process such as a programmable logic device (PLD), an ASIC (Application Specific Integrated Circuit), etc. Is done.

1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、サーバ及びクライアント等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、各種のプロセッサを1つ以上用いて構成される。 One processing unit may be composed of one of these various processors, or may be composed of two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of a CPU and an FPGA). You may. Further, a plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units with one processor, first, one processor is configured by a combination of one or more CPUs and software, as represented by a computer such as a server and a client. There is a form in which a processor functions as a plurality of processing units. Secondly, as typified by System On Chip (SoC), there is a form in which a processor that realizes the functions of the entire system including a plurality of processing units with one IC (Integrated Circuit) chip is used. be. As described above, the various processing units are configured by using one or more various processors as a hardware-like structure.

さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)である。 Further, the hardware structure of these various processors is, more specifically, an electric circuit (circuitry) in which circuit elements such as semiconductor elements are combined.

本実施形態に係る眼科画像表示方法は、コンピュータに上記の各工程を実行せるためのプログラムとして構成し、構成したプログラムを記憶したCD−ROM(Compact Disk-Read Only Memory)等の非一時的な記録媒体を構成することも可能である。 The ophthalmic image display method according to the present embodiment is configured as a program for causing a computer to execute each of the above steps, and is non-temporary such as a CD-ROM (Compact Disk-Read Only Memory) storing the configured program. It is also possible to configure a recording medium.

本発明の技術的範囲は、上記の実施形態に記載の範囲には限定されない。各実施形態における構成等は、本発明の趣旨を逸脱しない範囲で、各実施形態間で適宜組み合わせることができる。 The technical scope of the present invention is not limited to the scope described in the above embodiments. The configurations and the like in each embodiment can be appropriately combined between the respective embodiments without departing from the spirit of the present invention.

10 眼科画像表示装置
12 制御部
14 通信部
16 画像メモリ
18 位置合わせ部
20 特徴点抽出部
22 対応点検出部
24 画像変形部
25 画像選択部
26 明るさ変更部
28 動画作成部
30 操作部
32 表示部
34 補間画像作成部
40 眼科画像表示装置
50 眼科画像表示装置
52 回転移動量算出部
54 画像回転部
56 平行移動量算出部
58 画像平行移動部
60 第1変換処理部
62 対数変換部
64 極座標変換部
66 第2変換処理部
68 第1位相限定合成部
70 第1逆変換処理部
72 第3変換処理部
74 第2位相限定合成部
76 第2逆変換処理部
100 サーバ
特徴点
特徴点
特徴点
特徴点
対応点
対応点
対応点
対応点
S1〜S34 動画表示処理の工程
10 Ophthalmology image display device 12 Control unit 14 Communication unit 16 Image memory 18 Alignment unit 20 Feature point extraction unit 22 Corresponding point detection unit 24 Image deformation unit 25 Image selection unit 26 Brightness change unit 28 Video creation unit 30 Operation unit 32 Display Unit 34 Interpolated image creation unit 40 Ophthalmology image display device 50 Ophthalmology image display device 52 Rotational movement amount calculation unit 54 Image rotation unit 56 Translation amount calculation unit 58 Image parallel movement unit 60 First conversion processing unit 62 Logistic conversion unit 64 Polar coordinate conversion Part 66 Second conversion processing unit 68 First phase limited synthesis unit 70 First inverse conversion processing unit 72 Third conversion processing unit 74 Second phase limited synthesis unit 76 Second inverse conversion processing unit 100 Server A 1 Feature point A 2 Features point a 3 characteristic point a n feature points B 1 corresponding point B 2 corresponding point B 3 corresponding point B n corresponding point S1~S34 video display processing step

Claims (13)

同一被検眼に関する複数の撮影画像、又は同一被検眼の形状に関する複数の解析画像を取得する画像取得部と、
前記取得した複数の画像の位置合わせを行う位置合わせ部と、
前記位置合わせされた複数の画像を時系列順につなぎ合わせて動画を作成する動画作成部と、
前記作成した動画を表示する表示部と、
前記時系列順につなぎ合わされた複数の画像のうちの前記時系列順に隣接する2つの画像の間を時系列的に補間する補間画像を作成する補間画像作成部と、
を備え
前記補間画像作成部は、前記時系列順に隣接する2つの画像の撮影間隔に応じた数の前記補間画像を作成し、
前記動画作成部は、前記補間画像を含めて前記動画を作成する眼科画像表示装置。
An image acquisition unit that acquires a plurality of captured images relating to the same eye to be inspected or a plurality of analysis images relating to the shape of the same eye to be inspected.
An alignment unit that aligns the acquired plurality of images, and an alignment unit.
A video creation unit that creates a video by connecting a plurality of aligned images in chronological order,
A display unit that displays the created video and
An interpolation image creation unit that creates an interpolated image that interpolates in chronological order between two images adjacent to each other in chronological order among a plurality of images that are joined in chronological order.
Equipped with a,
The interpolated image creation unit creates a number of the interpolated images according to the shooting interval of two adjacent images in the time series order.
The moving image creation unit is an ophthalmic image display device that creates the moving image including the interpolated image.
前記位置合わせ部は、
前記複数の画像のうちの1つの画像である第1画像から複数の特徴点を抽出する特徴点抽出部と、
前記複数の画像のうちの前記第1画像以外の第2画像から前記複数の特徴点に対応する複数の対応点を検出する対応点検出部と、
前記第2画像を変形して前記複数の対応点の位置をそれぞれ対応する前記複数の特徴点の位置に一致させる画像変形部と、
を備えた請求項1に記載の眼科画像表示装置。
The alignment part is
A feature point extraction unit that extracts a plurality of feature points from the first image, which is one of the plurality of images, and a feature point extraction unit.
A correspondence point detection unit that detects a plurality of correspondence points corresponding to the plurality of feature points from a second image other than the first image among the plurality of images.
An image deformation unit that deforms the second image to match the positions of the plurality of corresponding points with the positions of the corresponding plurality of feature points.
The ophthalmic image display device according to claim 1.
前記対応点検出部は、テンプレートマッチングを用いて前記複数の対応点を検出する請求項2に記載の眼科画像表示装置。 The ophthalmic image display device according to claim 2, wherein the corresponding point detection unit detects the plurality of corresponding points by using template matching. 前記画像変形部は、アフィン変換を用いて前記複数の対応点の位置をそれぞれ対応する前記複数の特徴点の位置に一致させる請求項2又は3に記載の眼科画像表示装置。 The ophthalmic image display device according to claim 2 or 3, wherein the image transforming unit uses an affine transformation to match the positions of the plurality of corresponding points with the positions of the corresponding plurality of feature points. 前記位置合わせ部は、
前記複数の画像のうちの1つの画像である第1画像と前記第1画像以外の第2画像との間の回転移動量を算出する回転移動量算出部と、
前記回転移動量算出部により算出された前記回転移動量に基づいて前記第1画像と前記第2画像との間の回転方向の位置合わせを行う画像回転部と、
前記画像回転部による位置合わせがなされた前記第1画像と前記第2画像とに対し位相限定相関処理を施すことにより、前記第1画像と前記第2画像との間の平行移動量を算出する平行移動量算出部と、
前記平行移動量算出部により算出された前記平行移動量に基づいて前記第1画像と前記第2画像との間の平行方向の位置合わせを行う画像平行移動部と、
を備えた請求項1に記載の眼科画像表示装置。
The alignment part is
A rotational movement amount calculation unit that calculates a rotational movement amount between a first image that is one of the plurality of images and a second image other than the first image.
An image rotation unit that aligns the rotation direction between the first image and the second image based on the rotation movement amount calculated by the rotation movement amount calculation unit.
The amount of translation between the first image and the second image is calculated by performing phase-limited correlation processing on the first image and the second image that have been aligned by the image rotating portion. Translation amount calculation unit and
An image translation unit that aligns the first image and the second image in the parallel direction based on the translation amount calculated by the translation amount calculation unit.
The ophthalmic image display device according to claim 1.
前記回転移動量算出部は、前記第1画像と前記第2画像とに対し位相限定相関処理を施すことにより、前記第1画像と前記第2画像との間の回転移動量を算出する請求項5に記載の眼科画像表示装置。 The claim that the rotational movement amount calculation unit calculates the rotational movement amount between the first image and the second image by performing phase-limited correlation processing on the first image and the second image. 5. The ophthalmic image display device according to 5. 前記回転移動量算出部は、
前記第2画像に対し離散フーリエ変換を施す第1変換処理部と、
前記第2画像についての前記第1変換処理部による演算結果に対し極座標変換を施す極座標変換部と、
前記第2画像についての前記極座標変換部による演算結果に対し離散フーリエ変換を施す第2変換処理部と、
前記第1画像について予め求められた第1データと、前記第2画像についての前記第2変換処理部による演算結果に基づき求められた第2データとを合成する位相限定合成処理を行う第1位相限定合成部と、
前記第1位相限定合成部による演算結果に対し逆離散フーリエ変換を施す第1逆変換処理部と、を備え、
前記第1逆変換処理部による演算結果に基づいて前記回転移動量を算出する請求項6に記載の眼科画像表示装置。
The rotational movement amount calculation unit
A first transform processing unit that performs a discrete Fourier transform on the second image,
A polar coordinate conversion unit that performs polar coordinate conversion on the calculation result of the first conversion processing unit for the second image, and a polar coordinate conversion unit.
A second conversion processing unit that performs a discrete Fourier transform on the calculation result of the polar coordinate conversion unit for the second image,
A first phase that performs a phase-limited synthesis process for synthesizing the first data obtained in advance for the first image and the second data obtained based on the calculation result of the second conversion processing unit for the second image. Limited synthesis section and
A first inverse transform processing unit that performs an inverse discrete Fourier transform on the calculation result by the first phase limited synthesis unit is provided.
The ophthalmologic image display device according to claim 6, wherein the rotational movement amount is calculated based on the calculation result by the first inverse transformation processing unit.
前記複数の画像の明るさをそれぞれ一致させる明るさ変更部を備えた請求項1から7のいずれか1項に記載の眼科画像表示装置。 The ophthalmologic image display device according to any one of claims 1 to 7, further comprising a brightness changing unit for matching the brightness of the plurality of images. 前記補間画像作成部は、前記時系列順に隣接する2つの画像から検出された動きベクトルを等分する前記補間画像を作成する請求項1から8のいずれか1項に記載の眼科画像表示装置。 The ophthalmic image display device according to any one of claims 1 to 8, wherein the interpolated image creating unit creates the interpolated image that equally divides motion vectors detected from two adjacent images in chronological order. 前記撮影画像は、眼底の正面像又は眼底の断層像である請求項1から9のいずれか1項に記載の眼科画像表示装置。 The ophthalmologic image display device according to any one of claims 1 to 9, wherein the captured image is a frontal image of the fundus or a tomographic image of the fundus. 前記解析画像は、眼底の層厚の二次元分布を表す厚みマップ、又は層厚の時系列的な変化を表す厚みの変化マップである請求項1から10のいずれか1項に記載の眼科画像表示装置。 The ophthalmic image according to any one of claims 1 to 10, wherein the analysis image is a thickness map showing a two-dimensional distribution of the layer thickness of the fundus, or a thickness change map showing a time-series change in the layer thickness. Display device. 同一被検眼に関する複数の撮影画像、又は同一被検眼の形状に関する複数の解析画像を取得する画像取得工程と、
前記取得した複数の画像の位置合わせを行う位置合わせ工程と、
前記位置合わせされた複数の画像を時系列順につなぎ合わせて動画を作成する動画作成工程と、
前記作成した動画を表示部に表示する表示工程と、
前記時系列順につなぎ合わされた複数の画像のうちの前記時系列順に隣接する2つの画像の間を時系列的に補間する補間画像を作成する補間画像作成工程と、
を備え
前記補間画像作成工程は、前記時系列順に隣接する2つの画像の撮影間隔に応じた数の前記補間画像を作成し、
前記動画作成工程は、前記補間画像を含めて前記動画を作成する眼科画像表示方法。
An image acquisition step of acquiring a plurality of captured images relating to the same eye to be inspected or a plurality of analysis images relating to the shape of the same eye to be inspected.
The alignment step of aligning the plurality of acquired images and the alignment step.
A video creation process for creating a video by connecting a plurality of aligned images in chronological order, and
A display process for displaying the created moving image on the display unit, and
An interpolation image creation step of creating an interpolated image that interpolates in time series between two images adjacent to each other in the time series order among a plurality of images joined in the time series order.
Equipped with a,
In the interpolated image creation step, a number of the interpolated images corresponding to the shooting intervals of two adjacent images in the time series order are created.
The moving image creation step is an ophthalmic image display method for creating the moving image including the interpolated image.
コンピュータに、
同一被検眼に関する複数の撮影画像、又は同一被検眼の形状に関する複数の解析画像を取得する画像取得工程と、
前記取得した複数の画像の位置合わせを行う位置合わせ工程と、
前記位置合わせされた複数の画像を時系列順につなぎ合わせて動画を作成する動画作成工程と、
前記作成した動画を表示部に表示する表示工程と、
前記時系列順につなぎ合わされた複数の画像のうちの前記時系列順に隣接する2つの画像の間を時系列的に補間する補間画像を作成する補間画像作成工程と、
を実行させ
前記補間画像作成工程は、前記時系列順に隣接する2つの画像の撮影間隔に応じた数の前記補間画像を作成し、
前記動画作成工程は、前記補間画像を含めて前記動画を作成するプログラム。
On the computer
An image acquisition step of acquiring a plurality of captured images relating to the same eye to be inspected or a plurality of analysis images relating to the shape of the same eye to be inspected.
The alignment step of aligning the plurality of acquired images and the alignment step.
A video creation process for creating a video by connecting a plurality of aligned images in chronological order, and
A display process for displaying the created moving image on the display unit, and
An interpolation image creation step of creating an interpolated image that interpolates in time series between two images adjacent to each other in the time series order among a plurality of images joined in the time series order.
To run ,
In the interpolated image creation step, a number of the interpolated images corresponding to the shooting intervals of two adjacent images in the time series order are created.
The moving image creation step is a program for creating the moving image including the interpolated image.
JP2017040759A 2017-03-03 2017-03-03 Ophthalmic image display device, ophthalmic image display method and program Active JP6927715B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017040759A JP6927715B2 (en) 2017-03-03 2017-03-03 Ophthalmic image display device, ophthalmic image display method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017040759A JP6927715B2 (en) 2017-03-03 2017-03-03 Ophthalmic image display device, ophthalmic image display method and program

Publications (2)

Publication Number Publication Date
JP2018143434A JP2018143434A (en) 2018-09-20
JP6927715B2 true JP6927715B2 (en) 2021-09-01

Family

ID=63589033

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017040759A Active JP6927715B2 (en) 2017-03-03 2017-03-03 Ophthalmic image display device, ophthalmic image display method and program

Country Status (1)

Country Link
JP (1) JP6927715B2 (en)

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4914249B2 (en) * 2007-03-05 2012-04-11 淳二 黒滝 Movie structure using time-varying recorded image, image data structure for creating movie, and movie creating method using time-varying recorded image
JP5653055B2 (en) * 2010-03-12 2015-01-14 キヤノン株式会社 Ophthalmic apparatus and control method thereof
JP2012021794A (en) * 2010-07-12 2012-02-02 Canon Inc Method for reading optical interference measurement data, optical interference tomography diagnostic apparatus, and optical interference tomography diagnostic system
JP5953666B2 (en) * 2011-07-27 2016-07-20 株式会社ニデック Fundus photographing apparatus, fundus analysis method, and fundus analysis program
JP6114495B2 (en) * 2012-02-20 2017-04-12 キヤノン株式会社 Image display device, image display method, and imaging system
JP5981858B2 (en) * 2013-02-14 2016-08-31 株式会社モリタ製作所 Balance function inspection device
JP6130723B2 (en) * 2013-05-01 2017-05-17 キヤノン株式会社 Information processing apparatus, information processing apparatus control method, and program
JP6217185B2 (en) * 2013-07-02 2017-10-25 株式会社ニデック Ophthalmic photographing apparatus and ophthalmic image processing program
JP6276943B2 (en) * 2013-08-28 2018-02-07 株式会社トプコン Ophthalmic equipment
JP6463047B2 (en) * 2014-09-05 2019-01-30 キヤノン株式会社 Ophthalmic device and method of operating an ophthalmic device

Also Published As

Publication number Publication date
JP2018143434A (en) 2018-09-20

Similar Documents

Publication Publication Date Title
KR102507711B1 (en) Medical image processing apparatus, medical image processing method, and computer readable medium
WO2020183799A1 (en) Medical image processing device, medical image processing method, and program
US10692198B2 (en) Image processing apparatus, image processing method, image processing system, and non-transitory computer-readable storage medium for presenting three-dimensional images
US11922601B2 (en) Medical image processing apparatus, medical image processing method and computer-readable medium
JP6512738B2 (en) Image processing apparatus, image processing method and program
US11954860B2 (en) Image matching method and device, and storage medium
JP2009112617A (en) Panoramic fundus image-compositing apparatus and method
JP7406892B2 (en) Medical image processing device, medical image processing method and program
JP6390746B2 (en) Diagnosis support apparatus, image processing method and program in diagnosis support apparatus
CN103222848A (en) Image processing apparatus, and image processing method
US20140306961A1 (en) Medical image processing system, recording medium having recorded thereon a medical image processing program and medical image processing method
JP2023017051A (en) Medical image processing apparatus, medical image processing method, and program
US20230355089A1 (en) Image signal output device and method, and image data conversion device, method, and program
JP6927715B2 (en) Ophthalmic image display device, ophthalmic image display method and program
KR102084138B1 (en) Apparatus and method for processing image
Al-Fahdawi et al. An automatic corneal subbasal nerve registration system using FFT and phase correlation techniques for an accurate DPN diagnosis
JP6909020B2 (en) Fundus information display device, fundus information display method and program
JP2020121012A (en) Ophthalmologic information processing apparatus, learned model, learning apparatus, ophthalmologic information processing method, and program
Ravier et al. Analysis of morphological changes of lamina cribrosa under acute intraocular pressure change
JP6720267B2 (en) Image processing apparatus, image processing method, and program
JP5455512B2 (en) Medical image display device, medical image display method, and program for executing the same
JP2017153826A (en) Ophthalmic image processing apparatus and ophthalmic image processing program
JP2024025807A (en) Medical image processing device, medical image processing method and program
JP2024046381A (en) Medical image display device
JP2023120003A (en) Image processing apparatus, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201225

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210805

R150 Certificate of patent or registration of utility model

Ref document number: 6927715

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150