JP2023029106A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2023029106A
JP2023029106A JP2021135208A JP2021135208A JP2023029106A JP 2023029106 A JP2023029106 A JP 2023029106A JP 2021135208 A JP2021135208 A JP 2021135208A JP 2021135208 A JP2021135208 A JP 2021135208A JP 2023029106 A JP2023029106 A JP 2023029106A
Authority
JP
Japan
Prior art keywords
image data
classification
unit
image
deletion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021135208A
Other languages
Japanese (ja)
Inventor
悠一 曽根
Yuichi Sone
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2021135208A priority Critical patent/JP2023029106A/en
Publication of JP2023029106A publication Critical patent/JP2023029106A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

To classify a large amount of image data to use for diagnosis of a subject eye and make it easy for a user to determine whether deletion of the image data is easy or not.SOLUTION: An image processing device comprises: an acquisition unit which acquires one or more pieces of image data of a subject eye; a classification unit which classifies the one or more pieces of image data into one of a plurality of classes indicating the possibility of deletion; and a display unit which associates a result of classification by the classification unit and displays deletion propriety of each of the one or more pieces of image data so as to be acceptable.SELECTED DRAWING: Figure 4

Description

本発明は、画像処理装置、画像処理方法、およびプログラムに関する。 The present invention relates to an image processing device, an image processing method, and a program.

従来、被検眼の画像解析を行ってその診断を行う診断装置が知られている。そのような診断装置により眼の状態を診断し、例えば、異常の早期発見等に利用されている。診断装置においては、画像データを撮影して利用することが行われるが、撮影された画像データには診断時の利用に適していない画像データなども含まれる。診断時の利用に適していない画像データとしては、例えば、画像の品質が低かったり、内容が重複したりしているものなどが挙げられる。 2. Description of the Related Art Conventionally, there is known a diagnostic apparatus that analyzes an image of an eye to be inspected and makes a diagnosis. Such a diagnostic device is used for diagnosing eye conditions and for early detection of abnormalities, for example. In a diagnostic apparatus, image data is captured and used, but the captured image data includes image data that is not suitable for use at the time of diagnosis. Image data that is not suitable for use in diagnosis includes, for example, image data of low quality and content that overlaps.

例えば、特許文献1では、眼科撮影装置により撮影された動画像を構成する複数のフレームから例外フレームを判定し、例外フレーム以外のフレームに対して画像処理を適用する構成が開示されている。このような構成により、計測に適してない例外フレームが含まれている場合でも、ロバストに画像の解析を可能としている。 For example, Japanese Patent Application Laid-Open No. 2002-200001 discloses a configuration in which an exceptional frame is determined from a plurality of frames that constitute a moving image captured by an ophthalmic imaging apparatus, and image processing is applied to frames other than the exceptional frame. Such a configuration enables robust image analysis even when an exceptional frame that is not suitable for measurement is included.

特開2017-56245号公報JP 2017-56245 A

診断装置において撮影される画像データは大量になる場合が想定される。そのような大量の画像データに対して選別を行うことにより、より効率的に診断を行ったり、必要な画像データのみを保存したりすることが求められる。 A large amount of image data captured by a diagnostic apparatus is expected. By sorting out such a large amount of image data, it is required to perform diagnosis more efficiently and to save only necessary image data.

特許文献1では、動画像を構成する複数のフレームのうち、例外フレームとみなされたフレームを処理の対象から除くことは記載されている。しかしながら、複数の画像データに対して、削除を含む複数の分類については考慮されていない。 Japanese Patent Laid-Open No. 2004-200000 describes that, among a plurality of frames that form a moving image, frames that are regarded as exceptional frames are excluded from processing targets. However, multiple classifications including deletion are not considered for multiple image data.

上記課題を鑑み、本発明は、被検眼の診断に用いられる多量の画像データを分類し、ユーザが画像データの削除の可否を容易に決定可能とすることを目的とする。 SUMMARY OF THE INVENTION In view of the above problems, an object of the present invention is to classify a large amount of image data used for diagnosis of an eye to be examined, and to enable a user to easily decide whether or not to delete image data.

上記課題を解決するために本発明の一形態は以下の構成を有する。すなわち、画像処理装置であって、
被検眼の1または複数の画像データを取得する取得部と、
前記1または複数の画像データを、削除の可能性を示す複数の分類のうちのいずれかに分類する分類部と、
前記分類部による分類の結果を対応付けて、前記1または複数の画像データそれぞれの削除の可否を受け付け可能に表示する表示部と、
を有する。
In order to solve the above problems, one embodiment of the present invention has the following configuration. That is, an image processing device,
an acquisition unit that acquires one or more image data of an eye to be inspected;
a classification unit that classifies the one or more image data into one of a plurality of classifications indicating the possibility of deletion;
a display unit that associates the results of classification by the classification unit and displays whether or not deletion of each of the one or more image data can be accepted;
have

また、本発明の別の形態は以下の構成を有する。すなわち、画像処理方法であって、
被検眼の1または複数の画像データを取得する取得工程と、
前記1または複数の画像データを、削除の可能性を示す複数の分類のうちのいずれかに分類する分類工程と、
前記分類工程による分類の結果を対応付けて、前記1または複数の画像データそれぞれの削除の可否を受け付け可能に表示部に表示させる表示制御工程と、
を有する。
Moreover, another form of this invention has the following structures. That is, an image processing method comprising:
an acquisition step of acquiring one or more image data of an eye to be examined;
a classification step of classifying the one or more image data into one of a plurality of classifications indicating the possibility of deletion;
a display control step of associating the results of the classification by the classification step and displaying on a display unit in such a manner that whether or not deletion of each of the one or more image data can be accepted;
have

また、本発明の別の形態は以下の構成を有する。すなわち、プログラムであって、
コンピュータに、
被検眼の1または複数の画像データを取得する取得工程、
前記1または複数の画像データを、削除の可能性を示す複数の分類のうちのいずれかに分類する分類工程、
前記分類工程による分類の結果を対応付けて、前記1または複数の画像データそれぞれの削除の可否を受け付け可能に表示部に表示させる表示制御工程、
を実行させる。
Moreover, another form of this invention has the following structures. That is, the program
to the computer,
an acquisition step of acquiring one or more image data of the eye to be examined;
a classification step of classifying the one or more image data into one of a plurality of classifications indicating the possibility of deletion;
A display control step of associating the results of classification by the classification step and displaying on a display unit in a manner capable of accepting deletion of each of the one or more image data;
to run.

本発明により、被検眼の診断に用いられる多量の画像データを分類し、ユーザが画像データの削除の可否が容易に決定可能になる。 According to the present invention, a large amount of image data used for diagnosis of an eye to be examined can be classified, and the user can easily decide whether or not to delete image data.

本発明の一実施形態に係るシステム構成の例を示すブロック図。1 is a block diagram showing an example of a system configuration according to one embodiment of the present invention; FIG. 本発明の第1の実施形態に係る機能構成の例を示すブロック図。1 is a block diagram showing an example of functional configuration according to a first embodiment of the present invention; FIG. 本発明の第1の実施形態に係る分類処理のフローチャート。4 is a flowchart of classification processing according to the first embodiment of the present invention; 本発明の一実施形態に係る画面構成の例を示す図。FIG. 4 is a diagram showing an example of screen configuration according to an embodiment of the present invention; 本発明の一実施形態に係る画面構成の例を示す図。FIG. 4 is a diagram showing an example of screen configuration according to an embodiment of the present invention; 本発明の第2の実施形態に係る機能構成の例を示すブロック図。FIG. 5 is a block diagram showing an example of functional configuration according to the second embodiment of the present invention; 本発明の第2の実施形態に係るDB構成の例を示す表図。FIG. 10 is a table showing an example of a DB configuration according to the second embodiment of the present invention; FIG. 本発明の第2の実施形態に係る処理のフローチャート。9 is a flowchart of processing according to the second embodiment of the present invention;

この発明に係る画像処理装置、画像処理方法、およびプログラムの実施形態の例について、図面を参照しながら詳細に説明する。なお、この明細書において引用された文献の記載内容や任意の公知技術を、以下の実施形態に援用することが可能である。なお、以下に説明する実施形態は、本発明を説明するための一実施形態であり、本発明を限定して解釈されることを意図するものではなく、また、各実施形態で説明されている全ての構成が本発明の課題を解決するために必須の構成であるとは限らない。また、各図面において、同じ構成要素については、同じ参照番号を付すことにより対応関係を示す。 Exemplary embodiments of an image processing apparatus, an image processing method, and a program according to the present invention will be described in detail with reference to the drawings. It should be noted that the descriptions of the documents cited in this specification and any known techniques can be incorporated into the following embodiments. In addition, the embodiment described below is one embodiment for describing the present invention, and is not intended to be interpreted as limiting the present invention. Not all configurations are essential configurations for solving the problems of the present invention. Moreover, in each drawing, the same component is indicated by the same reference number to indicate the correspondence.

<第1の実施形態>
[システム構成]
図1は、本発明の一実施形態に係る眼科システムの概略構成を示す図である。眼科システムは、撮像装置100および情報処理装置200を含んで構成され、これらはネットワーク300を介して通信可能に接続される。
<First Embodiment>
[System configuration]
FIG. 1 is a diagram showing a schematic configuration of an ophthalmologic system according to one embodiment of the present invention. The ophthalmologic system includes an imaging device 100 and an information processing device 200, which are communicably connected via a network 300. FIG.

撮像装置100は、被検眼を対象とした画像を撮影するための撮影装置であり、例えば、OCT(Optical Coherence Tomography)装置やカメラにより構成される。OCT装置を用いて被検眼に対してOCT測定を実行することにより被検眼の断層像を取得する。また、カメラにより、被検眼の正面画像を撮影可能である。なお、撮像装置100にて撮影される画像の種類は特に限定するものではなく、ユーザの操作等に応じて、複数種類の画像が撮影されてよい。以下、撮像装置100にて撮影されて取得される各種画像をまとめて画像データとも称する。 The imaging device 100 is an imaging device for capturing an image of an eye to be examined, and is configured by, for example, an OCT (Optical Coherence Tomography) device and a camera. A tomographic image of the subject's eye is obtained by performing OCT measurement on the subject's eye using an OCT apparatus. In addition, a front image of the subject's eye can be captured by a camera. Note that the type of image captured by the imaging device 100 is not particularly limited, and a plurality of types of images may be captured according to the user's operation or the like. Hereinafter, various images captured and acquired by the imaging device 100 are also collectively referred to as image data.

撮像装置100は、撮像部101、画像処理部102、撮影制御部103、記憶部104、および通信部105を含んで構成される。撮像部101は、所定の撮影原理に基づいて、被検眼の撮影を行う。ここでは、被検眼の正面画像を撮影するカメラおよびOCT装置を用いるものとする。OCT装置の場合、撮影制御部103からの制御指示を受け、被検眼にOCTスキャンを適用してOCT画像を取得する。 The imaging apparatus 100 includes an imaging unit 101 , an image processing unit 102 , an imaging control unit 103 , a storage unit 104 and a communication unit 105 . The imaging unit 101 photographs an eye to be inspected based on a predetermined imaging principle. Here, it is assumed that a camera and an OCT apparatus for capturing a front image of the subject's eye are used. In the case of an OCT apparatus, an OCT image is acquired by applying an OCT scan to the subject's eye upon receiving a control instruction from the imaging control unit 103 .

OCT手法は、典型的にはフーリエドメインOCTであり、スペクトラルドメインOCT及びスウェプトソースOCTのいずれでもよい。スウェプトソースOCTは、波長可変光源からの光を測定光と参照光とに分割し、被検眼に投射された測定光の戻り光を参照光と重ね合わせて干渉光を生成する。そして、この干渉光を光検出器で検出し、波長の掃引及び測定光のスキャンに応じて収集された検出データ(干渉信号データ)にフーリエ変換等を施して反射強度プロファイルデータを形成する。一方、スペクトラルドメインOCTは、低コヒーレンス光源(広帯域光源)からの光を測定光と参照光とに分割し、被検眼に投射された測定光の戻り光を参照光と重ね合わせて干渉光を生成する。そして、この干渉光のスペクトル分布を分光器で検出し、分光器による検出データ(干渉信号データ)にフーリエ変換等を施して反射強度プロファイルデータを形成する。すなわち、スウェプトソースOCTはスペクトル分布を時分割で取得するOCT手法であり、スペクトラルドメインOCTはスペクトル分布を空間分割で取得するOCT手法である。 The OCT technique is typically Fourier-domain OCT, and may be either spectral-domain OCT or swept-source OCT. The swept source OCT splits the light from the wavelength tunable light source into measurement light and reference light, and superimposes the return light of the measurement light projected onto the eye to be inspected on the reference light to generate interference light. Then, the interference light is detected by a photodetector, and the detection data (interference signal data) collected according to the wavelength sweep and measurement light scanning is subjected to Fourier transform or the like to form reflection intensity profile data. On the other hand, in spectral domain OCT, light from a low coherence light source (broadband light source) is split into measurement light and reference light, and the return light of the measurement light projected onto the subject's eye is superimposed on the reference light to generate interference light. do. Then, the spectrum distribution of this interference light is detected by a spectroscope, and the data detected by the spectroscope (interference signal data) is subjected to Fourier transform or the like to form reflection intensity profile data. That is, the swept-source OCT is an OCT technique that acquires the spectral distribution by time division, and the spectral domain OCT is an OCT technique that acquires the spectral distribution by spatial division.

画像処理部102は、撮像部101にて取得された各種画像データに対して画像処理を行う。ここで行われる画像処理の内容は特に限定するものではなく、例えば、取得される画像データの種類に応じて予め規定されていてよい。撮影制御部103は、撮像部101による撮影動作を制御する。画像処理部102や撮影制御部103はそれぞれ、専用回路にて構成されてもよいし、撮像装置100が備える不図示のCPU(Central Processing Unit)などのプロセッサが記憶部104に記憶されたプログラムを読み出して実行することで実現されてもよい。 The image processing unit 102 performs image processing on various image data acquired by the imaging unit 101 . The content of the image processing performed here is not particularly limited, and may be defined in advance according to the type of image data to be acquired, for example. The imaging control unit 103 controls the imaging operation of the imaging unit 101 . The image processing unit 102 and the imaging control unit 103 may each be configured by a dedicated circuit, or a processor such as a CPU (Central Processing Unit) (not shown) included in the imaging apparatus 100 may execute a program stored in the storage unit 104. It may be realized by reading and executing.

記憶部104は、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)などにて構成され、撮像部101にて撮影された各種画像データを記憶する。記憶部104はその他、画像処理部102や撮影制御部103にて利用される撮影設定や、各種プログラムを記憶しておいてもよい。通信部105は、ネットワーク300を介して外部装置(例えば、情報処理装置200)との通信を司る。ここでの通信方法は、有線/無線を問わず、また、通信規格等も特に限定するものではない。 The storage unit 104 includes a RAM (Random Access Memory), ROM (Read Only Memory), HDD (Hard Disk Drive), SSD (Solid State Drive), etc., and stores various image data captured by the imaging unit 101. Remember. The storage unit 104 may also store shooting settings and various programs used by the image processing unit 102 and the shooting control unit 103 . The communication unit 105 manages communication with an external device (for example, the information processing device 200 ) via the network 300 . The communication method here may be wired or wireless, and the communication standard is not particularly limited.

情報処理装置200は、処理部201、記憶部202、通信部203、およびUI(User Interface)部204を含んで構成される。処理部201は、情報処理装置200全体の制御、処理を司り、CPUなどのプロセッサにより構成される。記憶部202は、RAM、ROM、HDD、SSDなどにて構成され、処理部201による処理にて用いられる各種設定や、各種処理のプログラム、または各種画像データを記憶する。通信部203は、ネットワーク300を介して外部装置(例えば、撮像装置100)との通信を司る。ここでの通信方法は、有線/無線を問わず、また、通信規格等も特に限定するものではない。UI部204は、情報処理装置200のユーザが利用するユーザインターフェースであり、例えば、ユーザ指示を入力するための操作部や、画面等を表示する表示部などを含んで構成される。操作部は、例えば、マウスやキーボードなどが用いられてよい。表示部は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)又は有機発光ダイオード(OLED:Organic Light-Emitting Diode)ディスプレイなどが用いられてよい。 The information processing apparatus 200 includes a processing unit 201 , a storage unit 202 , a communication unit 203 and a UI (User Interface) unit 204 . The processing unit 201 controls and processes the entire information processing apparatus 200, and is configured by a processor such as a CPU. The storage unit 202 includes a RAM, a ROM, an HDD, an SSD, and the like, and stores various settings used in processing by the processing unit 201, various processing programs, or various image data. A communication unit 203 manages communication with an external device (for example, the imaging device 100 ) via the network 300 . The communication method here may be wired or wireless, and the communication standard is not particularly limited. The UI unit 204 is a user interface used by the user of the information processing apparatus 200, and includes, for example, an operation unit for inputting user instructions and a display unit for displaying screens and the like. A mouse, a keyboard, or the like, for example, may be used as the operation unit. The display unit may be, for example, a liquid crystal display (LCD) or an organic light-emitting diode (OLED) display.

[機能構成]
図2は、本実施形態に係る情報処理装置200の機能構成の例を示すブロック図である。情報処理装置200は、画像取得部211、分類条件管理部212、分類条件設定部213、画像分類部214、画面生成部215、指示受付部216、および画像管理部217を含んで構成される。なお、情報処理装置200にて実現される機能のブロック構成は一例であり、後述する各処理に対応して更に詳細に分割されてもよい。本実施形態において、各機能は、情報処理装置200が備える処理部201が、記憶部202に記憶されたプログラムを読み出して実行されることで実現されてよい。なお、図2に示す機能の一部を撮像装置100側、もしくは、ネットワーク300上に設けられたサーバ(不図示)により実現されてもよい。
[Function configuration]
FIG. 2 is a block diagram showing an example of the functional configuration of the information processing device 200 according to this embodiment. The information processing apparatus 200 includes an image acquisition section 211 , a classification condition management section 212 , a classification condition setting section 213 , an image classification section 214 , a screen generation section 215 , an instruction reception section 216 and an image management section 217 . Note that the block configuration of the functions realized by the information processing apparatus 200 is an example, and may be further divided in detail corresponding to each process described later. In this embodiment, each function may be implemented by the processing unit 201 of the information processing apparatus 200 reading and executing a program stored in the storage unit 202 . Note that part of the functions shown in FIG. 2 may be realized by a server (not shown) provided on the imaging device 100 side or on the network 300 .

画像取得部211は、外部装置(ここでは、撮像装置100)から各種画像データを取得する。画像データを取得する際には、画像取得部211が定期的に撮像装置100に新たに撮影された画像データを問い合わせてもよいし、外部装置側から自動的に送信されてくる画像データを都度取得してもよい。 The image acquisition unit 211 acquires various image data from an external device (here, the imaging device 100). When acquiring image data, the image acquiring unit 211 may periodically inquire of the imaging device 100 about newly captured image data, or may acquire image data automatically transmitted from the external device each time. may be obtained.

分類条件管理部212は、画像取得部211にて取得した画像データを分類するための分類条件を管理する。本実施形態では、各画像データに対し、削除する/削除しない、の2分類の例を用いて説明する。分類条件設定部213は、分類条件管理部212にて管理される各種分類条件の設定を行う。分類条件の例については、後述する。 The classification condition management unit 212 manages classification conditions for classifying the image data acquired by the image acquisition unit 211 . This embodiment will be described using an example of two classifications of deletion/not deletion for each image data. The classification condition setting section 213 sets various classification conditions managed by the classification condition management section 212 . Examples of classification conditions will be described later.

画像分類部214は、画像取得部211にて取得した各画像データについて、分類条件管理部212にて管理されている分類条件を用いて分類を行う。本実施形態では、分類条件管理部212にて管理されている分類条件に基づいて、各画像データは、削除する、または、削除しない、のいずれかに分類される。ここでの分類は、例えば、フラグなどを用いて管理されてよい。画面生成部215は、画像分類部214にて分類された各画像データを分類結果と併せて表示するための画面を生成する。ここでの画面の構成例については、図4、図5を用いて後述する。指示受付部216は、画面生成部215にて生成された画面を介して入力された画像データに対する指示を受け付ける。具体的には、指示受付部216は、各画像データを実際に削除するか否かのユーザ指示を受け付ける。画像管理部217は、画像取得部211にて取得した画像データを管理し、指示受付部216にて受け付けた指示に基づき画像データの削除を実行する。画像管理部217は、各画像データと併せて分類結果などを対応付けて管理してよい。 The image classification unit 214 classifies each image data acquired by the image acquisition unit 211 using classification conditions managed by the classification condition management unit 212 . In this embodiment, each image data is classified as either deleted or not deleted based on the classification conditions managed by the classification condition management unit 212 . The classification here may be managed using flags or the like, for example. The screen generation unit 215 generates a screen for displaying each image data classified by the image classification unit 214 together with the classification result. A configuration example of the screen here will be described later with reference to FIGS. 4 and 5. FIG. Instruction accepting portion 216 accepts an instruction for image data input via the screen generated by screen generating portion 215 . Specifically, the instruction receiving unit 216 receives a user instruction as to whether or not to actually delete each image data. The image management unit 217 manages the image data acquired by the image acquisition unit 211 and deletes the image data based on the instruction received by the instruction reception unit 216 . The image management unit 217 may manage the classification results in association with each image data.

[分類条件]
本実施形態に係る画像データの分類条件について説明する。分類条件は、画像データの特性に応じて、画像を分類するための条件である。分類条件は、ユーザの指示に基づいて設定されてもよいし、システム側で任意の条件を設定してもよい。また、複数の分類条件が設定されてよい。また、ユーザが設定可能な分類条件については、ユーザが設定可能なパラメータの範囲や、選択可能な選択肢を規定しておいてもよい。
[Classification condition]
Image data classification conditions according to the present embodiment will be described. Classification conditions are conditions for classifying images according to the characteristics of image data. The classification conditions may be set based on the user's instructions, or arbitrary conditions may be set by the system. Also, a plurality of classification conditions may be set. Further, for the classification conditions that can be set by the user, the range of parameters that can be set by the user and the options that can be selected may be defined.

分類条件としては、例えば、以下のような項目に対する閾値を設定し、その値に応じて分類を決定してよい。
・画像データの輝度
・画像データのサイズ
・画像データの解像度
・画像データにおけるダイナミックレンジ
・撮影日時
・データ形式(拡張子等)
As the classification condition, for example, threshold values for the following items may be set, and the classification may be determined according to the value.
- Brightness of image data - Size of image data - Resolution of image data - Dynamic range of image data - Shooting date and time - Data format (extension, etc.)

また、分類条件は、画像データを解析して、抽出される画像データの特徴点やオブジェクトに基づいて設定されてもよい。例えば、以下の特徴点やオブジェクトの検出結果に応じて、分類が行われてよい。なお、以下に示す分類条件を適用するために、撮像装置100や情報処理装置200にて、画像処理が適時実行されてよい。
・被検眼における乳頭の形状やサイズ
・被検眼における血管の形状やサイズ
・被検眼の領域を示すエッジ
・連続する画像データの類似度
・解析できない特定画素(例えば、黒画素)の領域のサイズ
Further, the classification conditions may be set based on the feature points and objects of the image data extracted by analyzing the image data. For example, classification may be performed according to the following feature points and object detection results. In order to apply the classification conditions described below, the imaging device 100 and the information processing device 200 may perform image processing as appropriate.
・Shape and size of papilla in eye to be inspected ・Shape and size of blood vessel in eye to be inspected ・Edge indicating area of eye to be inspected ・Similarity of continuous image data

[処理フロー]
図3は、本実施形態に係る情報処理装置200の処理のフローチャートである。本処理は、例えば、情報処理装置200が備える処理部201が記憶部202に記憶された各種プログラムを読み出して実行することにより、図2に示す各機能部として動作することで実現される。ここでは、説明を簡単化するために、処理の主体を情報処理装置200として示すが、図2にて示したような各機能が連携して処理を実現する。
[Processing flow]
FIG. 3 is a flowchart of processing of the information processing apparatus 200 according to this embodiment. For example, the processing unit 201 provided in the information processing apparatus 200 reads and executes various programs stored in the storage unit 202, thereby operating as the functional units shown in FIG. Here, for the sake of simplification of explanation, the main body of processing is shown as the information processing apparatus 200, but each function as shown in FIG. 2 cooperates to realize the processing.

ステップS301にて、情報処理装置200は、撮像装置100にて撮影された各画像データを取得する。画像データは、未処理の画像データすべてを対象としてもよいし、ユーザから取得対象の画像データの指定を受け付けてもよい。 In step S<b>301 , the information processing apparatus 200 acquires each image data captured by the imaging apparatus 100 . The image data may be all unprocessed image data, or the user may designate image data to be acquired.

ステップS302にて、情報処理装置200は、管理している分類条件を参照する。ここで参照する分類条件は、例えば、画像データの種類に応じて切り替えられてもよいし、設定されている分類条件すべてを参照してもよい。 In step S302, the information processing apparatus 200 refers to managed classification conditions. The classification conditions referred to here may be switched according to, for example, the type of image data, or all set classification conditions may be referred to.

ステップS303にて、情報処理装置200は、ステップS301にて取得した各画像データに対して、ステップS302にて参照した分類条件を用いて分類処理を行う。このとき、分類条件の内容に応じて、各種画像処理が行われてもよい。画像処理の例としては、例えば、階調変換処理、画像強調処理、閾値処理、コントラスト変換処理、二値化処理、エッジ検出処理、画像平均化処理、画像平滑化処理、フィルタ処理、領域抽出処理、アライメント処理などが行われてよい。なお、画像処理は上記に限定するものではなく、後段の各処理を考慮してそのほかの処理が行われてよい。上述したように、本実施形態では、各画像データを、削除する/削除しない、のいずれかに分類する。 In step S303, the information processing apparatus 200 performs classification processing on each image data acquired in step S301 using the classification condition referred to in step S302. At this time, various image processing may be performed according to the contents of the classification conditions. Examples of image processing include tone conversion processing, image enhancement processing, threshold processing, contrast conversion processing, binarization processing, edge detection processing, image averaging processing, image smoothing processing, filtering processing, and region extraction processing. , alignment processing, and the like may be performed. Note that image processing is not limited to the above, and other processing may be performed in consideration of subsequent processing. As described above, in this embodiment, each image data is classified as either deleted or not deleted.

ステップS304にて、情報処理装置200は、ステップS303の分類処理の結果に応じて、表示画面を生成する。 In step S304, the information processing apparatus 200 generates a display screen according to the result of the classification processing in step S303.

ステップS305にて、情報処理装置200は、ステップS304にて生成された表示画面をUI部204の表示部に表示させる。ここでの表示は、情報処理装置200のユーザからの指示に基づいて表示されてよい。 In step S<b>305 , the information processing apparatus 200 causes the display unit of the UI unit 204 to display the display screen generated in step S<b>304 . The display here may be displayed based on an instruction from the user of the information processing device 200 .

ステップS306にて、情報処理装置200は、ステップS305にて生成された表示が画面を介して、実際に削除する、または、削除しない(すなわち、保存する)画像データのユーザ指示を受け付ける。 In step S306, the information processing apparatus 200 accepts a user instruction of image data to be actually deleted or not to be deleted (that is, to be saved) via the display screen generated in step S305.

ステップS307にて、情報処理装置200は、ステップS306にて受け付けたユーザ指示に基づき、各画像データの管理を行う。より具体的には、情報処理装置200は、ユーザ指示により削除すると指示された画像データは削除し、削除しないと指示された画像データは保存する。なお、画像データの保存場所については、予め設定された場所であってもよいし、ユーザにより個別に指定された場所であってもよい。そして、本処理フローを終了する。 In step S307, the information processing apparatus 200 manages each image data based on the user instruction received in step S306. More specifically, the information processing apparatus 200 deletes image data instructed to be deleted by a user instruction, and stores image data instructed not to be deleted. Note that the storage location of the image data may be a preset location or a location individually designated by the user. Then, this processing flow ends.

[表示画面]
図4、図5を用いて、図3のステップS304にて生成される表示画面の構成例を説明する。図4は、「削除する」と分類された画像データに着目して表示している際の画面構成の例を示し、図5は、「削除しない」と分類された画像データに着目して表示している際の画面構成の例を示す。
[Display screen]
A configuration example of the display screen generated in step S304 of FIG. 3 will be described with reference to FIGS. 4 and 5. FIG. FIG. 4 shows an example of the screen configuration when the image data classified as "delete" is focused on and displayed, and FIG. 5 shows the image data classified as "not deleted". An example of the screen configuration when

図4に示す表示画面400は、領域401、402、403、404の4つの領域に大きく分けられる。領域401は、着目している1の画像データ405を表示する。領域401には、着目している画像データ405の情報406が示される。ここでは、画像データ405は、「削除する」と分類されているため、その旨を示すアイコン407が画像データ405に重畳して表示される。なお、アイコン407の表示方法は一例であり、他の文字列や図形であってもよい。ユーザは、「削除する」を示すアイコン407の有無を指定することで、実際に着目している画像データを削除するか否かを指示することが可能となる。ここでの指定は、不図示のボタン(例えば、UI部204が備えるハードウェア上のキー)などを介して指示されてよい。本実施形態において、「削除する」と分類された場合には、アイコン407が自動的に表示され、「削除しない」と分類された場合には、アイコン407を表示しない。これにより、ユーザが個別に削除の可否について入力を行う必要が無くなる。なお、アイコン407の自動表示は逆であってもよい。 A display screen 400 shown in FIG. 4 is roughly divided into four areas 401 , 402 , 403 and 404 . A region 401 displays one image data 405 of interest. Information 406 of image data 405 of interest is shown in area 401 . Here, since the image data 405 is classified as “delete”, an icon 407 indicating this is superimposed on the image data 405 and displayed. Note that the display method of the icon 407 is an example, and other character strings or graphics may be used. By specifying the presence or absence of the icon 407 indicating "delete", the user can instruct whether or not to delete the image data of interest. The designation here may be given via a button (not shown) (for example, a key on hardware included in the UI unit 204). In this embodiment, the icon 407 is automatically displayed when classified as "delete", and the icon 407 is not displayed when classified as "not deleted". This eliminates the need for the user to individually input whether or not deletion is possible. Note that the automatic display of the icon 407 may be reversed.

領域402には、複数の画像データの一覧が表示される。一覧のうち、領域401にて着目している画像データ405に対応するサムネイルには、フレーム408が示される。また、アイコン407に対応するアイコン409が、一覧に含まれる各画像データのサムネイルに対応付けて表示される。 An area 402 displays a list of a plurality of image data. In the list, a frame 408 is shown in the thumbnail corresponding to the image data 405 of interest in the area 401 . Also, an icon 409 corresponding to the icon 407 is displayed in association with the thumbnail of each image data included in the list.

領域403には、領域402に表示されている複数の画像データに関する情報が示される。ここでは、複数の画像データ群に対して付与された識別情報(ここでは、「ID5」)、撮影モードの情報(ここでは、「無散瞳眼底」)、および撮影時刻が表示されている。なお、領域403にて表示させる情報の項目は特に限定されるものではなく、ユーザが設定してもよいし、撮影モードなどに応じて切り替えられてもよい。 A region 403 shows information about a plurality of image data displayed in the region 402 . Here, identification information (here, “ID5”) assigned to a plurality of image data groups, imaging mode information (here, “non-mydriatic fundus”), and imaging time are displayed. Note that items of information to be displayed in the area 403 are not particularly limited, and may be set by the user or may be switched according to the shooting mode or the like.

領域404には、複数の画像データに対する分類に関する情報が示される。ここでは、撮影モードの情報(ここでは、「無散瞳眼底」)、および撮影時刻に対応付けて、画像データの枚数のうち保存される画像データの数を示している。つまり、複数の画像データのうち、「削除しない」と分類された画像データの枚数が識別可能に示されており、図4の例では、全4枚の画像データのうち、2枚が保存する(すなわち、削除しない)と分類されている状態を示している。なお、領域404に表示させる情報の項目は特に限定されるものではなく、ユーザが設定してもよい。 A region 404 shows information relating to classification of a plurality of image data. Here, the number of pieces of image data to be saved out of the number of pieces of image data is shown in association with the photographing mode information (here, “non-mydriatic fundus”) and the photographing time. That is, among the plurality of image data, the number of image data classified as "not deleted" is identifiable. In the example of FIG. (that is, do not delete). The items of information to be displayed in the area 404 are not particularly limited, and may be set by the user.

図5に示す表示画面500は、図4に示した表示画面400と基本的な構成については同じであり、領域501、502、503、504の4つの領域に大きく分けられる。ここでは「削除しない」と分類された画像データ505に着目して表示している。図4に示した例とは異なり、画像データ505上には、「削除する」と分類されたアイコンは表示されない。情報506、カーソル507の構成も、図4と同様である。図4や図5に示した表示画面では不図示であるが、例えば、別途設けられた保存ボタンを押下することにより、削除すると分類された画像データは削除され、削除しないと分類された画像データは記憶部202に保存される。 A display screen 500 shown in FIG. 5 has the same basic configuration as the display screen 400 shown in FIG. Here, the image data 505 classified as "do not delete" is focused on and displayed. Unlike the example shown in FIG. 4, the icon classified as "delete" is not displayed on the image data 505. FIG. The configurations of information 506 and cursor 507 are also the same as in FIG. Although not shown in the display screens shown in FIGS. 4 and 5, for example, by pressing a separately provided save button, the image data classified as deleted is deleted, and the image data classified as not deleted is deleted. is stored in the storage unit 202 .

以上、本実施形態により、被検眼の診断に用いられる多量の画像データを自動的に分類し、ユーザが画像データの削除の可否を容易に決定可能となる。そのため、ユーザは、大量の画像データに対して個別に確認する作業を抑制することが可能となり、診断時の作業効率を向上させることが可能となる。 As described above, according to the present embodiment, a large amount of image data used for diagnosis of an eye to be examined can be automatically classified, and the user can easily decide whether or not to delete image data. Therefore, it is possible for the user to suppress the task of individually confirming a large amount of image data, and it is possible to improve the work efficiency at the time of diagnosis.

<第2の実施形態>
次に、本発明の第2の実施形態について説明する。上記の第1の実施形態では、予め設定された分類条件を用いて複数の画像データを分類する形態について説明した。本実施形態では、学習データを用いて学習処理を行うことにより得られる学習済みモデルを用いて、各画像データの分類を行う。なお、第1の実施形態と重複する構成については説明を省略し、差分に着目して説明を行う。
<Second embodiment>
Next, a second embodiment of the invention will be described. In the above-described first embodiment, a mode in which a plurality of image data are classified using preset classification conditions has been described. In this embodiment, each image data is classified using a trained model obtained by performing learning processing using learning data. The description of the configuration that overlaps with that of the first embodiment will be omitted, and the description will focus on the differences.

以下の説明において、「学習」または「機械学習」とは、学習データおよび任意の学習アルゴリズムを用いて学習を行うことにより、「学習済みモデル」を生成することを指す。学習済みモデルは、複数の学習データを用いて学習が進むことにより、適時更新され、同じ入力であってもその出力が変化し得る。したがって、学習済みモデルは、いずれの時点での状態であるかを限定するものではない。ここでは、学習にて用いられるモデルを「学習モデル」と記載し、一定程度の学習が行われた学習モデルを「学習済みモデル」と記載する。また、「学習データ」の具体的な例については後述するが、その構成は、利用する学習アルゴリズムに応じて変更されてよい。また、学習データには、学習そのものに用いられる教師データ、学習済みモデルの検証に用いられる検証データ、学習済みモデルのテストに用いられるテストデータを含んでよい。以下の説明では、学習に関するデータを包括的に示す場合は、「学習データ」と記載し、学習そのものを行う際のデータを示す場合は「教師データ」と記載する。なお、学習データに含まれる教師データ、検証データ、およびテストデータを明確に分類することを意図するものではなく、例えば、学習、検証、およびテストの方法によっては、学習データすべてが教師データにもなり得る。 In the following description, "learning" or "machine learning" refers to generating a "trained model" by performing learning using learning data and an arbitrary learning algorithm. A trained model is timely updated as learning progresses using a plurality of learning data, and even if the input is the same, the output may change. Therefore, the trained model does not limit the state at any point in time. Here, a model used in learning is described as a "learning model", and a learning model that has undergone a certain degree of learning is described as a "learned model". A specific example of the "learning data" will be described later, but its configuration may be changed according to the learning algorithm to be used. The learning data may include teacher data used for learning itself, verification data used for verifying the trained model, and test data used for testing the trained model. In the following description, the term "learning data" is used to refer to data related to learning in a comprehensive manner, and the term "teaching data" is used to refer to data for learning itself. It is not intended to clearly classify teacher data, validation data, and test data contained in learning data. can be.

[機能構成]
図6は、本実施形態に係る情報処理装置200の機能構成の例を示すブロック図である。情報処理装置200は、画像取得部601、学習処理部602、学習済みモデル管理部603、画像分類部604、画面生成部605、指示受付部606、画像管理部607、および履歴管理部608を含んで構成される。なお、情報処理装置200にて実現される機能のブロック構成は一例であり、後述する各処理に対応して更に詳細に分割されてもよい。本実施形態において、各機能は、情報処理装置200が備える処理部201が、記憶部202に記憶されたプログラムを読み出して実行されることで実現されてよい。なお、図2に示す機能の一部を撮像装置100側、もしくは、ネットワーク300上に設けられたサーバ(不図示)により実現されてもよい。特に、学習処理は処理負荷が高いため、学習用に設けられたサーバにて実行されてよい。
[Function configuration]
FIG. 6 is a block diagram showing an example of the functional configuration of the information processing device 200 according to this embodiment. The information processing apparatus 200 includes an image acquisition unit 601, a learning processing unit 602, a trained model management unit 603, an image classification unit 604, a screen generation unit 605, an instruction reception unit 606, an image management unit 607, and a history management unit 608. consists of Note that the block configuration of the functions realized by the information processing apparatus 200 is an example, and may be further divided in detail corresponding to each process described later. In this embodiment, each function may be implemented by the processing unit 201 of the information processing apparatus 200 reading and executing a program stored in the storage unit 202 . Note that part of the functions shown in FIG. 2 may be realized by a server (not shown) provided on the imaging device 100 side or on the network 300 . In particular, since the learning process has a high processing load, it may be executed by a server provided for learning.

画像取得部601は、外部装置(ここでは、撮像装置100)から各種画像データを取得する。画像データを取得する際には、画像取得部601が定期的に撮像装置100に新たに撮影された画像データを問い合わせてもよいし、外部装置側から自動的に送信されてくる画像データを都度取得してもよい。 The image acquisition unit 601 acquires various image data from an external device (here, the imaging device 100). When acquiring image data, the image acquiring unit 601 may periodically inquire of the imaging apparatus 100 about newly captured image data, or may acquire image data automatically transmitted from the external apparatus each time. may be obtained.

学習処理部602は、画像取得部601にて取得した画像データを分類するための学習済みモデルを生成するための学習処理を行う。所定の学習データを用いてディープラーニングを実行する学習プログラムが記憶部202にて保持される。学習処理を行うことで、すでに学習処理が行われることで生成されている学習済みモデルを更新することが可能となる。本実施形態において用いられる学習データは、画像データと、その画像データの分類結果を示す分類情報とが対応付けられている。本実施形態では、分類情報として、削除する/削除しない、の2分類を用いて説明する。本実施形態に係る学習済みモデルは、画像データと、分類情報との対からなる学習データを用いて学習が行われることで生成される学習済みモデルである。画像データを学習済みモデルに入力することで、その出力として画像データに対する分類情報(ここでは、削除する、または、削除しない)が出力される。本実施形態に係る学習処理では、この出力としての分類情報と、学習データにて示される分類情報とを比較してその差分に基づき学習済みモデルのパラメータを調整して、学習処理を繰り返すことで、学習済みモデルが更新される。ここでの調整には、例えば、逆誤差伝搬法などが用いられてよい。 A learning processing unit 602 performs learning processing for generating a trained model for classifying the image data acquired by the image acquisition unit 601 . A learning program for executing deep learning using predetermined learning data is held in the storage unit 202 . By performing the learning process, it is possible to update a trained model that has already been generated by performing the learning process. In the learning data used in this embodiment, image data is associated with classification information indicating classification results of the image data. This embodiment will be described using two classifications of deletion/not deletion as classification information. A trained model according to the present embodiment is a trained model generated by performing learning using learning data consisting of pairs of image data and classification information. By inputting the image data into the trained model, the classification information (here, delete or not delete) for the image data is output as the output. In the learning process according to the present embodiment, the classification information as the output is compared with the classification information indicated by the learning data, the parameters of the trained model are adjusted based on the difference, and the learning process is repeated. , the trained model is updated. For the adjustment here, for example, the back propagation method or the like may be used.

本実施の形態における学習処理は、例えば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を用いて行われる分類アルゴリズムが適用可能である。畳み込みニューラルネットワークは、複数の畳み込み層、複数のプーリング層、および複数の全結合層を含んでいる。なお、畳み込みニューラルネットワークの構成は上記に限定するものではなく、層数や構成が他の構成であってよい。また、他の学習アルゴリズムを用いてもよい。 For the learning process in this embodiment, for example, a classification algorithm that uses a convolutional neural network (CNN) can be applied. A convolutional neural network includes multiple convolutional layers, multiple pooling layers, and multiple fully connected layers. Note that the configuration of the convolutional neural network is not limited to the above, and the number of layers and configuration may be different. Also, other learning algorithms may be used.

学習済みモデル管理部603は、学習処理部602による学習処理の結果得られた学習済みモデルを管理する。学習済みモデル管理部603は、最新の学習済みモデルのみを管理するような構成であってもよいし、更新されるごとに新たな学習済みモデルを追加して管理するような構成であってもよい。また、学習済みモデル管理部603は、学習処理部602が学習処理を行う際のベースとなる学習モデルを提供するような構成であってもよい。 A trained model management unit 603 manages a trained model obtained as a result of learning processing by the learning processing unit 602 . The trained model management unit 603 may be configured to manage only the latest trained model, or may be configured to add and manage a new trained model each time it is updated. good. Also, the learned model management unit 603 may be configured to provide a learning model that serves as a base when the learning processing unit 602 performs learning processing.

画像分類部604は、画像取得部601にて取得した各画像データを入力として、学習済みモデル管理部603にて管理されている学習済みモデルを適用することで、分類を行う。本実施形態では、各画像データは、複数の分類のいずれかに分類されるが、ここでは、削除する、または、削除しない、のいずれかに分類される。 The image classification unit 604 classifies each image data acquired by the image acquisition unit 601 by applying a trained model managed by the trained model management unit 603 as input. In this embodiment, each image data is classified into one of a plurality of classifications, and here, it is classified as either deleted or not deleted.

画面生成部605は、画像分類部604にて分類された各画像データを分類結果と併せて表示するための画面を生成する。ここでの画面の構成例については、第1の実施形態にて説明した図4、図5の構成例と同様であってよい。指示受付部606は、画面生成部605にて生成された画面を介して入力された画像データに対する指示を受け付ける。具体的には、指示受付部606は、各画像データを実際に削除するか否かのユーザ指示を受け付ける。画像管理部607は、画像取得部601にて取得した画像データを管理し、指示受付部606にて受け付けた指示に基づき画像データの削除を実行する。画像管理部607は、各画像データと併せて分類結果などを対応付けて管理してよい。 A screen generation unit 605 generates a screen for displaying each image data classified by the image classification unit 604 together with the classification result. The configuration example of the screen here may be the same as the configuration examples of FIGS. 4 and 5 described in the first embodiment. An instruction accepting unit 606 accepts an instruction for image data input via the screen generated by the screen generating unit 605 . Specifically, the instruction receiving unit 606 receives a user instruction as to whether or not to actually delete each image data. An image management unit 607 manages the image data acquired by the image acquisition unit 601 and deletes the image data based on the instruction received by the instruction reception unit 606 . The image management unit 607 may manage classification results in association with each image data.

履歴管理部608は、画像管理部607による画像データの管理状況や、学習処理部602による画像データを用いた学習処理の状況を履歴情報として管理する。本実施形態では、画像データの分類を行った後に、ユーザに対してその分類結果を示している。さらに、実際に各画像データの扱い、すなわち、削除するか、保存するかの指示を受け付けている。これらの情報は、学習処理部602における学習処理の学習データとして利用可能であり、この学習データを用いて学習済みモデルを更新することで、よりユーザに適した分類が可能な学習済みモデルを生成することが可能となる。 A history management unit 608 manages the management status of image data by the image management unit 607 and the status of learning processing using image data by the learning processing unit 602 as history information. In this embodiment, after classifying the image data, the classification result is shown to the user. Furthermore, it receives instructions on how to actually handle each image data, that is, whether to delete or save it. These pieces of information can be used as learning data for learning processing in the learning processing unit 602. By updating the trained model using this learning data, a trained model capable of classifying more suitable for the user is generated. It becomes possible to

図7を用いて、本実施形態に係る履歴管理部608が管理する履歴情報のデータベース(DB)構成の例を示す。本実施形態に係る履歴情報DB700は、識別情報701、分類702、ユーザ指示703、学習処理利用704、および管理状態705の項目を含んで構成される。識別情報701は、画像データを一意に識別するための識別情報である。この識別情報は、情報処理装置200側で設定してもよいし、撮像装置100側で設定してもよい。画像データの識別情報の仕様(桁数や使用文字列など)も特に限定するものではない。分類702は、画像分類部604の処理の結果としての分類を示す。本例では、「削除」(画像データを削除するに分類)、または、「保存」(画像データを削除しないに分類)のいずれかが示される。 FIG. 7 shows an example of a history information database (DB) configuration managed by the history management unit 608 according to this embodiment. The history information DB 700 according to this embodiment includes items of identification information 701 , classification 702 , user instruction 703 , learning processing use 704 , and management status 705 . The identification information 701 is identification information for uniquely identifying image data. This identification information may be set on the information processing device 200 side, or may be set on the imaging device 100 side. The specification of the identification information of the image data (number of digits, character string used, etc.) is not particularly limited either. A classification 702 indicates the classification as a result of processing by the image classification unit 604 . In this example, either “delete” (classified as deleting image data) or “save” (classified as not deleting image data) is indicated.

ユーザ指示703は、表示画面を介して指示受付部606が受け付けたユーザ指示に基づく画像データの扱いを示す。本例では、「削除」(画像データを削除するように指示)、または、「保存」(画像データを削除しないように指示)のいずれかが示される。学習処理利用704は、画像データとユーザ指示(すなわち、ユーザ指示703にて示されるユーザに基づく画像データの実際の扱い)との対を学習データとして学習処理を行ったか否かを示す。本例では、利用済み(学習データとして用いた学習が実施済み)、または未利用(学習データとして用いた学習が未実施)のいずれかが示される。管理状態705は、画像データの管理状態を示す。本例では、「削除済み」、または、「未削除」のいずれかが示される。本実施形態において、ユーザ指示により「削除」が指定された場合、画像データは学習処理が行われた後に対象の画像データを削除する。なお、一定数の画像データが、学習処理待ちのために削除されずに保持された場合、ある上限値を限度として古い順に画像データを削除するような構成であってもよい。 A user instruction 703 indicates handling of image data based on a user instruction received by the instruction receiving unit 606 via the display screen. In this example, either “delete” (instruct to delete image data) or “save” (instruct not to delete image data) is displayed. The learning processing use 704 indicates whether or not learning processing is performed using pairs of image data and user instructions (that is, actual handling of image data based on the user indicated by the user instructions 703) as learning data. In this example, either "used" (learning using the learning data has been performed) or "unused" (learning using the learning data has not been performed) is indicated. A management state 705 indicates the management state of the image data. In this example, either "deleted" or "not deleted" is indicated. In this embodiment, when "delete" is designated by the user's instruction, the target image data is deleted after learning processing is performed on the image data. It should be noted that when a certain number of image data are held without being deleted due to waiting for learning processing, the image data may be deleted in the order of oldest within a certain upper limit.

なお、上述したように、本実施形態では、画像データを削除する/削除しない、の2分類に分けているが、更に多くの分類を用いる場合には、その分類に応じて学習データや履歴情報の構成を変更してよい。 As described above, in the present embodiment, the image data is divided into two categories, ie, deleted/not deleted. configuration can be changed.

[処理フロー]
図8は、本実施形態に係る情報処理装置200の処理のフローチャートである。本処理は、例えば、情報処理装置200が備える処理部201が記憶部202に記憶された各種プログラムを読み出して実行することにより、図6に示す各機能部として動作することで実現される。ここでは、説明を簡単化するために、処理の主体を情報処理装置200として示すが、図6にて示したような各機能が連携して処理を実現する。
[Processing flow]
FIG. 8 is a flowchart of processing of the information processing apparatus 200 according to this embodiment. For example, the processing unit 201 provided in the information processing apparatus 200 reads and executes various programs stored in the storage unit 202, thereby operating as each functional unit shown in FIG. Here, for the sake of simplification of explanation, the information processing apparatus 200 is shown as the subject of the processing, but each function as shown in FIG. 6 cooperates to realize the processing.

ステップS801にて、情報処理装置200は、撮像装置100にて撮影された各画像データを取得する。画像データは、未処理の画像データすべてを対象としてもよいし、ユーザから取得対象の画像データの指定を受け付けてもよい。 In step S<b>801 , the information processing apparatus 200 acquires each image data captured by the imaging apparatus 100 . The image data may be all unprocessed image data, or the user may designate image data to be acquired.

ステップS802にて、情報処理装置200は、管理している学習済みモデルを取得する。なお、本実施形態では、情報処理装置200が適時学習処理を行って学習済みモデルを更新する例を示したが、不図示の外部サーバなどにより学習処理を行う場合には、その外部サーバに最新の学習済みモデルを要求するような構成であってもよい。 In step S802, the information processing apparatus 200 acquires the managed trained model. In the present embodiment, an example in which the information processing apparatus 200 performs the learning process in a timely manner to update the learned model has been described. may be configured to request a trained model of .

ステップS803にて、情報処理装置200は、ステップS801にて取得した各画像データを入力として、ステップS802にて取得した学習済みモデルを適用することで分類処理を行う。このとき、画像データに対して各種画像処理が行われてもよい。画像処理の例としては、例えば、階調変換処理、画像強調処理、閾値処理、コントラスト変換処理、二値化処理、エッジ検出処理、画像平均化処理、画像平滑化処理、フィルタ処理、領域抽出処理、アライメント処理などが行われてよい。なお、画像処理は上記に限定するものではなく、後段の各処理を考慮してそのほかの処理が行われてよい。上述したように、本実施形態では、各画像データは、学習済みモデルにより削除する/削除しない、のいずれかに分類される。 In step S803, the information processing apparatus 200 receives each image data acquired in step S801 as an input and performs classification processing by applying the trained model acquired in step S802. At this time, various image processing may be performed on the image data. Examples of image processing include tone conversion processing, image enhancement processing, threshold processing, contrast conversion processing, binarization processing, edge detection processing, image averaging processing, image smoothing processing, filtering processing, and region extraction processing. , alignment processing, and the like may be performed. Note that image processing is not limited to the above, and other processing may be performed in consideration of subsequent processing. As described above, in the present embodiment, each piece of image data is classified as either deleted or not deleted by the learned model.

ステップS804にて、情報処理装置200は、ステップS803の分類処理の結果に応じて、表示画面を生成する。ここで生成される表示画面は、第1の実施形態にて示した図4や図5の構成と同様であってよい。 In step S804, the information processing apparatus 200 generates a display screen according to the result of the classification processing in step S803. The display screen generated here may have the same configuration as that shown in FIGS. 4 and 5 shown in the first embodiment.

ステップS805にて、情報処理装置200は、ステップS804にて生成された表示画面をUI部204の表示部に表示させる。ここでの表示は、情報処理装置200のユーザからの指示に基づいて表示されてよい。 In step S805, the information processing apparatus 200 causes the display unit of the UI unit 204 to display the display screen generated in step S804. The display here may be displayed based on an instruction from the user of the information processing device 200 .

ステップS806にて、情報処理装置200は、ステップS805にて生成された表示が画面を介して、実際に削除する、または、削除しない(すなわち、保存する)画像データのユーザ指示を受け付ける。 In step S806, the information processing apparatus 200 accepts a user instruction of image data to be actually deleted or not to be deleted (that is, to be saved) via the display screen generated in step S805.

ステップS807にて、情報処理装置200は、ステップS806にて受け付けたユーザ指示に基づき、各画像データの管理を行う。より具体的には、情報処理装置200は、削除しないと指示された画像データを保存する。ユーザ指示により削除すると指示された画像データについては、後段の学習処理が行われた結果に応じて削除を行うように管理される。なお、画像データの保存場所については、予め設定された場所であってもよいし、ユーザにより個別に指定された場所であってもよい。 In step S807, the information processing apparatus 200 manages each image data based on the user instruction received in step S806. More specifically, the information processing apparatus 200 saves the image data instructed not to be deleted. Image data instructed to be deleted by a user instruction is managed so as to be deleted in accordance with the results of subsequent learning processing. Note that the storage location of the image data may be a preset location or a location individually designated by the user.

ステップS808にて、情報処理装置200は、ステップS807の処理結果に基づき、履歴情報DB700を更新する。より具体的には、情報処理装置200は、画像データを履歴情報DB700に登録したり、処理結果に応じて、履歴情報DB700にて管理されている項目の値を更新したりする。 In step S808, the information processing apparatus 200 updates the history information DB 700 based on the processing result of step S807. More specifically, the information processing apparatus 200 registers image data in the history information DB 700, and updates the values of items managed in the history information DB 700 according to processing results.

ステップS809にて、情報処理装置200は、取得した画像データを学習データとして用いて学習処理を行い、学習済みモデルを更新するか否かを判定する。ここでの判定は、例えば、ユーザ指示に基づいて更新すると判定されてもよいし、学習データとして一定量の画像データが蓄積された際に更新すると判定されてもよい。また、所定のスケジュールに応じて更新すると判定されてもよい。学習済みモデルを更新すると判定した場合(ステップS809にてYES)、情報処理装置200の処理は、ステップS810へ進む。一方、学習済みモデルを更新しないと判定した場合(ステップS809にてNO)、情報処理装置200の処理は終了する。 In step S809, the information processing apparatus 200 performs learning processing using the acquired image data as learning data, and determines whether or not to update the learned model. In this determination, for example, it may be determined to update based on a user instruction, or it may be determined to update when a certain amount of image data is accumulated as learning data. Alternatively, it may be determined to update according to a predetermined schedule. If it is determined to update the trained model (YES in step S809), the processing of information processing apparatus 200 proceeds to step S810. On the other hand, if it is determined not to update the trained model (NO in step S809), the processing of the information processing apparatus 200 ends.

ステップS810にて、情報処理装置200は、蓄積した学習データを用いて学習処理を行う。なお、不図示の外部サーバなどにより学習処理を行う場合には、情報処理装置200は、その外部サーバに蓄積した学習データを提供し、その学習データに基づく学習処理を実行させて最新の学習済みモデルを要求するような構成であってもよい。さらに、情報処理装置200は、学習処理が完了した後、削除するとして分類された画像データを削除する。更に、情報処理装置200は、学習処理の結果に応じて、履歴情報DB700の内容を更新する。そして、本処理フローを終了する。 In step S810, the information processing apparatus 200 performs learning processing using the accumulated learning data. When learning processing is performed by an external server (not shown) or the like, the information processing apparatus 200 provides learning data accumulated in the external server, executes learning processing based on the learning data, and performs the latest learned processing. It may be configured to require a model. Furthermore, the information processing apparatus 200 deletes the image data classified as deleted after the learning process is completed. Furthermore, the information processing apparatus 200 updates the contents of the history information DB 700 according to the result of the learning process. Then, this processing flow ends.

以上、本実施形態により、分類条件に代えて学習済みモデルを用いることで、被検眼の診断に用いられる多量の画像データを分類し、ユーザが画像データの削除の可否を容易に決定可能となる。また、個別のユーザによる設定は不要となり、ユーザの指向に合わせて容易に画像データを分類することが可能となる。 As described above, according to the present embodiment, by using a trained model instead of a classification condition, a large amount of image data used for diagnosis of an eye to be examined can be classified, and the user can easily decide whether or not to delete image data. . In addition, individual users do not need to make settings, and it is possible to easily classify image data according to user preferences.

<その他の実施形態>
上記の実施形態では、画像データを、削除する/削除しない、の2分類に分ける例を示した。しかし、更に多くの分類を用いてもよい。例えば、削除する可能性が高い順に、3以上の分類を用いてもよい。また、複数の分類条件のうち、どの分類条件に当てはまるかに応じて、3以上の分類に分けてもよい。また、対象とする画像データの種類(例えば、撮影した部位や画像の特性)や、画像データの用途(例えば、診断する病気の種類)に応じて、分類の数を変更させてもよい。
<Other embodiments>
In the above embodiment, an example of dividing image data into two categories of deletion/not deletion has been shown. However, more classifications may be used. For example, three or more classifications may be used in descending order of probability of deletion. In addition, it may be divided into three or more classifications according to which of the plurality of classification conditions applies. Further, the number of classifications may be changed according to the type of target image data (for example, the imaged part or characteristics of the image) or the application of the image data (for example, the type of disease to be diagnosed).

本発明において、上述した1以上の実施形態の機能を実現するためのプログラムやアプリケーションを、ネットワーク又は記憶媒体等を用いてシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。 In the present invention, a program or application for realizing the functions of one or more embodiments described above is supplied to a system or device using a network or a storage medium, and one or more processors in the computer of the system or device can also be implemented by reading and executing the program.

なお、本明細書において「プロセッサ」は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(例えば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array))等の汎用または専用の回路を意味する。 In this specification, "processor" includes, for example, CPU (Central Processing Unit), GPU (Graphics Processing Unit), ASIC (Application Specific Integrated Circuit), programmable logic device (e.g., SPLD (Simple Programmable Logic Device), CPLD Device (Complex Programmable Logic Device), FPGA (Field Programmable Gate Array)) or other general-purpose or dedicated circuit.

また、上記に一例として示した方法だけでなく上記の装置を制御する制御方法をコンピュータに実行させるためのプログラムが提供される。このようなプログラムを、コンピュータによって読み取り可能な任意の記憶媒体に記憶させることができる。この記憶媒体としては、例えば、半導体メモリ、光ディスク、光磁気ディスク(CD-ROM/DVD-RAM/DVD-ROM/MO等)、磁気記憶媒体(ハードディスク/フロッピー(登録商標)ディスク/ZIP等)などを用いることが可能である。また、インターネットやLAN等のネットワークを通じてこのプログラムを送受信することも可能である。同様に、ネットワーク上に配置された処理部にて実行された処理結果や、制御指示に基づいて、装置の動作が制御されるような構成であってもよい。 Also provided is a program for causing a computer to execute not only the method shown as an example above but also the control method for controlling the above apparatus. Such a program can be stored in any computer-readable storage medium. Examples of such storage media include semiconductor memories, optical disks, magneto-optical disks (CD-ROM/DVD-RAM/DVD-ROM/MO, etc.), magnetic storage media (hard disks/floppy (registered trademark) disks/ZIP, etc.), and the like. can be used. It is also possible to transmit and receive this program through a network such as the Internet or LAN. Similarly, the configuration may be such that the operation of the device is controlled based on the result of processing executed by a processing unit arranged on a network or on the basis of a control instruction.

このように、本発明は上記の実施形態に限定されるものではなく、実施形態の各構成を相互に組み合わせることや、明細書の記載、並びに周知の技術に基づいて、当業者が任意の変更、応用、省略、追加することも本発明の予定するところであり、保護を求める範囲に含まれる。 As described above, the present invention is not limited to the above-described embodiments, but may be modified arbitrarily by those skilled in the art by combining each configuration of the embodiments with each other or based on the description of the specification and well-known technology. , adaptations, omissions, and additions are also contemplated by the present invention and fall within the scope of protection sought.

以上の通り、本明細書には次の事項が開示されている。
(1) 被検眼の1または複数の画像データを取得する取得部(例えば、画像取得部211)と、
前記1または複数の画像データを、削除の可能性を示す複数の分類のうちのいずれかに分類する分類部(例えば、画像分類部214)と、
前記分類部による分類の結果を対応付けて、前記1または複数の画像データそれぞれの削除の可否を受け付け可能に表示する表示部(例えば、画面生成部215)と、
を有することを特徴とする画像処理装置。
この構成によれば、被検眼の診断に用いられる多量の画像データを分類し、ユーザが画像データの削除の可否が容易に決定可能になる。
As described above, this specification discloses the following matters.
(1) an acquisition unit (for example, an image acquisition unit 211) that acquires one or more image data of an eye to be examined;
a classification unit (e.g., image classification unit 214) that classifies the one or more image data into one of a plurality of classifications indicating the possibility of deletion;
a display unit (for example, a screen generation unit 215) that associates the results of classification by the classification unit and displays in a manner capable of accepting deletion of each of the one or more image data;
An image processing device comprising:
According to this configuration, a large amount of image data used for diagnosis of an eye to be examined is classified, and the user can easily decide whether or not to delete image data.

(2) ユーザから前記複数の分類それぞれに対応する分類条件の設定を受け付ける設定部(例えば、分類条件設定部213)を更に有する、ことを特徴とする(1)に記載の画像処理装置。
この構成によれば、画像データを分類する際の分類条件をユーザが設定可能となる。
(2) The image processing apparatus according to (1), further comprising a setting unit (for example, the classification condition setting unit 213) that receives setting of classification conditions corresponding to each of the plurality of classifications from a user.
According to this configuration, the user can set the classification condition for classifying the image data.

(3) 前記分類条件は、輝度に対する閾値である、ことを特徴とする(2)に記載の画像処理装置。
この構成によれば、輝度に基づいて画像データを分類することが可能となる。
(3) The image processing apparatus according to (2), wherein the classification condition is a threshold for luminance.
With this configuration, it is possible to classify the image data based on the brightness.

(4) 前記分類条件は、所定のオブジェクトの有無である、ことを特徴とする(2)または(3)に記載の画像処理装置。
この構成によれば、画像データに含まれる所定のオブジェクトの有無に基づいて、画像データを分類することが可能となる。
(4) The image processing apparatus according to (2) or (3), wherein the classification condition is the presence or absence of a predetermined object.
According to this configuration, it is possible to classify the image data based on the presence or absence of a predetermined object included in the image data.

(5) 前記分類部は、画像データと前記複数の分類のうちのいずれかの分類との組み合わせを学習データとして学習処理が行われた学習済みモデルを用いて、画像データを前記学習済みモデルに入力した際に得られる分類を当該画像データの分類として決定する、ことを特徴とする(1)に記載の画像処理装置。
この構成によれば、学習済みモデルを用いて容易に画像データを分類することが可能となる。
(5) The classification unit converts the image data to the trained model using a trained model in which learning processing is performed using a combination of image data and one of the plurality of classifications as learning data. The image processing apparatus according to (1), characterized in that the classification obtained upon input is determined as the classification of the image data.
With this configuration, it is possible to easily classify image data using a trained model.

(6) 前記学習済みモデルは、前記表示部にて削除の可否を受け付けた画像データを前記学習データとして用いて前記学習処理が行われることにより、更新される、ことを特徴とする(5)に記載の画像処理装置。
この構成によれば、分類結果をユーザが確認し、その結果として指定した情報を用いて更に学習処理を行って学習済みモデルを更新することが可能となる。これにより、ユーザにより適した学習済みモデルを用いて画像データの分類が可能となる。
(6) The learned model is updated by performing the learning process using, as the learning data, the image data for which deletion permission/non-permission is accepted by the display unit (5) The image processing device according to .
According to this configuration, it is possible for the user to confirm the result of classification, and to update the learned model by performing further learning processing using the information specified as the result. This makes it possible to classify image data using a trained model that is more suitable for the user.

(7) 前記表示部は、前記1または複数の画像データそれぞれに対し、前記分類部による分類の結果に対応するアイコンを付して一覧表示する、ことを特徴とする(1)~(6)のいずれかに記載の画像処理装置。
この構成によれば、ユーザによる分類結果の視認性を向上させることが可能となる。
(7) The display unit displays a list of each of the one or more image data with an icon corresponding to the result of classification by the classification unit. The image processing device according to any one of .
According to this configuration, it is possible to improve the visibility of the classification result by the user.

(8) 前記複数の分類は、削除する、または、削除しない、の少なくとも2分類にて行われる、ことを特徴とする(1)~(7)のいずれかに記載の画像処理装置。
この構成によれば、ユーザは、削除対象となり得る画像データを容易に把握することが可能となる。
(8) The image processing apparatus according to any one of (1) to (7), wherein the plurality of classifications are performed by at least two classifications of deletion and non-deletion.
According to this configuration, the user can easily grasp the image data that can be deleted.

(9) 前記表示部にて受け付けた削除の可否に基づいて、画像データの記憶部への記憶処理を制御する画像管理部を更に有する、ことを特徴とする(1)~(8)のいずれかに記載の画像処理装置。
この構成によれば、分類結果をユーザが確認した上でのユーザの指示に基づいて、画像データを適切に管理することが可能となる。
(9) The image processing apparatus according to any one of (1) to (8), further comprising an image management unit that controls storage processing of image data in a storage unit based on whether or not deletion is permitted by the display unit. 1. The image processing device according to 1.
According to this configuration, the image data can be appropriately managed based on the user's instruction after confirming the classification result by the user.

(10) 被検眼の1または複数の画像データを取得する取得工程(例えば、ステップS301)と、
前記1または複数の画像データを、削除の可能性を示す複数の分類のうちのいずれかに分類する分類工程(例えば、ステップS302、ステップS303)と、
前記分類工程による分類の結果を対応付けて、前記1または複数の画像データそれぞれの削除の可否を受け付け可能に表示部に表示させる表示制御工程(例えば、ステップS304、ステップ305)と、
を有することを特徴とする画像処理方法。
この構成によれば、被検眼の診断に用いられる多量の画像データを分類し、ユーザが画像データの削除の可否が容易に決定可能になる。
(10) an acquisition step of acquiring one or more image data of the subject eye (for example, step S301);
a classification step of classifying the one or more image data into one of a plurality of classifications indicating the possibility of deletion (for example, steps S302 and S303);
a display control step (e.g., steps S304 and 305) of associating the results of classification by the classification step and displaying on a display unit an acceptability of deletion of each of the one or more image data;
An image processing method characterized by comprising:
According to this configuration, a large amount of image data used for diagnosis of an eye to be examined is classified, and the user can easily decide whether or not to delete image data.

(11) コンピュータ(例えば、情報処理装置200)に、
被検眼の1または複数の画像データを取得する取得工程(例えば、ステップS301)、
前記1または複数の画像データを、削除の可能性を示す複数の分類のうちのいずれかに分類する分類工程(例えば、ステップS302、ステップS303)、
前記分類工程による分類の結果を対応付けて、前記1または複数の画像データそれぞれの削除の可否を受け付け可能に表示部に表示させる表示制御工程(例えば、ステップS304、ステップS305)、
を実行させるためのプログラム。
この構成によれば、被検眼の診断に用いられる多量の画像データを分類し、ユーザが画像データの削除の可否が容易に決定可能になる。
(11) In a computer (for example, information processing device 200),
an acquisition step of acquiring one or more image data of the subject eye (for example, step S301);
a classification step of classifying the one or more image data into one of a plurality of classifications indicating the possibility of deletion (for example, steps S302 and S303);
a display control step (for example, steps S304 and S305) of causing a display unit to display, in association with the result of the classification by the classification step, the possibility of deletion of each of the one or more image data so as to be acceptable;
program to run the
According to this configuration, a large amount of image data used for diagnosis of an eye to be examined is classified, and the user can easily decide whether or not to delete image data.

100…撮像装置
101…撮像部
102…画像処理部
103…撮影制御部
104…記憶部
105…通信部
200…情報処理装置
201…処理部
202…記憶部
203…通信部
204…UI(User Interface)部
211…画像取得部
212…分類条件管理部
213…分類条件設定部
214…画像分類部
215…画面生成部
216…指示受付部
217…画像管理部
300…ネットワーク
DESCRIPTION OF SYMBOLS 100... Imaging device 101... Imaging part 102... Image processing part 103... Shooting control part 104... Storage part 105... Communication part 200... Information processing apparatus 201... Processing part 202... Storage part 203... Communication part 204... UI (User Interface) Unit 211 Image acquisition unit 212 Classification condition management unit 213 Classification condition setting unit 214 Image classification unit 215 Screen generation unit 216 Instruction reception unit 217 Image management unit 300 Network

Claims (11)

被検眼の1または複数の画像データを取得する取得部と、
前記1または複数の画像データを、削除の可能性を示す複数の分類のうちのいずれかに分類する分類部と、
前記分類部による分類の結果を対応付けて、前記1または複数の画像データそれぞれの削除の可否を受け付け可能に表示する表示部と、
を有することを特徴とする画像処理装置。
an acquisition unit that acquires one or more image data of an eye to be inspected;
a classification unit that classifies the one or more image data into one of a plurality of classifications indicating the possibility of deletion;
a display unit that associates the results of classification by the classification unit and displays whether or not deletion of each of the one or more image data can be accepted;
An image processing device comprising:
ユーザから前記複数の分類それぞれに対応する分類条件の設定を受け付ける設定部を更に有する、ことを特徴とする請求項1に記載の画像処理装置。 2. The image processing apparatus according to claim 1, further comprising a setting unit that receives setting of classification conditions corresponding to each of the plurality of classifications from a user. 前記分類条件は、輝度に対する閾値である、ことを特徴とする請求項2に記載の画像処理装置。 3. The image processing apparatus according to claim 2, wherein the classification condition is a threshold for luminance. 前記分類条件は、所定のオブジェクトの有無である、ことを特徴とする請求項2または3に記載の画像処理装置。 4. The image processing apparatus according to claim 2, wherein said classification condition is the presence or absence of a predetermined object. 前記分類部は、画像データと前記複数の分類のうちのいずれかの分類との組み合わせを学習データとして学習処理が行われた学習済みモデルを用いて、画像データを前記学習済みモデルに入力した際に得られる分類を当該画像データの分類として決定する、ことを特徴とする請求項1に記載の画像処理装置。 The classification unit uses a trained model in which learning processing is performed using a combination of image data and one of the plurality of classifications as learning data, and when image data is input to the trained model 2. The image processing apparatus according to claim 1, wherein the classification obtained in the above is determined as the classification of the image data. 前記学習済みモデルは、前記表示部にて削除の可否を受け付けた画像データを前記学習データとして用いて前記学習処理が行われることにより、更新される、ことを特徴とする請求項5に記載の画像処理装置。 6. The learned model according to claim 5, wherein the learned model is updated by performing the learning process using the image data for which deletion permission/non-permissibility is accepted by the display unit as the learning data. Image processing device. 前記表示部は、前記1または複数の画像データそれぞれに対し、前記分類部による分類の結果に対応するアイコンを付して一覧表示する、ことを特徴とする請求項1~6のいずれか一項に記載の画像処理装置。 7. The display unit displays a list of each of the one or more image data with an icon corresponding to the result of classification by the classification unit. The image processing device according to . 前記複数の分類は、削除する、または、削除しない、の少なくとも2分類にて行われる、ことを特徴とする請求項1~7のいずれか一項に記載の画像処理装置。 8. The image processing apparatus according to any one of claims 1 to 7, wherein said plurality of classifications are performed by at least two classifications of deletion and non-deletion. 前記表示部にて受け付けた削除の可否に基づいて、画像データの記憶部への記憶処理を制御する画像管理部を更に有する、ことを特徴とする請求項1~8のいずれか一項に記載の画像処理装置。 9. The method according to any one of claims 1 to 8, further comprising an image management unit that controls storage processing of image data in a storage unit based on permission/prohibition of deletion received by the display unit. image processing device. 被検眼の1または複数の画像データを取得する取得工程と、
前記1または複数の画像データを、削除の可能性を示す複数の分類のうちのいずれかに分類する分類工程と、
前記分類工程による分類の結果を対応付けて、前記1または複数の画像データそれぞれの削除の可否を受け付け可能に表示部に表示させる表示制御工程と、
を有することを特徴とする画像処理方法。
an acquisition step of acquiring one or more image data of an eye to be examined;
a classification step of classifying the one or more image data into one of a plurality of classifications indicating the possibility of deletion;
a display control step of associating the results of the classification by the classification step and displaying on a display unit in such a manner that whether or not deletion of each of the one or more image data can be accepted;
An image processing method characterized by comprising:
コンピュータに、
被検眼の1または複数の画像データを取得する取得工程、
前記1または複数の画像データを、削除の可能性を示す複数の分類のうちのいずれかに分類する分類工程、
前記分類工程による分類の結果を対応付けて、前記1または複数の画像データそれぞれの削除の可否を受け付け可能に表示部に表示させる表示制御工程、
を実行させるためのプログラム。
to the computer,
an acquisition step of acquiring one or more image data of the eye to be examined;
a classification step of classifying the one or more image data into one of a plurality of classifications indicating the possibility of deletion;
A display control step of associating the results of classification by the classification step and displaying on a display unit in a manner capable of accepting deletion of each of the one or more image data;
program to run the
JP2021135208A 2021-08-20 2021-08-20 Image processing device, image processing method, and program Pending JP2023029106A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021135208A JP2023029106A (en) 2021-08-20 2021-08-20 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021135208A JP2023029106A (en) 2021-08-20 2021-08-20 Image processing device, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2023029106A true JP2023029106A (en) 2023-03-03

Family

ID=85331860

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021135208A Pending JP2023029106A (en) 2021-08-20 2021-08-20 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2023029106A (en)

Similar Documents

Publication Publication Date Title
AU2014271202B2 (en) A system and method for remote medical diagnosis
JP4940069B2 (en) Fundus observation apparatus, fundus image processing apparatus, and program
Ram et al. A successive clutter-rejection-based approach for early detection of diabetic retinopathy
Niemeijer et al. Retinopathy online challenge: automatic detection of microaneurysms in digital color fundus photographs
Sánchez et al. Evaluation of a computer-aided diagnosis system for diabetic retinopathy screening on public data
KR101260722B1 (en) Skin state analyzing method, skin state analyzing device, and recording medium on which skin state analyzing program is recorded
KR101373935B1 (en) Ophthalmic apparatus, control method of an ophthalmic apparatus and computer readable storage medium
JP5148928B2 (en) Fundus examination apparatus and program
CN103356162B (en) Image processing equipment and image processing method
JP2016002380A (en) Image processing system, operation method for the same, and program
JP5442542B2 (en) Pathological diagnosis support device, pathological diagnosis support method, control program for pathological diagnosis support, and recording medium recording the control program
WO2016190200A1 (en) Visual field testing device
CN104042184A (en) Image Processing Device, Image Processing System, And Image Processing Method
US9113779B2 (en) Image processing apparatus, image processing method, and program recording medium
US20230140881A1 (en) Oct en face pathology segmentation using channel-coded slabs
JPWO2019172206A1 (en) Fundus image processing device and fundus image processing program
JP5474011B2 (en) Ophthalmic system, ophthalmic apparatus, tomographic image acquisition method, and program
Lazareva et al. Hessian-LoG filtering for enhancement and detection of photoreceptor cells in adaptive optics retinal images
JP2023029106A (en) Image processing device, image processing method, and program
JP5714083B2 (en) Ophthalmic apparatus, ophthalmic processing apparatus, ophthalmic system, tomographic image acquisition method, ophthalmic processing method, and program
WO2022074992A1 (en) Medical image processing device and method for operating same
WO2017149626A1 (en) Cancer analysis system and cancer analysis method
Barman et al. Image quality assessment
JP2018057828A (en) Image processing apparatus and image processing method
JP7037110B2 (en) Ophthalmology information processing program and ophthalmology information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240425