JP2022145732A - Medical image processing apparatus, medical image processing method, and program - Google Patents

Medical image processing apparatus, medical image processing method, and program Download PDF

Info

Publication number
JP2022145732A
JP2022145732A JP2022118982A JP2022118982A JP2022145732A JP 2022145732 A JP2022145732 A JP 2022145732A JP 2022118982 A JP2022118982 A JP 2022118982A JP 2022118982 A JP2022118982 A JP 2022118982A JP 2022145732 A JP2022145732 A JP 2022145732A
Authority
JP
Japan
Prior art keywords
image
quality
image quality
unit
engine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022118982A
Other languages
Japanese (ja)
Other versions
JP7434447B2 (en
Inventor
秀謙 溝部
Hidekane Mizobe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022118982A priority Critical patent/JP7434447B2/en
Publication of JP2022145732A publication Critical patent/JP2022145732A/en
Priority to JP2024018016A priority patent/JP2024045479A/en
Application granted granted Critical
Publication of JP7434447B2 publication Critical patent/JP7434447B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a medical image processing apparatus capable of generating an image more suitable for diagnostic imaging than a conventional one.
SOLUTION: The medical image processing apparatus comprises: an acquisition unit which acquires a first image that is an image of a predetermined portion of a subject; and an image quality improvement unit that uses an image quality improvement engine including a machine learning engine and generates from the first image a second image which noise-reduced or/and contrast-enhanced as compared with the first image.
SELECTED DRAWING: Figure 5
COPYRIGHT: (C)2023,JPO&INPIT

Description

本発明は、医用画像処理装置、医用画像処理方法及びプログラムに関する。 The present invention relates to a medical image processing apparatus, a medical image processing method, and a program.

医療分野においては、被検者の疾患を特定したり、疾患の程度を観察したりするために、様々な撮影装置によって画像が取得され、医療従事者による画像診断が行われている。撮影装置の種類には、例えば放射線科分野では、X線撮影装置、X線コンピュータ断層撮影(CT)装置、磁気共鳴イメージング(MRI)装置、陽電子放出断層撮影(PET)装置、及び単一光子放射断層撮影(SPECT)装置等がある。また、例えば眼科分野では、眼底カメラ、走査型レーザ検眼鏡(SLO)、光コヒーレンストモグラフィ(OCT)装置、及びOCTアンギオグラフィ(OCTA)装置がある。 2. Description of the Related Art In the medical field, in order to identify a disease of a subject and to observe the degree of the disease, images are acquired by various imaging devices and image diagnosis is performed by medical professionals. Types of imaging devices include, for example, in the field of radiology, X-ray imaging devices, X-ray computed tomography (CT) devices, magnetic resonance imaging (MRI) devices, positron emission tomography (PET) devices, and single photon emission devices. There is a tomography (SPECT) device and the like. Also, for example, in the field of ophthalmology, there are fundus cameras, scanning laser ophthalmoscopes (SLO), optical coherence tomography (OCT) devices, and OCT angiography (OCTA) devices.

画像診断を正確に行ったり、短時間で完了したりするためには、撮影装置によって取得される画像のノイズの少なさや解像度・空間分解能の高さ、適切な階調といった画質の高さが重要となる。また、観察したい部位や病変が強調されている画像も役に立つことがある。 In order to perform diagnostic imaging accurately and complete it in a short period of time, it is important to have high image quality, such as low noise, high resolution/spatial resolution, and appropriate gradation, in the images acquired by the imaging device. becomes. Images that highlight the area or lesion of interest may also be helpful.

しかしながら、多くの撮影装置においては、画質が高いなどの、画像診断に適した画像を取得するためになんらかの代償が必要である。例えば、画質が高い画像を取得するために高性能な撮影装置を購入する方法があるが、低性能なものよりも多くの投資が必要になる場合が多い。 However, in many imaging devices, some trade-off is required to obtain images suitable for diagnostic imaging, such as high image quality. For example, there is a method of purchasing a high-performance imaging device in order to acquire a high-quality image, but in many cases, a larger investment is required than a low-performance one.

また、例えばCTでは、ノイズが少ない画像を取得するために被検者の被曝線量を増やさなければならない場合がある。また、例えばMRIでは、観察したい部位が強調された画像を取得するために副作用のリスクがある造影剤を使用する場合がある。また、例えばOCTでは、撮影する領域が広かったり、高い空間分解能が必要であったりする場合には、撮影時間がより長くなる場合がある。また、例えば、一部の撮影装置では、画質が高い画像を取得するために複数回画像を取得する必要があり、その分撮影に時間がかかる。 In addition, for example, in CT, there are cases where the exposure dose of the subject must be increased in order to obtain an image with less noise. Further, for example, in MRI, there are cases where a contrast medium with a risk of side effects is used to obtain an image in which a site to be observed is emphasized. In addition, for example, in OCT, if the area to be imaged is wide or high spatial resolution is required, the imaging time may be longer. Further, for example, some photographing apparatuses need to obtain images multiple times in order to obtain an image with high image quality, which takes a long time to photograph.

特許文献1には、医用技術の急激な進歩や緊急時の簡易な撮影に対応するため、以前に取得した画像を、人工知能エンジンによって、より解像度の高い画像に変換する技術が開示されている。このような技術によれば、例えば、代償の少ない簡易な撮影によって取得された画像をより解像度の高い画像に変換することができる。 Patent Literature 1 discloses a technique for converting a previously acquired image into a higher-resolution image by an artificial intelligence engine in order to respond to rapid advances in medical technology and simple imaging in emergencies. . According to such a technique, for example, an image acquired by simple photography with little cost can be converted into an image with higher resolution.

特開2018-5841号公報JP 2018-5841 A

しかしながら、解像度の高い画像であっても、画像診断に適した画像とは言えない場合もある。例えば、解像度が高い画像であっても、ノイズが多い場合やコントラストが低い場合等には観察すべき対象が適切に把握できないことがある。 However, even a high-resolution image may not be suitable for diagnostic imaging. For example, even if the image has a high resolution, if there is a lot of noise or if the contrast is low, the object to be observed may not be properly grasped.

これに対し、本発明の目的の一つは、従来よりも画像診断に適した画像を生成することができる医用画像処理装置、医用画像処理方法及びプログラムを提供することである。 On the other hand, one of the objects of the present invention is to provide a medical image processing apparatus, a medical image processing method, and a program capable of generating images more suitable for image diagnosis than conventional ones.

本発明の一実施態様に係る医用画像処理装置は、被検者の所定部位の画像である第1の画像を取得する取得部と、機械学習エンジンを含む高画質化エンジンを用いて、前記第1の画像から、該第1の画像と比べてノイズ低減及びコントラスト強調のうちの少なくとも一つがなされた第2の画像を生成する高画質化部とを備える。 A medical image processing apparatus according to an embodiment of the present invention uses an acquisition unit that acquires a first image, which is an image of a predetermined region of a subject, and an image quality enhancement engine that includes a machine learning engine to obtain the first image. and an image quality enhancer for generating from the first image a second image having at least one of noise reduction and contrast enhancement as compared to the first image.

また、本発明の他の実施態様に係る医用画像処理方法は、被検者の所定部位の画像である第1の画像を取得することと、機械学習エンジンを含む高画質化エンジンを用いて、前記第1の画像から、該第1の画像と比べてノイズ低減及びコントラスト強調のうちの少なくとも一つがなされた第2の画像を生成することとを含む。 Further, a medical image processing method according to another embodiment of the present invention acquires a first image that is an image of a predetermined part of a subject, and uses an image quality enhancement engine including a machine learning engine to perform generating from the first image a second image having at least one of noise reduction and contrast enhancement relative to the first image.

本発明の一つによれば、従来よりも画像診断に適した画像を生成することができる。 According to one aspect of the present invention, it is possible to generate an image more suitable for image diagnosis than conventionally.

高画質化処理に関するニューラルネットワークの構成の一例を示す。An example of the configuration of a neural network for image quality enhancement processing is shown. 撮影箇所推定処理に関するニューラルネットワークの構成の一例を示す。1 shows an example of the configuration of a neural network relating to imaging location estimation processing. 画像の真贋評価処理に関するニューラルネットワークの構成の一例を示す。An example of the configuration of a neural network for image authenticity evaluation processing is shown. 第1の実施形態に係る画像処理装置の概略的な構成の一例を示す。1 shows an example of a schematic configuration of an image processing apparatus according to a first embodiment; 第1の実施形態に係る画像処理の流れの一例を示すフロー図である。4 is a flow chart showing an example of the flow of image processing according to the first embodiment; FIG. 第1の実施形態に係る画像処理の流れの別例を示すフロー図である。FIG. 7 is a flowchart showing another example of the flow of image processing according to the first embodiment; 第2の実施形態に係る画像処理の流れの一例を示すフロー図である。FIG. 11 is a flowchart showing an example of the flow of image processing according to the second embodiment; 第4の実施形態に係る画像処理を説明するための図である。FIG. 12 is a diagram for explaining image processing according to the fourth embodiment; FIG. 第4の実施形態に係る高画質化処理の流れの一例を示すフロー図である。FIG. 14 is a flow diagram showing an example of the flow of image quality improvement processing according to the fourth embodiment; 第5の実施形態に係る画像処理を説明するための図である。FIG. 12 is a diagram for explaining image processing according to the fifth embodiment; FIG. 第5の実施形態に係る高画質化処理の流れの一例を示すフロー図である。FIG. 14 is a flow diagram showing an example of the flow of image quality improvement processing according to the fifth embodiment; 第6の実施形態に係る画像処理を説明するための図である。FIG. 12 is a diagram for explaining image processing according to the sixth embodiment; FIG. 第6の実施形態に係る高画質化処理の流れの一例を示すフロー図である。FIG. 20 is a flow diagram showing an example of the flow of image quality improvement processing according to the sixth embodiment; 第6の実施形態に係る画像処理を説明するための図である。FIG. 12 is a diagram for explaining image processing according to the sixth embodiment; FIG. 第7の実施形態に係る画像処理装置の概略的な構成の一例を示す。FIG. 11 shows an example of a schematic configuration of an image processing apparatus according to a seventh embodiment; FIG. 第7の実施形態に係る画像処理の流れの一例を示すフロー図である。FIG. 14 is a flow diagram showing an example of the flow of image processing according to the seventh embodiment; 第7の実施形態に係るユーザーインターフェースの一例を示す。11 shows an example of a user interface according to the seventh embodiment; 第9の実施形態に係る画像処理装置の概略的な構成の一例を示す。FIG. 11 shows an example of a schematic configuration of an image processing apparatus according to a ninth embodiment; FIG. 第9の実施形態に係る画像処理の流れの一例を示すフロー図である。FIG. 22 is a flow diagram showing an example of the flow of image processing according to the ninth embodiment; 第12の実施形態に係る画像処理装置の概略的な構成の一例を示す。12 shows an example of a schematic configuration of an image processing apparatus according to a twelfth embodiment; 第13の実施形態に係る高画質化処理の流れの一例を示すフロー図である。FIG. 22 is a flow diagram showing an example of the flow of image quality improvement processing according to the thirteenth embodiment; 第13の実施形態に係る高画質化処理の流れの別例を示すフロー図である。FIG. 17 is a flowchart showing another example of the flow of image quality improvement processing according to the thirteenth embodiment; 第17の実施形態に係る画像処理装置の概略的な構成の一例を示す。FIG. 11 shows an example of a schematic configuration of an image processing apparatus according to a seventeenth embodiment; FIG. 第17の実施形態に係る画像処理の流れの一例を示すフロー図である。FIG. 22 is a flow diagram showing an example of the flow of image processing according to the seventeenth embodiment;

以下、本発明を実施するための例示的な実施形態を、図面を参照して詳細に説明する。ただし、以下の実施形態で説明する寸法、材料、形状、及び構成要素の相対的な位置等は任意であり、本発明が適用される装置の構成又は様々な条件に応じて変更できる。また、図面において、同一であるか又は機能的に類似している要素を示すために図面間で同じ参照符号を用いる。 Exemplary embodiments for carrying out the present invention will now be described in detail with reference to the drawings. However, the dimensions, materials, shapes, relative positions of components, etc. described in the following embodiments are arbitrary and can be changed according to the configuration of the device to which the present invention is applied or various conditions. Also, the same reference numbers are used in the drawings to indicate identical or functionally similar elements.

<用語の説明>
まず、本明細書において用いられる用語について説明する。
<Description of terms>
First, the terms used in this specification will be explained.

本明細書におけるネットワークでは、各装置は有線又は無線の回線で接続されてよい。ここで、ネットワークにおける各装置を接続する回線は、例えば、専用回線、ローカルエリアネットワーク(以下、LANと表記)回線、無線LAN回線、インターネット回線、Wi-Fi(登録商標)、及びBluetooth(登録商標)等を含む。 In the network herein, each device may be connected by wired or wireless links. Here, the lines connecting each device in the network are, for example, dedicated lines, local area network (hereinafter referred to as LAN) lines, wireless LAN lines, Internet lines, Wi-Fi (registered trademark), and Bluetooth (registered trademark). ) etc.

医用画像処理装置は、相互に通信が可能な2以上の装置によって構成されてもよいし、単一の装置によって構成されてもよい。また、医用画像処理装置の各構成要素は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等のプロセッサーによって実行されるソフトウェアモジュールにより構成されてよい。また、当該各構成要素は、ASIC等の特定の機能を果たす回路等によって構成されてもよい。また、他の任意のハードウェアと任意のソフトウェアとの組み合わせにより構成されてもよい。 A medical image processing apparatus may be composed of two or more devices capable of communicating with each other, or may be composed of a single device. Also, each component of the medical image processing apparatus may be configured by a software module executed by a processor such as a CPU (Central Processing Unit) or MPU (Micro Processing Unit). Also, each component may be configured by a circuit or the like that performs a specific function, such as an ASIC. Also, it may be configured by a combination of any other hardware and any software.

また、下記実施形態による医用画像処理装置又は医用画像処理方法によって処理される医用画像は、任意のモダリティ(撮影装置、撮影方法)を用いて取得された画像を含む。処理される医用画像は、任意の撮影装置等で取得された医用画像や下記実施形態による医用画像処理装置又は医用画像処理方法によって作成された画像を含むことができる。 Further, medical images processed by a medical image processing apparatus or a medical image processing method according to the following embodiments include images acquired using any modality (imaging device, imaging method). Medical images to be processed can include medical images acquired by any imaging device or the like and images created by a medical image processing apparatus or a medical image processing method according to the following embodiments.

さらに、処理される医用画像は、被検者の所定部位の画像であり、所定部位の画像は被検者の所定部位の少なくとも一部を含む。また、当該医用画像は、被検者の他の部位を含んでもよい。また、医用画像は、静止画像又は動画像であってよく、白黒画像又はカラー画像であってもよい。さらに医用画像は、所定部位の構造(形態)を表す画像でもよいし、その機能を表す画像でもよい。機能を表す画像は、例えば、OCTA画像、ドップラーOCT画像、fMRI画像、及び超音波ドップラー画像等の血流動態(血流量、血流速度等)を表す画像を含む。なお、被検者の所定部位は、撮影対象に応じて決定されてよく、人眼(被検眼)、脳、肺、腸、心臓、すい臓、腎臓、及び肝臓等の臓器、頭部、胸部、脚部、並びに腕部等の任意の部位を含む。 Furthermore, the medical image to be processed is an image of a predetermined region of the subject, and the image of the predetermined region includes at least part of the predetermined region of the subject. Also, the medical image may include other parts of the subject. Also, the medical image may be a still image or a moving image, and may be a black-and-white image or a color image. Further, the medical image may be an image representing the structure (morphology) of a predetermined site, or an image representing its function. Images representing functions include, for example, images representing blood flow dynamics (blood flow, blood flow velocity, etc.) such as OCTA images, Doppler OCT images, fMRI images, and ultrasound Doppler images. In addition, the predetermined part of the subject may be determined according to the object to be imaged. Includes optional parts such as legs and arms.

また、医用画像は、被検者の断層画像であってもよいし、正面画像であってもよい。正面画像は、例えば、眼底正面画像や、前眼部の正面画像、蛍光撮影された眼底画像、OCTで取得したデータについて撮影対象の深さ方向における少なくとも一部の範囲のデータを用いて生成したEn-Face画像を含む。 Further, the medical image may be a tomographic image or a front image of the subject. The front image is generated using, for example, the front image of the fundus, the front image of the anterior segment, the fundus image obtained by fluorescence imaging, and the data of at least a part of the range in the depth direction of the imaging target for the data acquired by OCT. Contains En-Face images.

また、撮影装置とは、診断に用いられる画像を撮影するための装置である。撮影装置は、例えば、被検者の所定部位に光、X線等の放射線、電磁波、又は超音波等を照射することにより所定部位の画像を得る装置や、被写体から放出される放射線を検出することにより所定部位の画像を得る装置を含む。より具体的には、以下の実施形態に係る撮影装置は、少なくとも、X線撮影装置、CT装置、MRI装置、PET装置、SPECT装置、SLO装置、OCT装置、OCTA装置、眼底カメラ、及び内視鏡等を含む。 Also, the imaging device is a device for capturing an image used for diagnosis. The imaging device is, for example, a device that obtains an image of a predetermined portion of a subject by irradiating the predetermined portion of the subject with radiation such as light, X-rays, electromagnetic waves, or ultrasonic waves, or detects radiation emitted from the subject. It includes a device for obtaining an image of a predetermined site by means of More specifically, the imaging apparatus according to the following embodiments includes at least an X-ray imaging apparatus, a CT apparatus, an MRI apparatus, a PET apparatus, a SPECT apparatus, an SLO apparatus, an OCT apparatus, an OCTA apparatus, a fundus camera, and an endoscope. Including mirrors, etc.

なお、OCT装置としては、タイムドメインOCT(TD-OCT)装置やフーリエドメインOCT(FD-OCT)装置を含んでよい。また、フーリエドメインOCT装置はスペクトラルドメインOCT(SD-OCT)装置や波長掃引型OCT(SS-OCT)装置を含んでよい。また、SLO装置やOCT装置として、波面補償光学系を用いた波面補償SLO(AO-SLO)装置や波面補償OCT(AO-OCT)装置等を含んでよい。 The OCT apparatus may include a time domain OCT (TD-OCT) apparatus and a Fourier domain OCT (FD-OCT) apparatus. Fourier-domain OCT devices may also include spectral-domain OCT (SD-OCT) devices and wavelength-swept OCT (SS-OCT) devices. Further, the SLO device and the OCT device may include a wavefront compensation SLO (AO-SLO) device and a wavefront compensation OCT (AO-OCT) device using a wavefront compensation optical system.

画像管理システムは、撮影装置によって撮影された画像や画像処理された画像を受信して保存する装置及びシステムである。また、画像管理システムは、接続された装置の要求に応じて画像を送信したり、保存された画像に対して画像処理を行ったり、画像処理の要求を他の装置に要求したりすることができる。画像管理システムとしては、例えば、画像保存通信システム(PACS)を含むことができる。特に、下記実施形態に係る画像管理システムは、受信した画像とともに関連付けられた被検者の情報や撮影時間などの各種情報も保存可能なデータベースを備える。また、画像管理システムはネットワークに接続され、他の装置からの要求に応じて、画像を送受信したり、画像を変換したり、保存した画像に関連付けられた各種情報を送受信したりすることができる。 An image management system is a device and system that receives and stores images captured by an image capturing device and images that have undergone image processing. In addition, the image management system can transmit images in response to requests from connected devices, perform image processing on stored images, and request other devices to perform image processing. can. The image management system can include, for example, a picture archival communication system (PACS). In particular, the image management system according to the embodiment described below includes a database capable of storing various types of information such as subject information and imaging time associated with received images. Also, the image management system is connected to a network and can send and receive images, convert images, and send and receive various information associated with saved images in response to requests from other devices. .

撮影条件とは、撮影装置によって取得された画像の撮影時の様々な情報である。撮影条件は、例えば、撮影装置に関する情報、撮影が実施された施設に関する情報、撮影に係る検査の情報、撮影者に関する情報、及び被検者に関する情報等を含む。また、撮影条件は、例えば、撮影日時、撮影部位名、撮影領域、撮影画角、撮影方式、画像の解像度や階調、画像サイズ、適用された画像フィルタ、画像のデータ形式に関する情報、及び放射線量に関する情報等を含む。なお、撮影領域には、特定の撮影部位からずれた周辺の領域や複数の撮影部位を含んだ領域等が含まれることができる。 The shooting conditions are various information at the time of shooting the image acquired by the shooting device. The imaging conditions include, for example, information about the imaging device, information about the facility where the imaging was performed, information about the examination related to imaging, information about the photographer, and information about the subject. Imaging conditions include, for example, imaging date and time, imaging site name, imaging area, imaging angle of view, imaging method, image resolution and gradation, image size, applied image filter, information on image data format, and radiation Including information on quantity, etc. Note that the imaging region can include a peripheral region shifted from a specific imaging region, a region including a plurality of imaging regions, and the like.

撮影条件は、画像を構成するデータ構造中に保存されていたり、画像とは別の撮影条件データとして保存されていたり、撮影装置に関連するデータベースや画像管理システムに保存されたりすることができる。そのため、撮影条件は、撮影装置の撮影条件の保存手段に対応した手順により取得することができる。具体的には、撮影条件は、例えば、撮影装置が出力した画像のデータ構造を解析したり、画像に対応する撮影条件データを取得したり、撮影装置に関連するデータベースから撮影条件を取得するためのインターフェースにアクセスする等により取得される。 The imaging conditions can be stored in the data structure that constitutes the image, stored as imaging condition data separate from the image, or stored in a database or image management system associated with the imaging device. Therefore, the imaging conditions can be acquired by a procedure corresponding to the storage means of the imaging conditions of the imaging device. Specifically, the imaging conditions are used, for example, to analyze the data structure of an image output by the imaging device, to acquire imaging condition data corresponding to the image, or to acquire the imaging conditions from a database related to the imaging device. It is obtained by accessing the interface of

なお、撮影装置によっては、保存されていない等の理由で取得できない撮影条件も存在する。例えば、撮影装置に特定の撮影条件を取得したり保存したりする機能が無い、又はそのような機能が無効にされている場合である。また、例えば、撮影装置や撮影に関係の無い撮影条件であるとして保存しないようになっている場合もある。さらに、例えば、撮影条件が隠蔽されていたり、暗号化されていたり、権利が無いと取得できないようになっていたりする場合等もある。ただし、保存されていない撮影条件であっても取得できる場合がある。例えば、画像解析を実施することによって、撮影部位名や撮影領域を特定することができる。 Depending on the imaging device, there are imaging conditions that cannot be obtained because they are not saved. For example, if the imaging device does not have the ability to acquire or store specific imaging conditions, or if such a function is disabled. Further, for example, there are cases in which the photographing conditions are not stored because they are unrelated to the photographing device or photographing. Furthermore, for example, there are cases where the shooting conditions are hidden, encrypted, or cannot be obtained without the right. However, there are cases where even shooting conditions that have not been saved can be acquired. For example, by performing image analysis, it is possible to specify the imaging site name and imaging region.

機械学習モデルとは、任意の機械学習アルゴリズムに対して、事前に適切な教師データ(学習データ)を用いてトレーニング(学習)を行ったモデルである。教師データは、一つ以上の、入力データと出力データとのペア群で構成される。なお、教師データを構成するペア群の入力データと出力データの形式や組み合わせは、一方が画像で他方が数値であったり、一方が複数の画像群で構成され他方が文字列であったり、双方が画像であったりする等、所望の構成に適したものであってよい。 A machine learning model is a model that has been trained (learned) in advance using appropriate teacher data (learning data) for any machine learning algorithm. The teacher data consists of one or more pairs of input data and output data. The format and combination of the input data and the output data of the paired group that constitutes the training data may be one of which is an image and the other is a numerical value, or one is composed of a plurality of image groups and the other is a character string, or both. may be suitable for a desired configuration, such as an image.

具体的には、例えば、OCTによって取得された画像と、該画像に対応する撮影部位ラベルとのペア群によって構成された教師データ(以下、第1の教師データ)が挙げられる。なお、撮影部位ラベルは部位を表すユニークな数値や文字列である。また、その他の教師データの例として、OCTの通常撮影によって取得されたノイズの多い低画質画像と、OCTにより複数回撮影して高画質化処理した高画質画像とのペア群によって構成されている教師データ(以下、第2の教師データ)等が挙げられる。 Specifically, for example, teacher data (hereinafter referred to as first teacher data) configured by a pair group of an image obtained by OCT and an imaging site label corresponding to the image can be used. Note that the imaging region label is a unique numerical value or character string representing the region. Another example of training data is a pair group of a low-quality image with a lot of noise obtained by normal OCT imaging and a high-quality image that has been imaged multiple times by OCT and processed to improve the image quality. Teacher data (hereinafter referred to as second teacher data) and the like can be mentioned.

機械学習モデルに入力データを入力すると、該機械学習モデルの設計に従った出力データが出力される。機械学習モデルは、例えば、教師データを用いてトレーニングされた傾向に従って、入力データに対応する可能性の高い出力データを出力する。また、機械学習モデルは、例えば、教師データを用いてトレーニングされた傾向に従って、出力データの種類のそれぞれについて、入力データに対応する可能性を数値として出力する等を行うことができる。具体的には、例えば、第1の教師データでトレーニングされた機械学習モデルにOCTによって取得された画像を入力すると、機械学習モデルは、該画像に撮影されている撮影部位の撮影部位ラベルを出力したり、撮影部位ラベル毎の確率を出力したりする。また、例えば、第2の教師データでトレーニングされた機械学習モデルにOCTの通常撮影によって取得されたノイズの多い低画質画像を入力すると、機械学習モデルは、OCTにより複数回撮影して高画質化処理された画像相当の高画質画像を出力する。なお、機械学習モデルについては、品質保持の観点から、自身が出力した出力データを教師データとして用いないように構成することができる。 When input data is input to a machine learning model, output data according to the design of the machine learning model is output. A machine learning model outputs output data that is likely to correspond to the input data, for example, according to trends trained using teacher data. In addition, the machine learning model can, for example, output the possibility of corresponding to the input data as a numerical value for each type of output data according to the tendency trained using the teacher data. Specifically, for example, when an image acquired by OCT is input to a machine learning model trained with the first teacher data, the machine learning model outputs the imaging part label of the imaging part photographed in the image. or output the probability for each imaging site label. In addition, for example, when a low-quality image with a lot of noise obtained by normal OCT imaging is input to the machine learning model trained with the second teacher data, the machine learning model is imaged multiple times by OCT to improve the image quality. A high-quality image equivalent to the processed image is output. From the viewpoint of maintaining quality, the machine learning model can be configured not to use its own output data as teacher data.

また、機械学習アルゴリズムは、畳み込みニューラルネットワーク(CNN)等のディープラーニングに関する手法を含む。ディープラーニングに関する手法においては、ニューラルネットワークを構成する層群やノード群に対するパラメータの設定が異なると、教師データを用いてトレーニングされた傾向を出力データに再現可能な程度が異なる場合がある。例えば、第1の教師データを用いたディープラーニングの機械学習モデルにおいては、より適切なパラメータが設定されていると、正しい撮影部位ラベルを出力する確率がより高くなる場合がある。また、例えば、第2の教師データを用いたディープラーニングの機械学習モデルにおいては、より適切なパラメータが設定されていると、より高画質な画像を出力できる場合がある。 Machine learning algorithms also include deep learning techniques such as convolutional neural networks (CNN). In methods related to deep learning, different parameter settings for layers and nodes that make up a neural network may result in different degrees of reproducibility in output data of tendencies trained using teacher data. For example, in a deep learning machine learning model using the first teacher data, setting more appropriate parameters may increase the probability of outputting a correct imaging region label. Further, for example, in a deep learning machine learning model using the second teacher data, if more appropriate parameters are set, it may be possible to output a higher quality image.

具体的には、CNNにおけるパラメータは、例えば、畳み込み層に対して設定される、フィルタのカーネルサイズ、フィルタの数、ストライドの値、及びダイレーションの値、並びに全結合層の出力するノードの数等を含むことができる。なお、パラメータ群やトレーニングのエポック数は、教師データに基づいて、機械学習モデルの利用形態に好ましい値に設定することができる。例えば、教師データに基づいて、正しい撮影部位ラベルをより高い確率で出力したり、より高画質な画像を出力したりできるパラメータ群やエポック数を設定することができる。 Specifically, the parameters in the CNN are, for example, the kernel size of the filter, the number of filters, the value of the stride, the value of the dilation, and the number of nodes output by the fully connected layer, which are set for the convolution layer etc. Note that the parameter group and the number of training epochs can be set to values that are preferable for the form of use of the machine learning model based on teacher data. For example, based on teacher data, it is possible to set a parameter group and the number of epochs that can output a correct imaging site label with a higher probability or output an image with higher image quality.

このようなパラメータ群やエポック数の決定方法の一つを例示する。まず、教師データを構成するペア群の7割をトレーニング用とし、残りの3割を評価用としてランダムに設定する。次に、トレーニング用のペア群を用いて機械学習モデルのトレーニングを行い、トレーニングの各エポックの終了時に、評価用のペア群を用いてトレーニング評価値を算出する。トレーニング評価値とは、例えば、各ペアを構成する入力データをトレーニング中の機械学習モデルに入力したときの出力と、入力データに対応する出力データとを損失関数によって評価した値群の平均値である。最後に、最もトレーニング評価値が小さくなったときのパラメータ群及びエポック数を、当該機械学習モデルのパラメータ群やエポック数として決定する。なお、このように、教師データを構成するペア群をトレーニング用と評価用とに分けてエポック数の決定を行うことによって、機械学習モデルがトレーニング用のペア群に対して過学習してしまうことを防ぐことができる。 One method for determining such a parameter group and the number of epochs will be exemplified. First, 70% of the pairs constituting the teacher data are randomly set for training and the remaining 30% for evaluation. Next, the training pair group is used to train the machine learning model, and at the end of each epoch of training, the evaluation pair group is used to calculate a training evaluation value. The training evaluation value is, for example, the average value of a group of values obtained by evaluating the output when inputting each pair of input data into the machine learning model under training and the output data corresponding to the input data using a loss function. be. Finally, the parameter group and epoch number when the training evaluation value is the smallest are determined as the parameter group and epoch number of the machine learning model. It should be noted that the machine learning model may overfit the pair group for training by dividing the pairs constituting the training data into those for training and those for evaluation and determining the number of epochs in this way. can be prevented.

高画質化エンジンとは、入力された低画質画像を高画質化した高画質画像を出力するモジュールのことである。ここで、本明細書における高画質化とは、入力された画像を画像診断により適した画質の画像に変換することをいい、高画質画像とは、画像診断により適した画質の画像に変換された画像をいう。また、低画質画像とは、例えば、X線撮影、CT、MRI、OCT、PET、若しくはSPECT等により取得された二次元画像や三次元画像、又は連続撮影したCTの三次元動画像等の特に高画質になるような設定をされずに撮影されたものである。具体的には、低画質画像は、例えば、X線撮影装置やCTによる低線量での撮影や、造影剤を使用しないMRIによる撮影、OCTの短時間撮影等によって取得される画像、及び少ない撮影回数で取得されたOCTA画像等を含む。 The image quality enhancement engine is a module that outputs a high quality image obtained by enhancing the image quality of an input low quality image. Here, the term “improvement in image quality” as used herein refers to conversion of an input image into an image having a quality more suitable for image diagnosis. image. In addition, a low-quality image is, for example, a two-dimensional image or a three-dimensional image obtained by X-ray imaging, CT, MRI, OCT, PET, or SPECT, or a three-dimensional moving image of continuous CT. It was taken without any settings for high image quality. Specifically, low-quality images include, for example, low-dose imaging by X-ray imaging equipment or CT, imaging by MRI that does not use a contrast agent, images acquired by short-time imaging of OCT, etc., and low-dose imaging. Including OCTA images etc. acquired at the number of times.

また、画像診断に適した画質の内容は、各種の画像診断で何を診断したいのかということに依存する。そのため一概には言えないが、例えば、画像診断に適した画質は、ノイズが少なかったり、高コントラストであったり、撮影対象を観察しやすい色や階調で示していたり、画像サイズが大きかったり、高解像度であったりする画質を含む。また、画像生成の過程で描画されてしまった実際には存在しないオブジェクトやグラデーションが画像から除去されているような画質を含むことができる。 Further, the content of image quality suitable for image diagnosis depends on what is desired to be diagnosed in various image diagnoses. For this reason, it cannot be said unconditionally, but for example, the image quality suitable for image diagnosis has little noise, high contrast, shows the object to be photographed in colors and gradations that are easy to observe, has a large image size, etc. Includes image quality, which may be high resolution. In addition, it is possible to include an image quality in which non-existent objects and gradations that have been drawn in the process of image generation are removed from the image.

また、ノイズが少なかったり、高コントラストであったりする高画質画像を、OCTA等の画像の血管解析処理や、CTやOCT等の画像の領域セグメンテーション処理等の画像解析に利用すると、低画質画像を利用するよりも精度よく解析が行えることが多い。そのため、高画質化エンジンによって出力された高画質画像は、画像診断だけでなく、画像解析にも有用である場合がある。 In addition, if high-quality images with little noise or high contrast are used for image analysis such as blood vessel analysis processing of images such as OCTA, and region segmentation processing of images such as CT and OCT, low-quality images can be used. In many cases, analysis can be performed with higher accuracy than using it. Therefore, the high-quality image output by the image quality enhancement engine may be useful not only for image diagnosis but also for image analysis.

下記の実施形態における高画質化手法を構成する画像処理手法では、ディープラーニング等の各種機械学習アルゴリズムを用いた処理を行う。なお、当該画像処理手法では、機械学習アルゴリズムを用いた処理に加えて、各種画像フィルタ処理、類似画像に対応する高画質画像のデータベースを用いたマッチング処理、及び知識ベース画像処理等の既存の任意の処理を行ってもよい。 In the image processing method constituting the image quality improvement method in the following embodiments, processing using various machine learning algorithms such as deep learning is performed. In addition to processing using machine learning algorithms, this image processing method includes various image filter processing, matching processing using a database of high-quality images corresponding to similar images, and existing arbitrary image processing such as knowledge-based image processing. may be processed.

特に、二次元画像を高画質化するCNNの構成例として、図1に示す構成がある。当該CNNの構成には、複数の畳み込み処理ブロック100群が含まれる。畳み込み処理ブロック100は、畳み込み(Convolution)層101と、バッチ正規化(Batch Normalization)層102と、正規化線形関数(Rectifier Linear Unit)を用いた活性化層103とを含む。また、当該CNNの構成には、合成(Merger)層104と、最後の畳み込み層105が含まれる。合成層104は、畳み込み処理ブロック100の出力値群と画像を構成する画素値群とを連結したり、加算したりして合成する。最後の畳み込み層105は、合成層104で合成された、高画質画像Im120を構成する画素値群を出力する。このような構成では、入力された画像Im110を構成する画素値群が畳み込み処理ブロック100群を経て出力された値群と、入力された画像Im110を構成する画素値群とが、合成層104で合成される。その後、合成された画素値群は最後の畳み込み層105で高画質画像Im120に成形される。 In particular, there is a configuration shown in FIG. 1 as a configuration example of a CNN that enhances the image quality of a two-dimensional image. The configuration of the CNN includes multiple convolution processing blocks 100 . The convolution processing block 100 includes a convolution layer 101, a batch normalization layer 102, and an activation layer 103 using a rectifier linear unit. The configuration of the CNN also includes a Merger layer 104 and a final convolutional layer 105 . The synthesizing layer 104 synthesizes by connecting or adding the output value group of the convolution processing block 100 and the pixel value group constituting the image. The final convolutional layer 105 outputs a group of pixel values that make up the high-quality image Im120 synthesized in the synthesis layer 104 . In such a configuration, the value group output from the pixel value group forming the input image Im110 through the convolution processing block 100 group and the pixel value group forming the input image Im110 are combined in the synthesis layer 104. synthesized. The combined pixel values are then shaped in a final convolutional layer 105 into a high quality image Im120.

なお、例えば、畳み込み処理ブロック100の数を16とし、畳み込み層101群のパラメータとして、フィルタのカーネルサイズを幅3画素、高さ3画素、フィルタの数を64とすることで、一定の高画質化の効果を得られる。しかしながら、実際には上記の機械学習モデルの説明において述べた通り、機械学習モデルの利用形態に応じた教師データを用いて、より良いパラメータ群を設定することができる。なお、三次元画像や四次元画像を処理する必要がある場合には、フィルタのカーネルサイズを三次元や四次元に拡張してもよい。 Note that, for example, the number of convolution processing blocks 100 is 16, and the filter kernel size is 3 pixels wide, 3 pixels high, and the number of filters is 64 as parameters of the convolutional layer 101 group. You can get the effect of transformation. However, in practice, as described in the explanation of the machine learning model above, it is possible to set a better parameter group using teacher data according to the usage form of the machine learning model. Note that if it is necessary to process a three-dimensional image or a four-dimensional image, the kernel size of the filter may be extended to three or four dimensions.

なお、CNNを用いた画像処理等、一部の画像処理手法を利用する場合には画像サイズについて注意する必要がある。具体的には、高画質画像の周辺部が十分に高画質化されない問題等の対策のため、入力する低画質画像と出力する高画質画像とで異なる画像サイズを要する場合があることに留意すべきである。 Note that when using some image processing methods such as image processing using CNN, it is necessary to pay attention to the image size. Specifically, it should be noted that different image sizes may be required for the input low-quality image and the output high-quality image in order to deal with the problem that the peripheral part of the high-quality image is not sufficiently high-quality. should.

明瞭な説明のため、後述の実施形態において明記はしないが、高画質化エンジンに入力される画像と出力される画像とで異なる画像サイズを要する高画質化エンジンを採用した場合には、適宜画像サイズを調整しているものとする。具体的には、機械学習モデルをトレーニングするための教師データに用いる画像や、高画質化エンジンに入力される画像といった入力画像に対して、パディングを行ったり、該入力画像の周辺の撮影領域を結合したりして、画像サイズを調整する。なお、パディングを行う領域は、効果的に高画質化できるように高画質化手法の特性に合わせて、一定の画素値で埋めたり、近傍画素値で埋めたり、ミラーパディングしたりする。 For the sake of clarity, it will not be specified in the embodiments described later, but if an image quality enhancement engine that requires different image sizes for an image input to the image quality enhancement engine and an image output from the image quality enhancement engine is adopted, the Assume that the size is adjusted. Specifically, for input images such as images used as teacher data for training machine learning models and images input to the image quality improvement engine, padding is performed, and the shooting area around the input image is adjusted. Combine and adjust the image size. Note that the area to be padded is filled with a constant pixel value, filled with neighboring pixel values, or mirror-padding in accordance with the characteristics of the image quality improvement method so as to effectively improve the image quality.

また、高画質化手法は、一つの画像処理手法だけで実施されることもあるし、二つ以上の画像処理手法を組み合わせて実施されることもある。また、複数の高画質化手法群を並列に実施し、複数の高画質画像群を生成した上で、最も高画質な高画質画像を最終的に高画質画像として選択することもある。なお、最も高画質な高画質画像の選択は、画質評価指数を用いて自動的行われてもよいし、任意の表示部等に備えられたユーザーインターフェースに複数の高画質画像群を表示して、検者(ユーザー)の指示に応じて行われてもよい。 Also, the image quality improvement method may be implemented by only one image processing method, or may be implemented by combining two or more image processing methods. Alternatively, a plurality of image quality improvement method groups may be performed in parallel to generate a plurality of high quality image groups, and then the highest quality image may be finally selected as the high quality image. The selection of the high-quality image with the highest image quality may be performed automatically using the image quality evaluation index, or a plurality of high-quality image groups may be displayed on a user interface provided on an arbitrary display unit. , may be performed according to the instructions of the examiner (user).

なお、高画質化していない入力画像の方が、画像診断に適している場合もあるので、最終的な画像の選択の対象には入力画像を加えてよい。また、高画質化エンジンに対して、低画質画像とともにパラメータを入力してもよい。高画質化エンジンに対して、入力画像とともに、例えば、高画質化を行う程度を指定するパラメータや、画像処理手法に用いられる画像フィルタサイズを指定するパラメータを入力してもよい。 In some cases, an input image whose image quality has not been enhanced is more suitable for image diagnosis, so the input image may be added to the final selection of images. Also, a parameter may be input to the high image quality engine together with the low image quality image. For example, a parameter designating the degree of image quality improvement or a parameter designating the image filter size used in the image processing technique may be input together with the input image to the image quality improvement engine.

撮影箇所推定エンジンとは、入力された画像の撮影部位や撮影領域を推定するモジュールのことである。撮影箇所推定エンジンは、入力された画像に描画されている撮影部位や撮影領域がどこであるか、又は必要な詳細レベルの撮影部位ラベルや撮影領域ラベル毎に、該撮影部位や撮影領域である確率を出力することができる。 The imaging location estimation engine is a module for estimating the imaging part and imaging area of the input image. The imaging location estimation engine determines where the imaging location or imaging region drawn in the input image is, or determines the probability of being the imaging location or imaging region for each imaging location label or imaging region label with a required level of detail. can be output.

撮影部位や撮影領域は、撮影装置によっては撮影条件として保存していない、又は撮影装置が取得できず保存できていない場合がある。また、撮影部位や撮影領域が保存されていても、必要な詳細レベルの撮影部位や撮影領域が保存されていない場合もある。例えば、撮影部位として“後眼部”と保存されているだけで、詳細には“黄斑部”なのか、“視神経乳頭部”なのか、又は、“黄斑部及び視神経乳頭部”なのか、“その他”なのかが分からないことがある。また、別の例では、撮影部位として“乳房”と保存されているだけで、詳細には“右乳房”なのか、“左乳房”なのか、又は、“両方”なのかが分からないことがある。そのため、撮影箇所推定エンジンを用いることで、これらの場合に入力画像の撮影部位や撮影領域を推定することができる。 Depending on the imaging device, the imaging site and imaging region may not be stored as imaging conditions, or may not be stored because the imaging device cannot acquire them. Further, even if the imaging parts and imaging regions are stored, there are cases where the imaging parts and imaging regions with the required level of detail are not stored. For example, only "posterior segment of the eye" is stored as an imaging region, but in detail, is it "macula", "optical papilla", or "macula and optic papilla"? Sometimes I don't know if it's "other". In another example, only "breast" is stored as the imaged region, but in detail, it is not known whether it is "right breast", "left breast", or "both". be. Therefore, by using the imaging location estimation engine, it is possible to estimate the imaging part and imaging area of the input image in these cases.

撮影箇所推定エンジンの推定手法を構成する画像及びデータ処理手法では、ディープラーニング等の各種機械学習アルゴリズムを用いた処理を行う。なお、当該画像及びデータ処理手法では、機械学習アルゴリズムを用いた処理に加えて又は代えて、自然言語処理、類似画像及び類似データのデータベースを用いたマッチング処理、知識ベース処理等の既存の任意の推定処理を行ってもよい。なお、機械学習アルゴリズムを用いて構築した機械学習モデルをトレーニングする教師データは、撮影部位や撮影領域のラベルが付けられた画像とすることができる。この場合には、教師データの画像を入力データ、撮影部位や撮影領域のラベルを出力データとする。 The image and data processing method that constitutes the estimation method of the shooting location estimation engine performs processing using various machine learning algorithms such as deep learning. In the image and data processing method, in addition to or instead of processing using machine learning algorithms, any existing arbitrary processing such as natural language processing, matching processing using a database of similar images and similar data, knowledge base processing, etc. An estimation process may be performed. The training data for training a machine learning model constructed using a machine learning algorithm can be images labeled with imaging sites and imaging regions. In this case, the image of the teacher data is used as input data, and the labels of the imaging parts and imaging regions are used as output data.

特に、二次元画像の撮影箇所を推定するCNNの構成例として、図2に示す構成がある。当該CNNの構成には、畳み込み層201とバッチ正規化層202と正規化線形関数を用いた活性化層203とで構成された複数の畳み込み処理ブロック200群が含まれる。また、当該CNNの構成には、最後の畳み込み層204と、全結合(Full Connection)層205と、出力層206が含まれる。全結合層205は畳み込み処理ブロック200の出力値群を全結合する。また、出力層206は、Softmax関数を利用して、入力画像Im210に対する、想定される撮影部位ラベル毎の確率を推定結果(Result)207として出力する。このような構成では、例えば、入力画像Im210が“黄斑部”を撮影した画像であれば、“黄斑部に対応する撮影部位ラベルについて最も高い確率が出力される。 In particular, there is a configuration shown in FIG. 2 as a configuration example of a CNN for estimating a shooting location of a two-dimensional image. The configuration of the CNN includes a group of convolution processing blocks 200 composed of a convolution layer 201, a batch normalization layer 202, and an activation layer 203 using a normalization linear function. The configuration of the CNN also includes a final convolution layer 204 , a full connection layer 205 and an output layer 206 . A fully connected layer 205 fully connects the output values of the convolution processing block 200 . In addition, the output layer 206 uses the Softmax function to output the probability for each assumed imaging site label for the input image Im 210 as an estimation result (Result) 207 . In such a configuration, for example, if the input image Im210 is an image obtained by imaging the "macula", the highest probability is output for the imaging site label corresponding to the "macula.

なお、例えば、畳み込み処理ブロック200の数を16、畳み込み層201群のパラメータとして、フィルタのカーネルサイズを幅3画素、高さ3画素、フィルタの数を64とすることで、一定の精度で撮影部位を推定することができる。しかしながら、実際には上記の機械学習モデルの説明において述べた通り、機械学習モデルの利用形態に応じた教師データを用いて、より良いパラメータ群を設定することができる。なお、三次元画像や四次元画像を処理する必要がある場合には、フィルタのカーネルサイズを三次元や四次元に拡張してもよい。なお、推定手法は、一つの画像及びデータ処理手法だけで実施されることもあるし、二つ以上の画像及びデータ処理手法を組み合わせて実施されることもある。 Note that, for example, the number of convolution processing blocks 200 is 16, the filter kernel size is 3 pixels wide, 3 pixels high, and the number of filters is 64 as parameters of the convolutional layer 201 group. The site can be estimated. However, in practice, as described in the explanation of the machine learning model above, it is possible to set a better parameter group using teacher data according to the usage form of the machine learning model. Note that if it is necessary to process a three-dimensional image or a four-dimensional image, the kernel size of the filter may be extended to three or four dimensions. Note that the estimation technique may be implemented using only one image and data processing technique, or may be implemented using a combination of two or more image and data processing techniques.

画質評価エンジンとは、入力された画像に対する画質評価指数を出力するモジュールのことである。画質評価指数を算出する画質評価処理手法では、ディープラーニング等の各種機械学習アルゴリズムを用いた処理を行う。なお、当該画質評価処理手法では、画像ノイズ計測アルゴリズム、及び類似画像や基底画像に対応する画質評価指数のデータベースを用いたマッチング処理等の既存の任意の評価処理を行ってもよい。なお、これらの評価処理は、機械学習アルゴリズムを用いた処理に加えて又は代えて行われてよい。 An image quality evaluation engine is a module that outputs an image quality evaluation index for an input image. The image quality evaluation processing method for calculating the image quality evaluation index performs processing using various machine learning algorithms such as deep learning. In the image quality evaluation processing method, any existing evaluation processing such as matching processing using an image noise measurement algorithm and a database of image quality evaluation indexes corresponding to similar images and base images may be performed. Note that these evaluation processes may be performed in addition to or instead of the process using the machine learning algorithm.

例えば、画質評価指数は機械学習アルゴリズムを用いて構築した機械学習モデルより得ることができる。この場合、機械学習モデルをトレーニングする教師データを構成するペアの入力データは、事前に様々な撮影条件によって撮影された低画質画像群と高画質画像群とで構成される画像群である。また、機械学習モデルをトレーニングする教師データを構成するペアの出力データは、例えば、画像診断を行う検者が入力データの画像群のそれぞれについて設定した画質評価指数群である。 For example, the image quality evaluation index can be obtained from a machine learning model constructed using a machine learning algorithm. In this case, the pair of input data constituting teacher data for training the machine learning model is an image group composed of a low-quality image group and a high-quality image group captured in advance under various shooting conditions. A pair of output data constituting teacher data for training a machine learning model is, for example, an image quality evaluation index group set for each image group of input data by an examiner who performs image diagnosis.

本発明の説明における真贋評価エンジンとは、入力された画像の描画を評価して、対象の撮影装置によって撮影され取得された画像か否かを、ある程度の精度で評価するモジュールである。真贋評価処理手法では、ディープラーニング等の各種機械学習アルゴリズムを用いた処理を行う。なお、真贋評価処理手法では、機械学習アルゴリズムを用いた処理に加えて又は代えて、知識ベース処理等の既存の任意の評価処理を行ってもよい。 The authenticity evaluation engine in the description of the present invention is a module that evaluates the rendering of an input image and evaluates with a certain degree of accuracy whether or not the image was captured and acquired by the target imaging device. The authenticity evaluation processing method performs processing using various machine learning algorithms such as deep learning. In the authenticity evaluation processing method, any existing evaluation processing such as knowledge base processing may be performed in addition to or instead of the processing using the machine learning algorithm.

例えば、真贋評価処理は機械学習アルゴリズムを用いて構築した機械学習モデルにより実施することができる。まず、機械学習モデルの教師データについて説明する。教師データには、事前に様々な撮影条件によって撮影された高画質画像群と対象の撮影装置によって撮影され取得されたことを表すラベル(以下、真作ラベル)とのペア群が含まれる。また、教師データには、高画質化エンジン(第1レベルの高画質化エンジン)に低画質画像を入力して生成した高画質画像群と対象の撮影装置によって撮影され取得されていないことを表すラベル(以下、贋作ラベル)とのペア群が含まれる。このような教師データを用いてトレーニングした機械学習モデルは、第1レベルの高画質化エンジンが生成する高画質画像が入力されると贋作ラベルを出力する。 For example, the authenticity evaluation process can be implemented by a machine learning model constructed using a machine learning algorithm. First, the teacher data of the machine learning model will be explained. The training data includes a group of pairs of high-quality images captured in advance under various shooting conditions and a label indicating that the image was captured and acquired by the target camera (hereinafter referred to as a genuine label). In addition, the training data includes a group of high-quality images generated by inputting low-quality images into the image-quality enhancement engine (first-level image-quality enhancement engine) and a group of high-quality images that have not been captured by the target camera. A group of pairs with labels (hereinafter referred to as counterfeit labels) is included. A machine learning model trained using such teacher data outputs a counterfeit label when a high-quality image generated by a first-level image quality enhancement engine is input.

特に、二次元画像の真贋評価処理を行うCNNの構成例として、図3に示す構成がある。当該CNNの構成には、畳み込み層301と、バッチ正規化層302と、正規化線形関数を用いた活性化層303とで構成された複数の畳み込み処理ブロック300群が含まれる。また、当該CNNの構成には、最後の畳み込み層304と、全結合層305と、出力層306が含まれる。全結合層305は、畳み込み処理ブロック300の出力値群を全結合する。また、出力層306は、Sigmoid関数を利用して、入力画像Im310に対して、真作ラベルを表す1の値(真)又は贋作ラベルを表す0の値(偽)を、真贋評価処理の結果(Result)307として出力する。 In particular, there is a configuration shown in FIG. 3 as a configuration example of a CNN that performs authenticity evaluation processing of a two-dimensional image. The configuration of the CNN includes a group of convolutional processing blocks 300 composed of a convolutional layer 301, a batch normalization layer 302, and an activation layer 303 using a normalized linear function. The configuration of the CNN also includes a final convolutional layer 304 , a fully connected layer 305 and an output layer 306 . A fully connected layer 305 fully connects the output values of the convolution processing block 300 . In addition, the output layer 306 uses the sigmoid function to convert the input image Im310 to a value of 1 (true) representing a genuine label or a value of 0 (false) representing a counterfeit label as a result of the authenticity evaluation process. (Result) 307 is output.

なお、畳み込み処理ブロック300の数を16、畳み込み層301群のパラメータとして、フィルタのカーネルサイズを幅3画素、高さ3画素、フィルタの数を64とすることで、一定の精度で正しい真贋評価処理の結果を得られる。しかしながら、実際には上記の機械学習モデルの説明において述べた通り、機械学習モデルの利用形態に応じた教師データを用いて、より良いパラメータ群を設定することができる。なお、三次元画像や四次元画像を処理する必要がある場合には、フィルタのカーネルサイズを三次元や四次元に拡張してもよい。 By setting the number of convolution processing blocks 300 to 16, the filter kernel size to be 3 pixels wide, 3 pixels high, and the number of filters to be 64 as parameters of the convolution layer 301 group, correct authentication evaluation can be performed with a certain degree of accuracy. You can get the result of processing. However, in practice, as described in the explanation of the machine learning model above, it is possible to set a better parameter group using teacher data according to the usage form of the machine learning model. Note that if it is necessary to process a three-dimensional image or a four-dimensional image, the kernel size of the filter may be extended to three or four dimensions.

真贋評価エンジンは、第1レベルの高画質化エンジンよりも高度に高画質化する高画質化エンジン(第2レベルの高画質化エンジン)が生成する高画質画像が入力されると真作ラベルを出力することがある。つまり、真贋評価エンジンは入力された画像に対し、確実に撮影装置によって撮影され取得された画像か否かを評価できるわけではないが、撮影装置によって撮影され取得された画像らしさを持つ画像か否かを評価できる。この特性を利用して、真贋評価エンジンに高画質化エンジンが生成した高画質画像を入力することで、高画質化エンジンが生成した高画質画像が十分に高画質化されているか否かを評価できる。 When a high-quality image generated by an image quality enhancement engine (second-level image quality enhancement engine) that produces higher image quality than the first-level image quality enhancement engine is input, the authenticity evaluation engine identifies the authentic label. output. In other words, the authenticity evaluation engine cannot evaluate whether or not the input image is definitely captured and acquired by the image capturing device, but whether or not the image is likely to be captured and captured by the image capturing device. can be evaluated. Using this characteristic, by inputting the high-quality image generated by the high-quality image engine to the authenticity evaluation engine, it is evaluated whether the high-quality image generated by the high-quality image engine is sufficiently high. can.

また、高画質化エンジンの機械学習モデルと真贋評価エンジンの機械学習モデルとを協調させてトレーニングすることによって、双方のエンジンの効率や精度を向上させてもよい。この場合には、まず、高画質化エンジンが生成する高画質画像を真贋評価エンジンに評価させると真作ラベルが出力されるように、該高画質化エンジンの機械学習モデルをトレーニングする。また、並行して、高画質化エンジンが生成する画像を真贋評価エンジンに評価させると贋作ラベルを出力するように、該真贋評価エンジンの機械学習モデルをトレーニングさせる。さらに、並行して、撮影装置によって取得された画像を真贋評価エンジンに評価させると真作ラベルを出力するように、該真贋評価エンジンの機械学習モデルをトレーニングさせる。これによって、高画質化エンジンと真贋評価エンジンの効率や精度が向上する。 Also, the machine learning model of the image quality enhancement engine and the machine learning model of the authenticity evaluation engine may be trained in cooperation to improve the efficiency and accuracy of both engines. In this case, first, the machine learning model of the image quality enhancement engine is trained so that the authenticity evaluation engine outputs a genuine label when the high quality image generated by the image quality enhancement engine is evaluated by the authenticity evaluation engine. In parallel, a machine learning model of the authentication evaluation engine is trained so that the authentication evaluation engine outputs a counterfeit label when the image generated by the image quality enhancement engine is evaluated by the authentication evaluation engine. Furthermore, in parallel, a machine learning model of the authenticity evaluation engine is trained so as to output a counterfeit label when the image acquired by the photographing device is evaluated by the authenticity evaluation engine. This improves the efficiency and accuracy of the image quality improvement engine and the authenticity evaluation engine.

<第1の実施形態>
以下、図4及び5を参照して、第1の実施形態による医用画像処理装置について説明する。図4は、本実施形態に係る画像処理装置の概略的な構成の一例を示す。
<First embodiment>
The medical image processing apparatus according to the first embodiment will be described below with reference to FIGS. 4 and 5. FIG. FIG. 4 shows an example of a schematic configuration of an image processing apparatus according to this embodiment.

画像処理装置400は、撮影装置10及び表示部20に、回路やネットワークを介して接続されている。また、撮影装置10及び表示部20が直接接続されていてもよい。なお、これらの装置は本実施形態では別個の装置とされているが、これらの装置の一部又は全部を一体的に構成してもよい。また、これらの装置は、他の任意の装置と回路やネットワークを介して接続されてもよいし、他の任意の装置と一体的に構成されてもよい。 The image processing device 400 is connected to the imaging device 10 and the display unit 20 via circuits and networks. Alternatively, the imaging device 10 and the display unit 20 may be directly connected. Although these devices are separate devices in this embodiment, some or all of these devices may be integrally configured. Also, these devices may be connected to any other device via a circuit or network, or may be integrally configured with any other device.

画像処理装置400には、取得部401と、撮影条件取得部402と、高画質化可否判定部403と、高画質化部404と、出力部405(表示制御部)とが設けられている。なお、画像処理装置400は、これら構成要素のうちの一部が設けられた複数の装置で構成されてもよい。取得部401は、撮影装置10や他の装置から各種データや画像を取得したり、不図示の入力装置を介して検者からの入力を取得したりすることができる。なお、入力装置としては、マウス、キーボード、タッチパネル及びその他任意の入力装置を採用してよい。また、表示部20をタッチパネルディスプレイとして構成してもよい。 The image processing apparatus 400 includes an acquisition unit 401, an imaging condition acquisition unit 402, an image quality enhancement determination unit 403, an image quality enhancement unit 404, and an output unit 405 (display control unit). Note that the image processing device 400 may be composed of a plurality of devices provided with some of these components. The acquisition unit 401 can acquire various data and images from the imaging device 10 and other devices, and can acquire input from the examiner via an input device (not shown). As the input device, a mouse, keyboard, touch panel, and other arbitrary input devices may be adopted. Also, the display unit 20 may be configured as a touch panel display.

撮影条件取得部402は、取得部401が取得した医用画像(入力画像)の撮影条件を取得する。具体的には、医用画像のデータ形式に応じて、医用画像を構成するデータ構造に保存された撮影条件群を取得する。なお、医用画像に撮影条件が保存されていない場合には、取得部401を介して、撮影装置10や画像管理システムから撮影条件群を含む撮影情報群を取得することができる。 The imaging condition acquisition unit 402 acquires imaging conditions for the medical image (input image) acquired by the acquisition unit 401 . Specifically, the imaging condition group stored in the data structure forming the medical image is obtained according to the data format of the medical image. If imaging conditions are not stored in the medical image, the imaging information group including the imaging condition group can be acquired from the imaging apparatus 10 or the image management system via the acquisition unit 401 .

高画質化可否判定部403は、撮影条件取得部402によって取得された撮影条件群を用いて高画質化部404によって医用画像が対処可能であるか否かを判定する。高画質化部404は、対処可能である医用画像について高画質化を行い、画像診断に適した高画質画像を生成する。出力部405は、高画質化部404が生成した高画質画像や入力画像、各種情報等を表示部20に表示させる。また、出力部405は、生成された高画質画像等を画像処理装置400に接続される記憶装置に記憶させてもよい。 The image quality enhancement determination unit 403 uses the imaging condition group acquired by the imaging condition acquisition unit 402 to determine whether or not the medical image can be processed by the image quality enhancement unit 404 . The image quality enhancing unit 404 enhances the image quality of a medical image that can be handled, and generates a high quality image suitable for image diagnosis. The output unit 405 causes the display unit 20 to display the high-quality image generated by the image quality enhancement unit 404, the input image, various information, and the like. Also, the output unit 405 may store the generated high-quality image or the like in a storage device connected to the image processing apparatus 400 .

次に、高画質化部404について詳細に説明する。高画質化部404には高画質化エンジンが備えられている。本実施形態に係る高画質化エンジンの備える高画質化手法では、機械学習アルゴリズムを用いた処理を行う。 Next, the image quality improving unit 404 will be described in detail. The image quality improving unit 404 is provided with an image quality improving engine. The image quality enhancement method provided by the image quality enhancement engine according to the present embodiment performs processing using a machine learning algorithm.

本実施形態では、機械学習アルゴリズムに係る機械学習モデルのトレーニングに、処理対象として想定される特定の撮影条件を持つ低画質画像である入力データと、入力データに対応する高画質画像である出力データのペア群で構成された教師データを用いる。なお、特定の撮影条件には、具体的には、予め決定された撮影部位、撮影方式、撮影画角、及び画像サイズ等が含まれる。 In this embodiment, for training a machine learning model related to a machine learning algorithm, input data that is a low-quality image having specific shooting conditions assumed to be processed, and output data that is a high-quality image corresponding to the input data. We use teacher data composed of pairs of The specific imaging conditions specifically include a predetermined imaging region, imaging method, imaging angle of view, image size, and the like.

本実施形態において、教師データの入力データは、撮影装置10と同じ機種、撮影装置10と同じ設定により取得された低画質画像である。また、教師データの出力データは、撮影装置10と同じ機種が備える設定や画像処理により取得された高画質画像である。具体的には、出力データは、例えば、複数回撮影することにより取得した画像(元画像)群に対して加算平均等の重ね合わせ処理を行うことにより得られる高画質画像(重ね合わせ画像)である。 In the present embodiment, the input data of the teacher data is a low-quality image acquired with the same model as the imaging device 10 and with the same settings as the imaging device 10 . Also, the output data of the teacher data is a high-quality image acquired by setting and image processing of the same model as the imaging device 10 . Specifically, the output data is, for example, a high-quality image (superimposed image) obtained by performing superimposition processing such as averaging on a group of images (original images) obtained by photographing multiple times. be.

重ね合わせ処理を行った重ね合わせ画像は、元画像群で共通して描出された画素が強調されるため、画像診断に適した高画質画像になる。この場合には、生成される高画質画像は、共通して描出された画素が強調された結果、低輝度領域と高輝度領域との違いがはっきりした高コントラストな画像になる。また、例えば、重ね合わせ画像では、撮影毎に発生するランダムノイズが低減されたり、ある時点の元画像ではうまく描出されなかった領域が他の元画像群によって補間されたりすることができる。 A superimposed image that has undergone the superimposing process has a high-quality image that is suitable for image diagnosis because the pixels commonly drawn in the original image group are emphasized. In this case, the generated high-quality image is a high-contrast image in which the difference between the low-brightness region and the high-brightness region is clear as a result of the commonly drawn pixels being emphasized. Also, for example, in the superimposed image, random noise that occurs each time an image is captured can be reduced, and an area that was not well rendered in the original image at a certain point in time can be interpolated with another original image group.

なお、元画像群のそれぞれを入力データ、対応する重ね合わせ画像を出力データとすることで、複数のペア群を生成することができる。例えば、15の元画像群から1の重ね合わせ画像を得る場合、元画像群のうちの一つ目の元画像と重ね合わせ画像とのペア、元画像群のうちの二つ目の元画像と重ね合わせ画像とのペアを生成することができる。このように、15の元画像群から1の重ね合わせ画像を得る場合には、元画像群のうちの一つの画像と重ね合わせ画像による15のペア群が生成可能である。 By using each of the original image groups as input data and the corresponding superimposed image as output data, it is possible to generate a plurality of pair groups. For example, when obtaining one superimposed image from a group of 15 original images, a pair of the first original image and the superimposed image in the group of original images, the second original image in the group of original images, and A pair of superimposed images can be generated. Thus, when one superimposed image is obtained from a group of 15 original images, 15 pair groups of one image in the group of original images and the superimposed image can be generated.

また、機械学習モデルの入力データを複数の画像で構成する必要がある場合には、元画像群から必要な数の元画像群を選択し、入力データとすることができる。例えば、15の元画像群から1の重ね合わせ画像を得る場合において、機械学習モデルの入力データとして2の画像が必要であれば、105(15C2=105)のペア群を生成可能である。 Further, when it is necessary to configure the input data of the machine learning model with a plurality of images, a necessary number of original image groups can be selected from the original image group and used as input data. For example, when obtaining one superimposed image from a group of 15 original images, if two images are required as input data for the machine learning model, 105 (15C2=105) pair groups can be generated.

なお、教師データを構成するペア群のうち、高画質化に寄与しないペアは教師データから取り除くことができる。例えば、教師データのペアを構成する出力データである高画質画像が画像診断に適さない画質である場合には、当該教師データを用いて学習した高画質化エンジンが出力する画像も画像診断に適さない画質になってしまう可能性がある。そのため、出力データが画像診断に適さない画質であるペアを教師データから取り除くことで、高画質化エンジンが画像診断に適さない画質の画像を生成する可能性を低減させることができる。 Note that pairs that do not contribute to high image quality can be removed from the training data in the pair group that constitutes the training data. For example, if a high-quality image, which is output data that constitutes a pair of training data, is not suitable for image diagnosis, the image output by the high-quality image engine that has learned using the training data is also suitable for image diagnosis. image quality may be poor. Therefore, by removing pairs whose output data has an image quality unsuitable for image diagnosis from the training data, it is possible to reduce the possibility that the image quality enhancement engine generates an image with an image quality unsuitable for image diagnosis.

また、ペアである画像群の平均輝度や輝度分布が大きく異なる場合には、当該教師データを用いて学習した高画質化エンジンが、低画質画像と大きく異なる輝度分布を持つ画像診断に適さない画像を出力する可能性がある。このため、平均輝度や輝度分布が大きく異なる入力データと出力データのペアを教師データから取り除くこともできる。 In addition, when the average brightness and brightness distribution of the paired images are significantly different, the image quality improvement engine trained using the training data may detect an image that is not suitable for image diagnosis with a brightness distribution that is significantly different from that of the low-quality image. may be output. Therefore, pairs of input data and output data having significantly different average luminances and luminance distributions can be removed from the teacher data.

さらに、ペアである画像群に描画される撮影対象の構造や位置が大きく異なる場合には、当該教師データを用いて学習した高画質化エンジンが、低画質画像と大きく異なる構造や位置に撮影対象を描画した画像診断に適さない画像を出力する可能性がある。このため、描画される撮影対象の構造や位置が大きく異なる入力データと出力データのペアを教師データから取り除くこともできる。また、高画質化エンジンについて、品質保持の観点から、自身が出力する高画質画像を教師データとして用いないように構成することができる。 Furthermore, if the structures and positions of the objects to be captured that are drawn in the pair of images are significantly different, the image quality enhancement engine that has learned using the training data will be able to draw the images in a structure and position that are significantly different from those of the low-quality images. There is a possibility of outputting an image that is not suitable for diagnostic imaging. For this reason, pairs of input data and output data in which the structure and position of the object to be drawn are largely different can be removed from the teacher data. In addition, from the viewpoint of maintaining quality, the image quality improvement engine can be configured not to use the high quality image it outputs as training data.

このように機械学習を行った高画質化エンジンを用いることで、高画質化部404は、一回の撮影で取得された医用画像が入力された場合に、重ね合わせ処理によって高コントラスト化やノイズ低減等が行われたような高画質画像を出力することができる。このため、高画質化部404は、入力画像である低画質画像に基づいて、画像診断に適した高画質画像を生成することができる。 By using the image quality improvement engine that performs machine learning in this way, the image quality improvement unit 404 performs superimposition processing to increase contrast and reduce noise when a medical image acquired in a single imaging process is input. It is possible to output a high-quality image that looks like it has been reduced. Therefore, the image quality enhancing unit 404 can generate a high image quality image suitable for image diagnosis based on the low image quality image that is the input image.

次に、図5のフロー図を参照して、本実施形態に係る一連の画像処理について説明する。図5は本実施形態に係る一連の画像処理のフロー図である。まず、本実施形態に係る一連の画像処理が開始されると、処理はステップS510に移行する。 Next, a series of image processing according to this embodiment will be described with reference to the flowchart of FIG. FIG. 5 is a flowchart of a series of image processing according to this embodiment. First, when a series of image processing according to this embodiment is started, the process proceeds to step S510.

ステップS510では、取得部401が、回路やネットワークを介して接続された撮影装置10から、撮影装置10が撮影した画像を入力画像として取得する。なお、取得部401は、撮影装置10からの要求に応じて、入力画像を取得してもよい。このような要求は、例えば、撮影装置10が画像を生成した時、撮影装置10が生成した画像を撮影装置10が備える記録装置に保存する前や保存した後、保存された画像を表示部20に表示する時、画像解析処理に高画質画像を利用する時等に発行されてよい。 In step S510, the acquisition unit 401 acquires an image captured by the imaging device 10 as an input image from the imaging device 10 connected via a circuit or network. Note that the acquisition unit 401 may acquire an input image in response to a request from the imaging device 10 . For example, when the image capturing device 10 generates an image, such a request is made before or after saving the image generated by the image capturing device 10 in a recording device included in the image capturing device 10, and displaying the saved image on the display unit 20. may be issued when displaying a high quality image, when using a high quality image for an image analysis process, and so on.

なお、取得部401は、撮影装置10から画像を生成するためのデータを取得し、画像処理装置400が当該データに基づいて生成した画像を入力画像として取得してもよい。この場合、画像処理装置400が各種画像を生成するための画像生成方法としては、既存の任意の画像生成方法を採用してよい。 Note that the obtaining unit 401 may obtain data for generating an image from the imaging device 10 and obtain an image generated based on the data by the image processing device 400 as an input image. In this case, any existing image generation method may be employed as an image generation method for the image processing apparatus 400 to generate various images.

ステップS520では、撮影条件取得部402が、入力画像の撮影条件群を取得する。具体的には、入力画像のデータ形式に応じて、入力画像を構成するデータ構造に保存された撮影条件群を取得する。なお、上述のように、入力画像に撮影条件が保存されていない場合には、撮影条件取得部402は、撮影装置10や不図示の画像管理システムから撮影条件群を含む撮影情報群を取得することができる。 In step S520, the imaging condition acquisition unit 402 acquires a group of imaging conditions for the input image. Specifically, according to the data format of the input image, the imaging condition group stored in the data structure forming the input image is acquired. It should be noted that, as described above, when the imaging conditions are not saved in the input image, the imaging condition acquisition unit 402 acquires the imaging information group including the imaging condition group from the imaging apparatus 10 or an image management system (not shown). be able to.

ステップS530においては、高画質化可否判定部403が、取得された撮影条件群を用いて、高画質化部404に備える高画質化エンジンによって入力画像を高画質化可能であるか否かを判定する。具体的には、高画質化可否判定部403は、入力画像の撮影部位、撮影方式、撮影画角、及び画像サイズが、高画質化エンジンによって対処可能な条件と一致するか否かを判定する。 In step S530, the image quality enhancement determination unit 403 determines whether the image quality enhancement engine provided in the image quality enhancement unit 404 can enhance the image quality of the input image using the acquired group of shooting conditions. do. Specifically, the image quality enhancement determination unit 403 determines whether or not the imaging region, imaging method, imaging angle of view, and image size of the input image match conditions that can be handled by the image quality enhancement engine. .

高画質化可否判定部403が、すべての撮影条件を判定し、対処可能と判定された場合には、処理はステップS540に移行する。一方、高画質化可否判定部403が、これら撮影条件に基づいて、高画質化エンジンが入力画像を対処不可能であると判定した場合には、処理はステップS550に移行する。 The image quality improvement possibility determination unit 403 determines all the shooting conditions, and when it is determined that the condition can be handled, the process proceeds to step S540. On the other hand, if the image quality enhancement determination unit 403 determines that the image quality enhancement engine cannot process the input image based on these shooting conditions, the process proceeds to step S550.

なお、画像処理装置400の設定や実装形態によっては、撮影部位、撮影方式、撮影画角、及び画像サイズのうちの一部に基づいて入力画像が処理不可能であると判定されたとしても、ステップS540における高画質化処理が実施されてもよい。例えば、高画質化エンジンが、被検者のいずれの撮影部位に対しても網羅的に対応可能であると想定され、入力データに未知の撮影部位が含まれていたとしても対処可能であるように実装されている場合等には、このような処理を行ってもよい。また、高画質化可否判定部403は、所望の構成に応じて、入力画像の撮影部位、撮影方式、撮影画角、及び画像サイズのうちの少なくとも一つが高画質化エンジンによって対処可能な条件と一致するか否かを判定してもよい。 Note that even if it is determined that the input image cannot be processed based on part of the imaging region, imaging method, imaging angle of view, and image size, depending on the settings and implementation of the image processing apparatus 400, Image quality enhancement processing in step S540 may be performed. For example, it is assumed that the image quality enhancement engine can comprehensively handle any imaging part of the subject, and even if the input data contains an unknown imaging part, it can be handled. Such a process may be performed if it is implemented in In addition, the image quality enhancement determination unit 403 determines, according to a desired configuration, that at least one of the imaging region of the input image, the imaging method, the imaging angle of view, and the image size is a condition that can be handled by the image quality enhancement engine. It may be determined whether or not they match.

ステップS540においては、高画質化部404が、高画質化エンジンを用いて、入力画像を高画質化し、入力画像よりも画像診断に適した高画質画像を生成する。具体的には、高画質化部404は、入力画像を高画質化エンジンに入力し、高画質化された高画質画像を生成させる。高画質化エンジンは、教師データを用いて機械学習を行った機械学習モデルに基づいて、入力画像を用いて重ね合わせ処理を行ったような高画質画像を生成する。このため、高画質化エンジンは、入力画像よりも、ノイズ低減されたり、コントラスト強調されたりした高画質画像を生成することができる。 In step S540, the image quality enhancement unit 404 uses the image quality enhancement engine to enhance the image quality of the input image to generate a high quality image that is more suitable for image diagnosis than the input image. Specifically, the image quality enhancement unit 404 inputs the input image to the image quality enhancement engine to generate a high quality image with enhanced image quality. The image quality enhancement engine generates a high quality image that looks like it has been superimposed using the input image, based on a machine learning model that has been machine-learned using the teacher data. Therefore, the image quality enhancement engine can generate a high quality image with noise reduced or contrast enhanced compared to the input image.

なお、画像処理装置400の設定や実装形態によっては、高画質化部404が、撮影条件群に応じて、高画質化エンジンに入力画像とともにパラメータを入力して、高画質化の程度等を調節してもよい。また、高画質化部404は、検者の入力に応じたパラメータを高画質化エンジンに入力画像とともに入力して高画質化の程度等を調整してもよい。 Note that depending on the settings and implementation of the image processing apparatus 400, the image quality enhancement unit 404 inputs parameters together with the input image to the image quality enhancement engine according to the imaging condition group, and adjusts the degree of image quality enhancement. You may Further, the image quality improving unit 404 may input a parameter corresponding to the input of the examiner to the image quality improving engine together with the input image to adjust the degree of image quality improvement.

ステップS550では、出力部405が、ステップS540において高画質画像が生成されていれば、高画質画像を出力して、表示部20に表示させる。一方、ステップS530において高画質化処理が不可能であるとされていた場合には、入力画像を出力し、表示部20に表示させる。なお、出力部405は、表示部20に出力画像を表示させるのに代えて、撮影装置10や他の装置に出力画像を表示させたり、記憶させたりしてもよい。また、出力部405は、画像処理装置400の設定や実装形態によっては、出力画像を撮影装置10や他の装置が利用可能なように加工したり、画像管理システム等に送信可能なようにデータ形式を変換したりしてもよい。 In step S550, the output unit 405 outputs the high-quality image and causes the display unit 20 to display it if the high-quality image is generated in step S540. On the other hand, if it is determined in step S530 that the image quality enhancement process is not possible, the input image is output and displayed on the display unit 20 . Note that the output unit 405 may cause the image capturing apparatus 10 or another apparatus to display or store the output image instead of displaying the output image on the display unit 20 . The output unit 405 also processes the output image so that it can be used by the image capturing apparatus 10 or other apparatuses, or converts the output image into data so that it can be transmitted to an image management system or the like, depending on the settings and implementation of the image processing apparatus 400 . You can convert the format.

上記のように、本実施形態に係る画像処理装置400は、取得部401と、高画質化部404とを備える。取得部401は、被検者の所定部位の画像である入力画像(第1の画像)を取得する。高画質化部404は、機械学習エンジンを含む高画質化エンジンを用いて、入力画像から、入力画像と比べてノイズ低減及びコントラスト強調のうちの少なくとも一つがなされた高画質画像(第2の画像)を生成する。高画質化エンジンは、重ね合わせ処理により得られた画像を学習データとした機械学習エンジンを含む。 As described above, the image processing apparatus 400 according to this embodiment includes the acquisition unit 401 and the image quality enhancement unit 404 . Acquisition unit 401 acquires an input image (first image) that is an image of a predetermined region of a subject. The image quality enhancement unit 404 uses an image quality enhancement engine including a machine learning engine to generate a high quality image (second image ). The image quality improvement engine includes a machine learning engine that uses images obtained by superimposition processing as learning data.

当該構成により、本実施形態に係る画像処理装置400は、入力画像から、ノイズが低減されていたり、コントラストが強調されていたりする高画質画像を出力することができる。このため、画像処理装置400は、より明瞭な画像や観察したい部位や病変が強調されている画像等の画像診断に適した画像を、従来と比べて、撮影者や被検者の侵襲性を高めたり、労力を増したりすることなく、より少ない代償で取得することができる。 With this configuration, the image processing apparatus 400 according to this embodiment can output a high-quality image with reduced noise or enhanced contrast from an input image. For this reason, the image processing apparatus 400 can produce images suitable for image diagnosis, such as clearer images and images in which a site to be observed or a lesion is emphasized, with less invasiveness to the operator or the subject than in the past. It can be obtained at a lower cost without increasing the cost or effort.

また、画像処理装置400は、入力画像に対して、高画質化エンジンを用いて高画質画像を生成できる否かを判定する高画質化可否判定部403を更に備える。高画質化可否判定部403は、入力画像の撮影部位、撮影方式、撮影画角、及び画像サイズの少なくとも一つに基づいて当該判定を行う。 The image processing apparatus 400 further includes an image quality enhancement determination unit 403 that determines whether or not a high quality image can be generated from the input image using the image quality enhancement engine. The image quality improvement possibility determination unit 403 performs the determination based on at least one of the captured part of the input image, the imaging method, the imaging angle of view, and the image size.

当該構成により、本実施形態に係る画像処理装置400は、高画質化部404が処理できない入力画像を高画質化処理から省くことができ、画像処理装置400の処理負荷やエラーの発生を低減させることができる。 With this configuration, the image processing apparatus 400 according to the present embodiment can omit an input image that cannot be processed by the image quality enhancement unit 404 from the image quality enhancement process, thereby reducing the processing load of the image processing apparatus 400 and the occurrence of errors. be able to.

なお、本実施形態においては、出力部405(表示制御部)は、生成された高画質画像を表示部20に表示させる構成としたが、出力部405の動作はこれに限られない。例えば、出力部405は、高画質画像を撮影装置10や画像処理装置400に接続される他の装置に出力することもできる。このため、高画質画像は、これらの装置のユーザーインターフェースに表示されたり、任意の記録装置に保存されたり、任意の画像解析に利用されたり、画像管理システムに送信されたりすることができる。 In this embodiment, the output unit 405 (display control unit) is configured to display the generated high-quality image on the display unit 20, but the operation of the output unit 405 is not limited to this. For example, the output unit 405 can also output high-quality images to other devices connected to the imaging device 10 and the image processing device 400 . As such, high quality images can be displayed on the user interface of these devices, stored on any recording device, used for any image analysis, or sent to an image management system.

本実施形態においては、高画質化可否判定部403が、高画質化エンジンによって高画質化可能な入力画像であるか否かを判定して、高画質化可能な入力画像であれば高画質化部404が高画質化を行った。これに対し、撮影装置10によって、高画質化可能な撮影条件でのみ撮影が行なわれる等の場合には、撮影装置10から取得した画像を無条件に高画質化してもよい。この場合には、図6に示すように、ステップS520とステップS530の処理を省き、ステップS510の次にステップS540を実施することができる。 In this embodiment, the image quality enhancement determination unit 403 determines whether or not the input image can be enhanced in image quality by the image quality enhancement engine. The unit 404 performed image quality enhancement. On the other hand, if the imaging device 10 performs imaging only under imaging conditions that allow high image quality, the image acquired from the imaging device 10 may be unconditionally enhanced in image quality. In this case, as shown in FIG. 6, steps S520 and S530 can be omitted, and step S540 can be performed after step S510.

なお、本実施形態においては、出力部405が、表示部20に高画質画像を表示させる構成とした。しかしながら、出力部405は、検者からの指示に応じて、高画質画像を表示部20に表示させてもよい。例えば、出力部405は、検者が表示部20のユーザーインターフェース上の任意のボタンを押すことに応じて、高画質画像を表示部20に表示させてもよい。この場合、出力部405は、入力画像と切り替えて高画質画像を表示させてもよいし、入力画像と並べて高画質画像を表示させてもよい。 In this embodiment, the output unit 405 is configured to display a high quality image on the display unit 20 . However, the output unit 405 may display a high-quality image on the display unit 20 according to an instruction from the examiner. For example, the output unit 405 may cause the display unit 20 to display a high-quality image in response to the examiner pressing any button on the user interface of the display unit 20 . In this case, the output unit 405 may display a high-quality image by switching to the input image, or may display a high-quality image side by side with the input image.

さらに、出力部405は、表示部20に高画質画像を表示させる際に、表示されている画像が機械学習アルゴリズムを用いた処理により生成された高画質画像であることを示す表示を高画質画像とともに表示させてもよい。この場合には、ユーザーは、当該表示によって、表示された高画質画像が撮影によって取得した画像そのものではないことが容易に識別できるため、誤診断を低減させたり、診断効率を向上させたりすることができる。なお、機械学習アルゴリズムを用いた処理により生成された高画質画像であることを示す表示は、入力画像と当該処理により生成された高画質画像とを識別可能な表示であればどのような態様のものでもよい。 Further, when causing the display unit 20 to display a high-quality image, the output unit 405 displays a high-quality image indicating that the displayed image is a high-quality image generated by processing using a machine learning algorithm. may be displayed together with In this case, the user can easily identify from the display that the displayed high-quality image is not the image itself acquired by photography, so that misdiagnosis can be reduced and diagnosis efficiency can be improved. can be done. Note that the display indicating that the image is a high-quality image generated by processing using a machine learning algorithm can be of any form as long as the input image can be distinguished from the high-quality image generated by the processing. Anything is fine.

また、出力部405は、機械学習アルゴリズムを用いた処理により生成された高画質画像であることを示す表示について、機械学習アルゴリズムがどのような教師データによって学習を行ったものであるかを示す表示を表示部20に表示させてもよい。当該表示としては、教師データの入力データと出力データの種類の説明や、入力データと出力データに含まれる撮影部位等の教師データに関する任意の表示を含んでよい。 In addition, the output unit 405 provides a display indicating what kind of teacher data the machine learning algorithm has used for the display indicating that the image is a high-quality image generated by processing using a machine learning algorithm. may be displayed on the display unit 20. The display may include a description of the types of input data and output data of the teacher data, and any display related to the teacher data such as imaging regions included in the input data and output data.

本実施形態に係る高画質化エンジンでは、教師データの出力データとして、重ね合わせ画像を用いたが、教師データはこれに限られない。教師データの出力データとして、高画質画像を得る手段である、重ね合わせ処理や、後述する処理群、後述する撮影方法のうち、少なくとも一つを行うことで得られる高画質画像を用いてもよい。 In the image quality enhancement engine according to the present embodiment, a superimposed image is used as the output data of the teacher data, but the teacher data is not limited to this. As the output data of the teacher data, a high-quality image obtained by performing at least one of superimposition processing, a processing group described later, and a photographing method described later, which are means for obtaining a high-quality image, may be used. .

例えば、教師データの出力データとして、元画像群に対して最大事後確率推定処理(MAP推定処理)を行うことで得られる高画質画像を用いてもよい。MAP推定処理では、複数の低画質画像における各画素値の確率密度から尤度関数を求め、求めた尤度関数を用いて真の信号値(画素値)を推定する。 For example, high-quality images obtained by performing maximum a posteriori probability estimation processing (MAP estimation processing) on the original image group may be used as the output data of the training data. In the MAP estimation process, a likelihood function is obtained from the probability density of each pixel value in a plurality of low-quality images, and a true signal value (pixel value) is estimated using the obtained likelihood function.

MAP推定処理により得られた高画質画像は、真の信号値に近い画素値に基づいて高コントラストな画像となる。また、推定される信号値は、確率密度に基づいて求められるため、MAP推定処理により得られた高画質画像では、ランダムに発生するノイズが低減される。このため、MAP推定処理により得られた高画質画像を教師データとして用いることで、高画質化エンジンは、入力画像から、ノイズが低減されたり、高コントラストとなったりした、画像診断に適した高画質画像を生成することができる。なお、教師データの入力データと出力データのペアの生成方法は、重ね合わせ画像を教師データとした場合と同様の方法で行われてよい。 A high-quality image obtained by the MAP estimation process is a high-contrast image based on pixel values close to true signal values. In addition, since the estimated signal value is obtained based on the probability density, randomly generated noise is reduced in the high-quality image obtained by the MAP estimation process. For this reason, by using high-quality images obtained by MAP estimation processing as training data, the image-quality improvement engine converts input images into high-quality images with reduced noise and high contrast suitable for image diagnosis. A quality image can be generated. The method of generating pairs of input data and output data of teacher data may be the same as in the case of using superimposed images as teacher data.

また、教師データの出力データとして、元画像に平滑化フィルタ処理を適用した高画質画像を用いてもよい。この場合には、高画質化エンジンは、入力画像から、ランダムノイズが低減された高画質画像を生成することができる。さらに、教師データの出力データとして、元画像に階調変換処理を適用した画像を用いてもよい。この場合には、高画質化エンジンは、入力画像から、コントラスト強調された高画質画像を生成することができる。なお、教師データの入力データと出力データのペアの生成方法は、重ね合わせ画像を教師データとした場合と同様の方法で行われてよい。 Also, a high-quality image obtained by applying a smoothing filter process to the original image may be used as the output data of the teacher data. In this case, the image quality enhancement engine can generate a high quality image with reduced random noise from the input image. Furthermore, an image obtained by applying gradation conversion processing to the original image may be used as the output data of the teacher data. In this case, the image quality enhancement engine can generate a contrast-enhanced high quality image from the input image. The method of generating pairs of input data and output data of teacher data may be the same as in the case of using superimposed images as teacher data.

なお、教師データの入力データは、撮影装置10と同じ画質傾向を持つ撮影装置から取得された画像でもよい。また、教師データの出力データは、逐次近似法等の高コストな処理によって得られた高画質画像であってもよいし、入力データに対応する被検者を、撮影装置10よりも高性能な撮影装置で撮影することで取得した高画質画像であってもよい。さらに、出力データは、ルールベースによるノイズ低減処理を行うことによって取得された高画質画像であってもよい。ここで、ノイズ低減処理は、例えば、低輝度領域内に現れた明らかにノイズである1画素のみの高輝度画素を、近傍の低輝度画素値の平均値に置き換える等の処理を含むことができる。このため、高画質化エンジンは、入力画像の撮影に用いられる撮影装置よりも高性能な撮影装置によって撮影された画像、又は入力画像の撮影工程よりも工数の多い撮影工程で取得された画像を学習データとしてもよい。 Note that the input data of the teacher data may be an image acquired from an imaging device having the same image quality tendency as that of the imaging device 10 . The output data of the teacher data may be a high-quality image obtained by expensive processing such as the iterative approximation method. It may be a high-quality image obtained by photographing with a photographing device. Furthermore, the output data may be a high quality image obtained by performing rule-based noise reduction processing. Here, the noise reduction processing can include, for example, processing such as replacing a single high-brightness pixel that appears in a low-brightness region, which is clearly noise, with an average value of nearby low-brightness pixel values. . For this reason, the image quality enhancement engine uses an image captured by a photographing device with higher performance than the photographing device used to photograph the input image, or an image obtained in a photographing process that requires more man-hours than the photographing process of the input image. It may be used as learning data.

なお、本実施形態の説明では省略したが、教師データの出力データとして用いられる、複数の画像から生成された高画質画像は、位置合わせ済みの複数の画像から生成されることができる。当該位置合わせ処理としては、例えば、複数の画像のうちの一つをテンプレートとして選択し、テンプレートの位置と角度を変えながらその他の画像との類似度を求め、テンプレートとの位置ずれ量を求め、位置ずれ量に基づいて各画像を補正してよい。また、その他の既存の任意の位置合わせ処理を行ってもよい。 Although omitted in the description of the present embodiment, a high-quality image generated from a plurality of images and used as output data for teacher data can be generated from a plurality of aligned images. As the alignment process, for example, one of a plurality of images is selected as a template, the degree of similarity with other images is obtained while changing the position and angle of the template, the amount of positional deviation from the template is obtained, Each image may be corrected based on the amount of misregistration. Also, any other existing alignment process may be performed.

なお、三次元画像を位置合わせする場合には、三次元画像を複数の二次元画像に分解し、二次元画像毎に位置合わせしたものを統合することで、三次元画像の位置合わせを行ってもよい。また、二次元画像を一次元画像に分解し、一次元画像毎に位置合わせしたものを統合することで、二次元画像の位置合わせを行ってもよい。なお、画像ではなく、画像を生成するためのデータに対して、これら位置合わせを行ってもよい。 When aligning three-dimensional images, the three-dimensional images are aligned by decomposing the three-dimensional images into a plurality of two-dimensional images and integrating the aligned images for each two-dimensional image. good too. Alternatively, the two-dimensional images may be aligned by decomposing the two-dimensional image into one-dimensional images and integrating the aligned images for each one-dimensional image. Note that these alignments may be performed not on the image but on the data for generating the image.

また、本実施形態では、高画質化可否判定部403が高画質化部404によって入力画像が対処可能であると判断したら、処理がステップS540に移行して、高画質化部404による高画質化処理が開始された。これに対し、出力部405が高画質化可否判定部403による判定結果を表示部20に表示させ、高画質化部404が検者からの指示に応じて高画質化処理を開始してもよい。この際、出力部405は、判定結果とともに、入力画像や入力画像について取得した撮影部位等の撮影条件を表示部20に表示させることができる。この場合には、検者によって判定結果が正しいか否かが判断された上で、高画質化処理が行われるため、誤判定に基づく高画質化処理を低減させることができる。 Further, in the present embodiment, when the image quality enhancement determination unit 403 determines that the input image can be handled by the image quality enhancement unit 404, the process proceeds to step S540, and the image quality enhancement unit 404 performs image quality enhancement. Processing started. On the other hand, the output unit 405 may cause the display unit 20 to display the determination result by the image quality enhancement determination unit 403, and the image quality enhancement unit 404 may start image quality enhancement processing in accordance with an instruction from the examiner. . At this time, the output unit 405 can cause the display unit 20 to display the input image and the imaging conditions such as the imaging region acquired for the input image together with the determination result. In this case, the examiner determines whether or not the determination result is correct, and then the image quality enhancement process is performed, so it is possible to reduce the image quality enhancement process based on the erroneous determination.

また、高画質化可否判定部403による判定を行わず、出力部405が入力画像や入力画像について取得した撮影部位等の撮影条件を表示部20に表示させ、高画質化部404が検者からの指示に応じて高画質化処理を開始してもよい。 In addition, without performing determination by the image quality enhancement determination unit 403, the output unit 405 causes the display unit 20 to display the input image and the imaging conditions such as the imaging site acquired for the input image, and the image quality enhancement unit 404 outputs the The image quality improvement process may be started according to the instruction of .

<第2の実施形態>
次に、図4及び7を参照して、第2の実施形態に係る画像処理装置について説明する。第1の実施形態では、高画質化部404は、一つの高画質化エンジンを備えていた。これに対して、本実施形態では、高画質化部が、異なる教師データを用いて機械学習を行った複数の高画質化エンジンを備え、入力画像に対して複数の高画質画像を生成する。
<Second embodiment>
Next, an image processing apparatus according to a second embodiment will be described with reference to FIGS. 4 and 7. FIG. In the first embodiment, the image quality enhancement unit 404 has one image quality enhancement engine. In contrast, in the present embodiment, the image quality enhancing unit includes a plurality of image quality enhancing engines that have performed machine learning using different teacher data, and generates a plurality of high quality images for an input image.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第1の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第1の実施形態に係る画像処理装置との違いを中心として説明する。なお、本実施形態に係る画像処理装置の構成は、第1の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。 Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the first embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below, focusing on the differences from the image processing apparatus according to the first embodiment. Note that the configuration of the image processing apparatus according to this embodiment is the same as that of the image processing apparatus according to the first embodiment, so the same reference numerals are used for the configuration shown in FIG. do.

本実施形態に係る高画質化部404には、それぞれ異なる教師データを用いて機械学習が行われた二つ以上の高画質化エンジンが備えられている。ここで、本実施形態に係る教師データ群の作成方法について説明する。具体的には、まず、様々な撮影部位が撮影された、入力データとしての元画像と出力データとしての重ね合わせ画像のペア群を用意する。次に、撮影部位毎にペア群をグルーピングすることで、教師データ群を作成する。例えば、第1の撮影部位を撮影して取得されたペア群で構成される第1の教師データ、第2の撮影部位を撮影して取得されたペア群で構成される第2の教師データというように、教師データ群を作成する。 The image quality enhancement unit 404 according to the present embodiment includes two or more image quality enhancement engines for which machine learning is performed using different teacher data. Here, a method of creating a teacher data group according to this embodiment will be described. Specifically, first, a pair group of an original image as input data and a superimposed image as output data, in which various imaging regions are imaged, is prepared. Next, a teacher data group is created by grouping the pair groups for each imaging part. For example, first teacher data composed of a pair group obtained by imaging a first imaging part, and second teacher data composed of a pair group obtained by imaging a second imaging part. Create a training data group as follows.

その後、各教師データを用いて別々の高画質化エンジンに機械学習を行わせる。例えば、第1の教師データでトレーニングされた機械学習モデルに対応する第1の高画質化エンジン、第2の教師データでトレーニングされた機械学習モデルに対応する第2の高画質化エンジンというように高画質化エンジン群を用意する。 After that, each training data is used to cause a separate image quality enhancement engine to perform machine learning. For example, a first high image quality engine corresponding to the machine learning model trained with the first teacher data, a second high image quality engine corresponding to the machine learning model trained with the second teacher data, and so on. Prepare a group of high image quality engines.

このような高画質化エンジンは、それぞれ対応する機械学習モデルのトレーニングに用いた教師データが異なるため、高画質化エンジンに入力される画像の撮影条件によって、入力画像を高画質化できる程度が異なる。具体的には、第1の高画質化エンジンは、第1の撮影部位を撮影して取得された入力画像に対しては高画質化の程度が高く、第2の撮影部位を撮影して取得された画像に対しては高画質化の程度が低い。同様に、第2の高画質化エンジンは、第2の撮影部位を撮影して取得された入力画像に対しては高画質化の程度が高く、第1の撮影部位を撮影して取得された画像に対しては高画質化の程度が低い。 Since each image quality enhancement engine uses different training data for training the corresponding machine learning model, the degree to which the input image can be enhanced differs depending on the shooting conditions of the image input to the image quality enhancement engine. . Specifically, the first image quality improvement engine increases the degree of image quality improvement with respect to the input image acquired by imaging the first imaging region, and acquires the second imaging region by imaging. The degree of improvement in image quality is low for images that have been processed. Similarly, the second image quality improvement engine has a high degree of image quality improvement with respect to the input image acquired by imaging the second imaging region, and the image quality enhancement engine acquired by imaging the first imaging region The degree of high image quality is low for images.

教師データのそれぞれが撮影部位によってグルーピングされたペア群で構成されることにより、該ペア群を構成する画像群の画質傾向が似る。このため、高画質化エンジンは対応する撮影部位であれば、第1の実施形態に係る高画質化エンジンよりも効果的に高画質化を行うことができる。なお、教師データのペアをグルーピングするための撮影条件は、撮影部位に限られず、撮影画角であったり、画像の解像度であったり、これらのうちの二つ以上の組み合わせであったりしてもよい。 Since each of the teacher data is composed of a pair group grouped according to an imaging part, the image quality tendencies of the image groups forming the pair group are similar. For this reason, the image quality improvement engine can improve the image quality more effectively than the image quality improvement engine according to the first embodiment if it is a corresponding imaging region. The imaging condition for grouping pairs of training data is not limited to the imaging site, but may be the imaging angle of view, the resolution of the image, or a combination of two or more of these. good.

以下、図7を参照して、本実施形態に係る一連の画像処理について説明する。図7は、本実施形態に係る一連の画像処理のフロー図である。なお、ステップS710及びステップS720の処理は、第1の実施形態に係るステップS510及びステップS520と同様であるため、説明を省略する。なお、入力画像に対して、無条件で高画質化する場合には、ステップS720の処理の後に、ステップS730の処理を省き、処理をステップS740に移行してよい。 A series of image processing according to this embodiment will be described below with reference to FIG. FIG. 7 is a flowchart of a series of image processing according to this embodiment. Note that the processing of steps S710 and S720 is the same as that of steps S510 and S520 according to the first embodiment, so description thereof will be omitted. Note that if the image quality of the input image is unconditionally increased, the process of step S730 may be omitted after the process of step S720, and the process may proceed to step S740.

ステップS720において入力画像の撮影条件が取得されると、処理はステップS730に移行する。ステップS730においては、高画質化可否判定部403が、ステップS720において取得した撮影条件群を用いて、高画質化部404が備える高画質化エンジン群のいずれかが、入力画像を対処可能であるか否かを判定する。 When the shooting conditions for the input image are obtained in step S720, the process proceeds to step S730. In step S730, the image quality enhancement determination unit 403 uses the imaging condition group acquired in step S720 to determine whether any of the image quality enhancement engines included in the image quality enhancement unit 404 can handle the input image. Determine whether or not

高画質化可否判定部403が、高画質化エンジン群のいずれも入力画像を対処不可能であると判定した場合には、処理はステップS760に移行する。一方で、高画質化可否判定部403が、高画質化エンジン群のいずれかが入力画像を対処可能であると判定した場合には、処理はステップS740に移行する。なお、画像処理装置400の設定や実装形態によっては、第1の実施形態と同様に、高画質化エンジンによって一部の撮影条件が対処不可能であると判定されたとしても、ステップS740を実施してもよい。 If the image quality enhancement possibility determination unit 403 determines that none of the image quality enhancement engines can handle the input image, the process proceeds to step S760. On the other hand, if the image quality improvement possibility determination unit 403 determines that any one of the image quality improvement engine group can process the input image, the process proceeds to step S740. It should be noted that, depending on the settings and implementation of the image processing apparatus 400, as in the first embodiment, even if the image quality enhancement engine determines that some shooting conditions cannot be dealt with, step S740 is executed. You may

ステップS740においては、高画質化部404が、ステップS720で取得した入力画像の撮影条件及び高画質化エンジン群の教師データの情報に基づいて、高画質化エンジン群から高画質化処理を行う高画質化エンジンを選択する。具体的には、例えば、ステップS720において取得した撮影条件群のうちの撮影部位に対して、同撮影部位又は周囲の撮影部位に関する教師データの情報を有し、高画質化の程度が高い高画質化エンジンを選択する。上述の例では、撮影部位が第1の撮影部位である場合には、高画質化部404は第1の高画質化エンジンを選択する。 In step S740, the image quality enhancement unit 404 performs image quality enhancement processing from the image quality enhancement engine group based on the shooting conditions of the input image acquired in step S720 and the information of the training data of the image quality enhancement engine group. Select a rendering engine. Specifically, for example, for an imaging region in the imaging condition group acquired in step S720, there is teacher data information about the imaging region or surrounding imaging regions, and high image quality with a high degree of image quality improvement. select a conversion engine. In the above example, when the imaging region is the first imaging region, the image quality enhancement unit 404 selects the first image quality enhancement engine.

ステップS750では、高画質化部404が、ステップS740において選択した高画質化エンジンを用いて、入力画像を高画質化した高画質画像を生成する。その後、ステップS760において、出力部405は、ステップS750において高画質画像が生成されていれば、高画質画像を出力して、表示部20に表示させる。一方、ステップS730において高画質化処理が不可能であるとされていた場合には、入力画像を出力し、表示部20に表示させる。なお、出力部405は、高画質画像を表示部20に表示させる際、高画質化部404によって選択された高画質化エンジンを用いて生成された高画質画像であることを表示させてもよい。 In step S750, the image quality enhancement unit 404 uses the image quality enhancement engine selected in step S740 to generate a high quality image by enhancing the image quality of the input image. After that, in step S760, the output unit 405 outputs the high-quality image and causes the display unit 20 to display the high-quality image if the high-quality image is generated in step S750. On the other hand, if it is determined in step S730 that the image quality enhancement process is impossible, the input image is output and displayed on the display unit 20. FIG. When displaying a high-quality image on the display unit 20, the output unit 405 may display that the high-quality image is generated using the image quality enhancement engine selected by the image quality enhancement unit 404. .

上記のように、本実施形態に係る高画質化部404は、それぞれ異なる学習データを用いて学習を行った複数の高画質化エンジンを備える。ここで、複数の高画質化エンジンの各々は、それぞれ撮影部位、撮影画角、及び画像の解像度のうちの少なくとも一つについての異なる学習データを用いて学習を行ったものである。高画質化部404は、入力画像の撮影部位、撮影画角、及び画像の解像度のうちの少なくとも一つに応じた高画質化エンジンを用いて、高画質画像を生成する。 As described above, the image quality enhancement unit 404 according to the present embodiment includes a plurality of image quality enhancement engines that perform learning using different learning data. Here, each of the plurality of image quality enhancement engines performs learning using different learning data for at least one of the imaging region, imaging angle of view, and image resolution. The image quality enhancement unit 404 generates a high quality image using an image quality enhancement engine that corresponds to at least one of the imaging site, imaging angle of view, and image resolution of the input image.

このような構成により、本実施形態に係る画像処理装置400は、より効果的な高画質画像を生成することができる。 With such a configuration, the image processing apparatus 400 according to this embodiment can generate a more effective high-quality image.

本実施形態では、高画質化部404が、入力画像の撮影条件に基づいて高画質化処理に用いる高画質化エンジンを選択したが、高画質化エンジンの選択処理はこれに限られない。例えば、出力部405が、取得した入力画像の撮影条件と高画質化エンジン群を表示部20のユーザーインターフェースに表示させ、検者からの指示に応じて、高画質化部404が高画質化処理に用いる高画質化エンジンを選択してもよい。なお、出力部405は、高画質化エンジン群とともに各高画質化エンジンの学習に用いた教師データの情報を表示部20に表示させてもよい。なお、高画質化エンジンの学習に用いた教師データの情報の表示態様は任意であってよく、例えば、学習に用いた教師データに関連する名称を用いて高画質化エンジン群を表示してもよい。 In the present embodiment, the image quality enhancement unit 404 selects an image quality enhancement engine to be used for image quality enhancement processing based on the shooting conditions of the input image, but the selection processing of the image quality enhancement engine is not limited to this. For example, the output unit 405 causes the user interface of the display unit 20 to display the imaging conditions of the acquired input image and the image quality enhancement engine group, and the image quality enhancement unit 404 performs image quality enhancement processing in accordance with instructions from the examiner. You may select the image quality improvement engine used for. The output unit 405 may cause the display unit 20 to display the information of the training data used for the learning of each image quality improvement engine together with the image quality improvement engine group. The display mode of the information of the teacher data used for learning the image quality improvement engine may be arbitrary. For example, the image quality improvement engine group may be displayed using a name related to the teacher data used for learning. good.

また、出力部405が、高画質化部404によって選択された高画質化エンジンを表示部20のユーザーインターフェースに表示させ、検者からの指示を受け付けてもよい。この場合、高画質化部404は、検者からの指示に応じて、当該高画質化エンジンを高画質化処理に用いる高画質化エンジンとして最終的に選択するか否かを判断してもよい。 Further, the output unit 405 may display the image quality enhancement engine selected by the image quality enhancement unit 404 on the user interface of the display unit 20 and receive an instruction from the examiner. In this case, the image quality enhancement unit 404 may determine whether or not to finally select the image quality enhancement engine as the image quality enhancement engine to be used for image quality enhancement processing in accordance with an instruction from the examiner. .

なお、出力部405は、第1の実施形態と同様に、生成された高画質画像を撮影装置10や画像処理装置400に接続される他の装置に出力してもよい。また、高画質化エンジンの教師データの出力データは、第1の実施形態と同様に、重ね合わせ処理を行った高画質画像に限られない。すなわち、重ね合わせ処理やMAP推定処理、平滑化フィルタ処理、階調変換処理、高性能な撮影装置を用いた撮影、高コストな処理、ノイズ低減処理といった処理群や撮影方法のうち、少なくとも一つを行うことによって得られた高画質画像を用いてもよい。 Note that the output unit 405 may output the generated high-quality image to another device connected to the imaging device 10 or the image processing device 400, as in the first embodiment. Also, the output data of the training data from the image quality improvement engine is not limited to the high quality image that has undergone the superimposition process, as in the first embodiment. That is, at least one of a processing group and a photographing method such as superimposition processing, MAP estimation processing, smoothing filter processing, gradation conversion processing, photographing using a high-performance photographing device, high-cost processing, and noise reduction processing. You may use the high quality image obtained by performing.

<第3の実施形態>
次に、図4及び7を参照して、第3の実施形態に係る画像処理装置について説明する。第1及び2の実施形態では、撮影条件取得部402は、入力画像のデータ構造等から撮影条件群を取得する。これに対して、本実施形態では、撮影条件取得部は、撮影箇所推定エンジンを用いて、入力画像の撮影部位又は撮影領域を入力画像に基づいて推定する。
<Third Embodiment>
Next, an image processing apparatus according to a third embodiment will be described with reference to FIGS. 4 and 7. FIG. In the first and second embodiments, the imaging condition acquisition unit 402 acquires the imaging condition group from the data structure of the input image. On the other hand, in the present embodiment, the imaging condition acquisition unit uses the imaging location estimation engine to estimate the imaging part or imaging region of the input image based on the input image.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第2の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第2の実施形態に係る画像処理装置との違いを中心として説明する。なお、本実施形態に係る画像処理装置の構成は、第1及び2の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。 Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the second embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below, focusing on the differences from the image processing apparatus according to the second embodiment. Since the configuration of the image processing apparatus according to this embodiment is the same as that of the image processing apparatuses according to the first and second embodiments, the same reference numerals are used for the configuration shown in FIG. omitted.

本実施形態に係る撮影条件取得部402には、取得部401が取得した入力画像に描画されている撮影部位又は撮影領域を推定する撮影箇所推定エンジンが備えられている。本実施形態に係る撮影箇所推定エンジンの備える撮影箇所の推定手法では、機械学習アルゴリズムを用いた推定処理を行う。 The imaging condition acquisition unit 402 according to this embodiment includes an imaging location estimation engine for estimating the imaging region or imaging region drawn in the input image acquired by the acquisition unit 401 . In the method of estimating the shooting location provided by the shooting location estimation engine according to the present embodiment, an estimation process using a machine learning algorithm is performed.

本実施形態では、機械学習アルゴリズムを用いた撮影箇所推定手法に係る機械学習モデルのトレーニングには、画像である入力データと、入力データに対応する撮影部位ラベルや撮影領域ラベルである出力データとのペア群で構成された教師データを用いる。ここで、入力データとは、処理対象(入力画像)として想定される特定の撮影条件を持つ画像のことである。入力データとしては、撮影装置10と同じ画質傾向を持つ撮影装置から取得された画像であることが好ましく、撮影装置10と同じ設定をされた同じ機種であるとより良い。出力データである撮影部位ラベルや撮影領域ラベルの種類は、入力データに少なくとも一部が含まれている撮影部位や撮影領域であってよい。出力データである撮影部位ラベルの種類は、例えば、OCTであれば、“黄斑部”、“視神経乳頭部”、“黄斑部及び視神経乳頭部”、並びに“その他”等であってよい。 In the present embodiment, training of a machine learning model related to an imaging location estimation technique using a machine learning algorithm involves input data that is an image and output data that is an imaging region label or an imaging region label corresponding to the input data. Teacher data composed of pairs are used. Here, the input data is an image having specific shooting conditions assumed as a processing target (input image). The input data is preferably an image acquired from an image capturing apparatus having the same image quality tendency as the image capturing apparatus 10 , and more preferably the same model with the same settings as the image capturing apparatus 10 . The types of imaging region labels and imaging region labels that are output data may be imaging regions and imaging regions that are at least partially included in the input data. For example, in the case of OCT, the types of imaging site labels that are output data may be "macula", "optic papilla", "macula and optic papilla", and "others".

本実施形態に係る撮影箇所推定エンジンは、このような教師データを用いた学習を行ったことにより、入力された画像に描画されている撮影部位や撮影領域がどこであるかを出力することができる。また、撮影箇所推定エンジンは、必要な詳細レベルの撮影部位ラベルや撮影領域ラベル毎に、該撮影部位や撮影領域である確率を出力することもできる。撮影箇所推定エンジンを用いることで、撮影条件取得部402は、入力画像に基づいて、入力画像の撮影部位や撮影領域を推定し、入力画像についての撮影条件として取得することができる。なお、撮影箇所推定エンジンが撮影部位ラベルや撮影領域ラベル毎に、該撮影部位や撮影領域である確率を出力する場合には、撮影条件取得部402は、最も確率の高い撮影部位や撮影領域を入力画像の撮影条件として取得する。 The imaged location estimation engine according to the present embodiment can output where the imaged part and imaged area drawn in the input image are by performing learning using such teacher data. . The imaging location estimation engine can also output the probability of being the imaging region or imaging region for each imaging region label or imaging region label of a required level of detail. By using the imaging location estimation engine, the imaging condition acquisition unit 402 can estimate the imaging region and imaging region of the input image based on the input image, and acquire them as the imaging conditions for the input image. Note that when the imaging site estimation engine outputs the probability of being the imaging site or imaging area for each imaging site label or imaging area label, the imaging condition acquisition unit 402 selects the imaging site or imaging area with the highest probability. Acquired as the shooting conditions of the input image.

次に、第2の実施形態と同様に、図7のフロー図を参照して、本実施形態に係る一連の画像処理について説明する。なお、本実施形態に係るステップS710、及びステップS730~ステップS760の処理は、第2の実施形態におけるこれらの処理と同様であるため、説明を省略する。なお、入力画像に対して、無条件で高画質化する場合には、ステップS720の処理の後に、ステップS730の処理を省き、処理をステップS740に移行してよい。 Next, as in the second embodiment, a series of image processing according to this embodiment will be described with reference to the flowchart of FIG. Note that the processes of step S710 and steps S730 to S760 according to the present embodiment are the same as those processes in the second embodiment, so description thereof will be omitted. Note that if the image quality of the input image is unconditionally increased, the process of step S730 may be omitted after the process of step S720, and the process may proceed to step S740.

ステップS710において入力画像が取得されると、処理はステップS720に移行する。ステップS720では、撮影条件取得部402が、ステップS710において取得した入力画像の撮影条件群を取得する。 After the input image is acquired in step S710, the process proceeds to step S720. In step S720, the imaging condition acquisition unit 402 acquires the imaging condition group of the input image acquired in step S710.

具体的には、入力画像のデータ形式に応じて、入力画像を構成するデータ構造に保存された撮影条件群を取得する。また、撮影条件群に撮影部位や撮影領域に関する情報が含まれていない場合、撮影条件取得部402は撮影箇所推定エンジンに入力画像を入力し、入力画像がどの撮影部位を撮影して取得されたものなのかを推定する。具体的には、撮影条件取得部402は、撮影箇所推定エンジンに入力画像を入力し、撮影部位ラベル群のそれぞれに対して出力された確率を評価し、最も確率の高い撮影部位を入力画像の撮影条件として設定・取得する。 Specifically, according to the data format of the input image, the imaging condition group stored in the data structure forming the input image is obtained. If the imaging condition group does not include information about the imaging region or the imaging region, the imaging condition acquisition unit 402 inputs the input image to the imaging region estimation engine, and determines which imaging region the input image was acquired by imaging. Guess what it is. Specifically, the imaging condition acquisition unit 402 inputs an input image to the imaging part estimation engine, evaluates the probability output for each imaging part label group, and selects an imaging part with the highest probability from the input image. Set/acquire as shooting conditions.

なお、入力画像に撮影部位や撮影領域以外の撮影条件が保存されていない場合には、撮影条件取得部402は、撮影装置10や不図示の画像管理システムから撮影条件群を含む撮影情報群を取得することができる。 Note that if the input image does not store imaging conditions other than the imaging site and imaging region, the imaging condition acquisition unit 402 acquires the imaging information group including the imaging condition group from the imaging apparatus 10 or an image management system (not shown). can be obtained.

以降の処理は、第2実施形態に係る一連の画像処理と同様であるため説明を省略する。 Since subsequent processing is the same as the series of image processing according to the second embodiment, description thereof is omitted.

上記のように、本実施形態に係る撮影条件取得部402は、入力画像の撮影部位及び撮影領域のうちの少なくとも一方を推定する推定部として機能する。撮影条件取得部402は、撮影部位や撮影領域のラベルが付けられた画像を学習データとした撮影箇所推定エンジンを含み、撮影箇所推定エンジンに入力画像を入力することで、入力画像の撮影部位や撮影領域を推定する。 As described above, the imaging condition acquiring unit 402 according to this embodiment functions as an estimating unit that estimates at least one of the imaging part and imaging area of the input image. The imaging condition acquisition unit 402 includes an imaging location estimation engine that uses images labeled with imaging regions and imaging regions as learning data. Estimate the shooting area.

これにより、本実施形態に係る画像処理装置400は、入力画像の撮影部位や撮影領域についての撮影条件を入力画像に基づいて取得することができる。 As a result, the image processing apparatus 400 according to the present embodiment can acquire imaging conditions for the imaging part and imaging region of the input image based on the input image.

なお、本実施形態では、撮影条件取得部402は、撮影条件群に撮影部位や撮影領域に関する情報が含まれていない場合に撮影箇所推定エンジンを用いて入力画像の撮影部位や撮影領域について推定を行った。しかしながら、撮影箇所推定エンジンを用いて撮影部位や撮影領域について推定を行う状況はこれに限られない。撮影条件取得部402は、入力画像のデータ構造に含まれる撮影部位や撮影領域についての情報が、必要な詳細レベルの情報として不足している場合にも、撮影箇所推定エンジンを用いて撮影部位や撮影領域について推定を行ってもよい。 Note that in the present embodiment, the imaging condition acquisition unit 402 estimates the imaging region and imaging region of the input image using the imaging region estimation engine when the imaging condition group does not include information about the imaging region and imaging region. gone. However, the situation in which the imaging site estimation engine is used to estimate the imaging site and imaging area is not limited to this. The imaging condition acquisition unit 402 uses the imaging part estimation engine to obtain the imaging part and the imaging area even when the information about the imaging part and the imaging area included in the data structure of the input image is insufficient as information of the required level of detail. An estimation may be made for the imaging area.

また、入力画像のデータ構造に撮影部位や撮影領域についての情報が含まれているか否かとは無関係に、撮影条件取得部402が撮影箇所推定エンジンを用いて入力画像の撮影部位や撮影領域を推定してもよい。この場合、出力部405が、撮影箇所推定エンジンから出力された推定結果と入力画像のデータ構造に含まれる撮影部位や撮影領域についての情報を表示部20に表示させ、撮影条件取得部402が検者の指示に応じて、これらの撮影条件を決定してもよい。 In addition, regardless of whether or not the data structure of the input image contains information about the imaging region and imaging region, the imaging condition acquisition unit 402 estimates the imaging region and imaging region of the input image using the imaging region estimation engine. You may In this case, the output unit 405 causes the display unit 20 to display the estimation result output from the imaging location estimation engine and the information about the imaging region and imaging region included in the data structure of the input image, and the imaging condition acquisition unit 402 performs detection. These imaging conditions may be determined according to the instructions of the operator.

なお、出力部405は、第1の実施形態と同様に、生成された高画質画像を撮影装置10や画像処理装置400に接続される他の装置に出力してもよい。また、高画質化エンジンの教師データの出力データは、第1の実施形態と同様に、重ね合わせ処理を行った高画質画像に限られない。すなわち、重ね合わせ処理やMAP推定処理、平滑化フィルタ処理、階調変換処理、高性能な撮影装置を用いた撮影、高コストな処理、ノイズ低減処理といった処理群や撮影方法のうち、少なくとも一つを行うことによって得られた高画質画像を用いてもよい。 Note that the output unit 405 may output the generated high-quality image to another device connected to the imaging device 10 or the image processing device 400, as in the first embodiment. Also, the output data of the training data from the image quality improvement engine is not limited to the high quality image that has undergone the superimposition process, as in the first embodiment. That is, at least one of a processing group and a photographing method such as superimposition processing, MAP estimation processing, smoothing filter processing, gradation conversion processing, photographing using a high-performance photographing device, high-cost processing, and noise reduction processing. You may use the high quality image obtained by performing.

<第4の実施形態>
次に、図4、5、8及び9を参照して、第4の実施形態に係る画像処理装置について説明する。本実施形態では、高画質化部が、入力画像を高画質化エンジンが対処可能な画像サイズになるように、入力画像を拡大又は縮小する。また、高画質化部は、高画質化エンジンからの出力画像を、出力画像の画像サイズが入力画像の画像サイズになるように縮小又は拡大して高画質画像を生成する。
<Fourth Embodiment>
Next, an image processing apparatus according to a fourth embodiment will be described with reference to FIGS. In this embodiment, the image quality enhancement unit enlarges or reduces the input image so that the input image has an image size that can be handled by the image quality enhancement engine. Also, the image quality enhancement unit reduces or enlarges the output image from the image quality enhancement engine so that the image size of the output image is the same as the image size of the input image to generate a high quality image.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第1の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第1の実施形態に係る画像処理装置との違いを中心として説明する。なお、本実施形態に係る画像処理装置の構成は、第1の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。 Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the first embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below, focusing on the differences from the image processing apparatus according to the first embodiment. Note that the configuration of the image processing apparatus according to this embodiment is the same as that of the image processing apparatus according to the first embodiment, so the same reference numerals are used for the configuration shown in FIG. do.

本実施形態に係る高画質化部404には、第1の実施形態に係る高画質化エンジンと同様の、高画質化エンジンが備えられている。ただし、本実施形態では、高画質化エンジンの学習に用いる教師データとして、入力データの画像及び出力データの画像を一定の画像サイズになるように拡大又は縮小した画像群により構成した、入力データと出力データのペア群を用いている。 The image quality enhancement unit 404 according to this embodiment includes an image quality enhancement engine similar to the image quality enhancement engine according to the first embodiment. However, in the present embodiment, input data and a group of images obtained by enlarging or reducing an image of input data and an image of output data to have a certain image size are used as teacher data used for learning of the image quality improvement engine. It uses pairs of output data.

ここで、図8を参照して、本実施形態に係る高画質化エンジンの教師データについて説明する。図8に示すように、例えば、教師データについて設定された一定の画像サイズより小さな低画質画像Im810と高画質画像Im820とがある場合を考える。この場合、教師データについて設定された一定の画像サイズとなるように、低画質画像Im810及び高画質画像Im820のそれぞれを拡大する。そして、拡大した低画質画像Im811と拡大した高画質画像Im821とをペアとして、当該ペアを教師データの一つとして用いる。 Now, with reference to FIG. 8, the teacher data of the image quality enhancement engine according to this embodiment will be described. As shown in FIG. 8, for example, consider a case where there are a low-quality image Im810 and a high-quality image Im820 smaller than a certain image size set for the teacher data. In this case, each of the low-quality image Im810 and the high-quality image Im820 is enlarged so as to have a constant image size set for the teacher data. Then, the enlarged low-quality image Im811 and the enlarged high-quality image Im821 are paired, and the pair is used as one of the teacher data.

なお、第1の実施形態と同様に、教師データの入力データには、処理対象(入力画像)として想定される特定の撮影条件を持つ画像を用いるが、当該特定の撮影条件は、予め決定された撮影部位、撮影方式、及び撮影画角である。つまり、本実施形態に係る当該特定の撮影条件には、第1の実施形態と異なり、画像サイズは含まれない。 Note that, as in the first embodiment, an image having specific shooting conditions assumed to be a processing target (input image) is used as the input data of the teacher data, but the specific shooting conditions are determined in advance. The imaging part, the imaging method, and the imaging angle of view. That is, unlike the first embodiment, the specific imaging conditions according to this embodiment do not include the image size.

本実施形態に係る高画質化部404は、このような教師データで学習が行われた高画質化エンジンを用いて、入力画像を高画質化して高画質画像を生成する。この際、高画質化部404は、入力画像を教師データについて設定された一定の画像サイズになるように拡大又は縮小した変形画像を生成し、変形画像を高画質化エンジン入力する。また、高画質化部404は、高画質化エンジンからの出力画像を入力画像の画像サイズになるように縮小又は拡大し、高画質画像を生成する。このため、本実施形態に係る高画質化部404は、第1の実施形態では対処できなかった画像サイズの入力画像であっても、高画質化エンジンによって高画質化して高画質画像を生成することができる。 The image quality enhancement unit 404 according to the present embodiment uses the image quality enhancement engine trained with such teacher data to enhance the image quality of the input image to generate a high quality image. At this time, the image quality enhancing unit 404 generates a deformed image by enlarging or reducing the input image so as to have a certain image size set for the teacher data, and inputs the deformed image to the image quality improving engine. Further, the image quality enhancing unit 404 reduces or enlarges the output image from the image quality enhancing engine so that it has the image size of the input image, and generates a high quality image. For this reason, the image quality enhancement unit 404 according to the present embodiment generates a high quality image by enhancing the image quality using the image quality enhancement engine even for an input image having an image size that could not be handled in the first embodiment. be able to.

次に、図5及び9を参照して、本実施形態に係る一連の画像処理について説明する。図9は、本実施形態に係る高画質化処理のフロー図である。なお、本実施形態に係るステップS510、ステップS520、及びステップS550の処理は、第1の実施形態におけるこれらの処理と同様であるため、説明を省略する。なお、入力画像に対して、画像サイズ以外の撮影条件について無条件で高画質化する場合には、ステップS520の処理の後に、ステップS530の処理を省き、処理をステップS540に移行してよい。 Next, a series of image processing according to this embodiment will be described with reference to FIGS. FIG. 9 is a flowchart of image quality enhancement processing according to the present embodiment. Note that the processes of steps S510, S520, and S550 according to the present embodiment are the same as those processes in the first embodiment, and thus description thereof is omitted. Note that if the image quality of the input image is to be improved unconditionally with regard to shooting conditions other than the image size, the process of step S530 may be omitted after the process of step S520, and the process may proceed to step S540.

ステップS520において、第1の実施形態と同様に、撮影条件取得部402が入力画像の撮影条件群を取得したら処理はステップS530に移行する。ステップS530では、高画質化可否判定部403が、取得された撮影条件群を用いて、高画質化部404に備える高画質化エンジンが入力画像を対処可能であるか否かを判定する。具体的には、高画質化可否判定部403は、入力画像の撮影条件について、高画質化エンジンが対処可能な、撮影部位、撮影方式、及び撮影画角であるか否かを判定する。高画質化可否判定部403は、第1の実施形態と異なり、画像サイズは判定しない。 In step S520, similarly to the first embodiment, when the imaging condition acquisition unit 402 acquires the imaging condition group of the input image, the process proceeds to step S530. In step S530, the image quality enhancement determination unit 403 determines whether or not the image quality enhancement engine provided in the image quality enhancement unit 404 can handle the input image using the acquired imaging condition group. Specifically, the image quality enhancement determination unit 403 determines whether or not the imaging conditions of the input image are the imaging region, the imaging method, and the imaging angle of view that can be handled by the image quality enhancement engine. Unlike the first embodiment, the image quality enhancement determination unit 403 does not determine the image size.

高画質化可否判定部403が、撮影部位、撮影方式、及び撮影画角について判定し、入力画像が対処可能と判定された場合には、処理はステップS540に移行する。一方、高画質化可否判定部403が、これら撮影条件に基づいて、高画質化エンジンが入力画像を対処不可能であると判定した場合には、処理はステップS550に移行する。なお、画像処理装置400の設定や実装形態によっては、撮影部位、撮影方式、及び撮影画角のうちの一部に基づいて入力画像が処理不可能であると判定されたとしても、ステップS540における高画質化処理が実施されてもよい。 The image quality enhancement determination unit 403 determines the imaging region, imaging method, and imaging angle of view, and if it is determined that the input image can be handled, the process proceeds to step S540. On the other hand, if the image quality enhancement determination unit 403 determines that the image quality enhancement engine cannot process the input image based on these shooting conditions, the process proceeds to step S550. Note that even if it is determined that the input image cannot be processed based on some of the imaging region, imaging method, and imaging angle of view, depending on the settings and implementation of the image processing apparatus 400, in step S540 Image quality improvement processing may be performed.

処理がステップS540に移行すると、図9に示される本実施形態に係る高画質化処理が開始される。本実施形態に係る高画質化処理では、まず、ステップS910において、高画質化部404が、入力画像を教師データについて設定された一定の画像サイズに拡大又は縮小し、変形画像を生成する。 When the process proceeds to step S540, the image quality enhancement process according to this embodiment shown in FIG. 9 is started. In the image quality enhancement process according to this embodiment, first, in step S910, the image quality enhancement unit 404 enlarges or reduces the input image to a certain image size set for the teacher data to generate a deformed image.

次に、ステップS920において、高画質化部404は、生成した変形画像を高画質化エンジンに入力し高画質化された高画質な変形画像を取得する。 Next, in step S920, the image quality enhancement unit 404 inputs the generated deformed image to the image quality enhancement engine to acquire a high quality deformed image.

その後、ステップS930において、高画質化部404は、高画質な変形画像を入力画像の画像サイズに縮小又は拡大し、高画質画像を生成する。高画質化部404がステップS930において高画質画像を生成したら、本実施形態に係る高画質化処理は終了し、処理はステップS550に移行する。ステップS550の処理は、第1の実施形態のステップS550と同様であるため説明を省略する。 Thereafter, in step S930, the image quality enhancing unit 404 reduces or enlarges the high image quality deformed image to the image size of the input image to generate a high image quality image. After the image quality improving unit 404 generates the high quality image in step S930, the image quality improving process according to the present embodiment ends, and the process proceeds to step S550. Since the process of step S550 is the same as that of step S550 of the first embodiment, the description thereof is omitted.

上記のように、本実施形態に係る高画質化部404は、入力画像の画像サイズを、高画質化エンジンが対処可能な画像サイズに調整して高画質化エンジンに入力する。また、高画質化部404は、高画質化エンジンからの出力画像を入力画像の元の画像サイズに調整することで高画質画像を生成する。これにより、本実施形態の画像処理装置400は、高画質化エンジンを用いて、第1の実施形態では対処できなかった画像サイズの入力画像についても高画質化して、画像診断に適切な高画質画像を生成することができる。 As described above, the image quality enhancement unit 404 according to the present embodiment adjusts the image size of the input image to an image size that can be handled by the image quality enhancement engine, and inputs the image to the image quality enhancement engine. Further, the image quality improving unit 404 generates a high quality image by adjusting the output image from the image quality improving engine to the original image size of the input image. As a result, the image processing apparatus 400 of the present embodiment uses the image quality improvement engine to improve the image quality of an input image having an image size that could not be handled in the first embodiment, thereby achieving a high image quality suitable for image diagnosis. Images can be generated.

なお、出力部405は、第1の実施形態と同様に、生成された高画質画像を撮影装置10や画像処理装置400に接続される他の装置に出力してもよい。また、高画質化エンジンの教師データの出力データは、第1の実施形態と同様に、重ね合わせ処理を行った高画質画像に限られない。すなわち、重ね合わせ処理やMAP推定処理、平滑化フィルタ処理、階調変換処理、高性能な撮影装置を用いた撮影、高コストな処理、ノイズ低減処理といった処理群や撮影方法のうち、少なくとも一つを行うことによって得られた高画質画像を用いてもよい。 Note that the output unit 405 may output the generated high-quality image to another device connected to the imaging device 10 or the image processing device 400, as in the first embodiment. Also, the output data of the training data from the image quality improvement engine is not limited to the high quality image that has undergone the superimposition process, as in the first embodiment. That is, at least one of a processing group and a photographing method such as superimposition processing, MAP estimation processing, smoothing filter processing, gradation conversion processing, photographing using a high-performance photographing device, high-cost processing, and noise reduction processing. You may use the high quality image obtained by performing.

<第5の実施形態>
次に、図4、5、10及び11を参照して、第5の実施形態に係る画像処理装置について説明する。本実施形態では、高画質化部が、高画質化エンジンによる一定の解像度を基準とした高画質化処理により高画質画像を生成する。
<Fifth Embodiment>
Next, an image processing apparatus according to a fifth embodiment will be described with reference to FIGS. In the present embodiment, the image quality enhancement unit generates a high quality image through image quality enhancement processing based on a fixed resolution by the image quality enhancement engine.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第1の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第1の実施形態に係る画像処理装置との違いを中心として説明する。なお、本実施形態に係る画像処理装置の構成は、第1の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。 Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the first embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below, focusing on the differences from the image processing apparatus according to the first embodiment. Note that the configuration of the image processing apparatus according to this embodiment is the same as that of the image processing apparatus according to the first embodiment, so the same reference numerals are used for the configuration shown in FIG. do.

本実施形態に係る高画質化部404には、第1の実施形態と同様の、高画質化エンジンが備えられている。ただし、本実施形態では、高画質化エンジンの学習に用いる教師データが第1の実施形態における教師データと異なる。具体的には、教師データの入力データと出力データとのペア群を構成する画像群の解像度が一定の解像度となるような画像サイズに当該画像群を拡大又は縮小した後、十分に大きい一定の画像サイズとなるようにパディングしている。ここで、画像群の解像度とは、例えば、撮影装置の空間分解能や撮影領域に対する解像度をいう。 The image quality enhancement unit 404 according to the present embodiment includes an image quality enhancement engine similar to that of the first embodiment. However, in this embodiment, the teacher data used for learning of the image quality enhancement engine is different from the teacher data in the first embodiment. Specifically, after enlarging or reducing the image group to an image size such that the resolution of the image group constituting the pair group of the input data and output data of the teacher data becomes a certain resolution, the image group is enlarged or reduced to a sufficiently large certain size. It is padded to the image size. Here, the resolution of an image group means, for example, the spatial resolution of an imaging device or the resolution of an imaging area.

ここで、図10を参照して、本実施形態に係る高画質化エンジンの教師データについて説明する。図10に示すように、例えば、教師データについて設定された一定の解像度より低い解像度を持つ低画質画像Im1010と高画質画像Im1020とがある場合を考える。この場合、教師データについて設定された一定の解像度となるように、低画質画像Im1010と高画質画像Im1020のそれぞれを拡大する。さらに、拡大された低画質画像Im1010と高画質画像Im1020のそれぞれについて、教師データについて設定された一定の画像サイズとなるようにパディングする。そして、拡大及びパディングが行われた低画質画像Im1011と高画質画像Im1021とをペアとし、当該ペアを教師データの一つとして用いる。 Now, with reference to FIG. 10, teacher data for the image quality enhancement engine according to the present embodiment will be described. As shown in FIG. 10, for example, consider a case where there are a low-quality image Im1010 and a high-quality image Im1020 having a resolution lower than the fixed resolution set for the teacher data. In this case, each of the low-quality image Im1010 and the high-quality image Im1020 is enlarged so as to have a constant resolution set for the teacher data. Furthermore, each of the enlarged low-quality image Im1010 and high-quality image Im1020 is padded so as to have a constant image size set for the teacher data. Then, the low-quality image Im1011 and the high-quality image Im1021 that have been enlarged and padded are paired, and the pair is used as one of the teacher data.

なお、教師データについて設定された一定の画像サイズとは、処理対象(入力画像)として想定される画像を一定の解像度となるように拡大又は縮小したときの最大となりうる画像サイズである。当該一定の画像サイズが十分に大きくない場合には、高画質化エンジンに入力された画像を拡大したときに、機械学習モデルが対処不可能な画像サイズとなる可能性がある。 Note that the constant image size set for the training data is the maximum possible image size when an image assumed to be a processing target (input image) is enlarged or reduced so as to have a constant resolution. If the fixed image size is not large enough, there is a possibility that when the image input to the image quality enhancement engine is enlarged, the image size becomes unmanageable by the machine learning model.

また、パディングが行われる領域は、効果的に高画質化できるように機械学習モデルの特性に合わせて、一定の画素値で埋めたり、近傍画素値で埋めたり、ミラーパディングしたりする。なお、第1の実施形態と同様に、入力データには、処理対象として想定される特定の撮影条件を持つ画像を用いるが、当該特定の撮影条件は、予め決定された撮影部位、撮影方式、撮影画角である。つまり、本実施形態に係る当該特定の撮影条件には、第1の実施形態と異なり、画像サイズは含まれない。 In addition, the area to be padded is filled with a constant pixel value, filled with neighboring pixel values, or mirror-padded in accordance with the characteristics of the machine learning model so as to effectively improve the image quality. As in the first embodiment, an image having specific imaging conditions assumed to be processed is used as the input data. This is the shooting angle of view. That is, unlike the first embodiment, the specific imaging conditions according to this embodiment do not include the image size.

本実施形態に係る高画質化部404は、このような教師データで学習が行われた高画質化エンジンを用いて、入力画像を高画質化して高画質画像を生成する。この際、高画質化部404は、入力画像を教師データについて設定された一定の解像度になるように拡大又は縮小した変形画像を生成する。また、高画質化部404は、変形画像について、教師データについて設定された一定の画像サイズとなるようにパディングを行ってパディング画像を生成し、パディング画像を高画質化エンジンに入力する。 The image quality enhancement unit 404 according to the present embodiment uses the image quality enhancement engine trained with such teacher data to enhance the image quality of the input image to generate a high quality image. At this time, the image quality enhancing unit 404 generates a deformed image by enlarging or reducing the input image so as to have a constant resolution set for the teacher data. Further, the image quality enhancing unit 404 generates a padding image by padding the deformed image so that it has a constant image size set for the teacher data, and inputs the padding image to the image quality enhancing engine.

また、高画質化部404は、高画質化エンジンから出力された高画質なパディング画像について、パディングを行った領域分だけトリミングし、高画質な変形画像を生成する。その後、高画質化部404は、生成した高画質な変形画像を入力画像の画像サイズになるように縮小又は拡大し、高画質画像を生成する。 Further, the image quality enhancing unit 404 trims the high image quality padded image output from the image quality enhancing engine by the padded area to generate a high image quality deformed image. Thereafter, the image quality enhancing unit 404 reduces or enlarges the generated high image quality deformed image to the image size of the input image to generate a high image quality image.

このため、本実施形態に係る高画質化部404は、第1の実施形態では対処できなかった画像サイズの入力画像であっても、高画質化エンジンによって高画質化して高画質画像を生成することができる。 For this reason, the image quality enhancement unit 404 according to the present embodiment generates a high quality image by enhancing the image quality using the image quality enhancement engine even for an input image having an image size that could not be handled in the first embodiment. be able to.

次に、図5及び11を参照して、本実施形態に係る一連の画像処理について説明する。図11は、本実施形態に係る高画質化処理のフロー図である。なお、本実施形態に係るステップS510、ステップS520、及びステップS550の処理は、第1の実施形態におけるこれらの処理と同様であるため、説明を省略する。なお、入力画像に対して、画像サイズ以外の撮影条件について無条件で高画質化する場合には、ステップS520の処理の後に、ステップS530の処理を省き、処理をステップS540に移行してよい。 Next, a series of image processing according to this embodiment will be described with reference to FIGS. FIG. 11 is a flowchart of image quality enhancement processing according to this embodiment. Note that the processes of steps S510, S520, and S550 according to the present embodiment are the same as those processes in the first embodiment, and thus description thereof is omitted. Note that if the image quality of the input image is to be improved unconditionally with regard to shooting conditions other than the image size, the process of step S530 may be omitted after the process of step S520, and the process may proceed to step S540.

ステップS520において、第1の実施形態と同様に、撮影条件取得部402が入力画像の撮影条件群を取得したら、処理はステップS530に移行する。ステップS530では、高画質化可否判定部403が、取得された撮影条件群を用いて、高画質化部404に備える高画質化エンジンが入力画像を対処可能であるか否かを判定する。具体的には、高画質化可否判定部403は、入力画像の撮影条件について、高画質化エンジンが対処可能な、撮影部位、撮影方式、及び撮影画角であるか否かを判定する。高画質化可否判定部403は、第1の実施形態と異なり、画像サイズは判定しない。 In step S520, as in the first embodiment, after the imaging condition acquisition unit 402 acquires the imaging condition group of the input image, the process proceeds to step S530. In step S530, the image quality enhancement determination unit 403 determines whether or not the image quality enhancement engine provided in the image quality enhancement unit 404 can handle the input image using the acquired imaging condition group. Specifically, the image quality enhancement determination unit 403 determines whether or not the imaging conditions of the input image are the imaging region, the imaging method, and the imaging angle of view that can be handled by the image quality enhancement engine. Unlike the first embodiment, the image quality enhancement determination unit 403 does not determine the image size.

高画質化可否判定部403が、撮影部位、撮影方式、及び撮影画角について判定し、入力画像が対処可能と判定された場合には、処理はステップS540に移行する。一方、高画質化可否判定部403が、これら撮影条件に基づいて、高画質化エンジンが入力画像を対処不可能であると判定した場合には、処理はステップS550に移行する。なお、画像処理装置400の設定や実装形態によっては、撮影部位、撮影方式、及び撮影画角のうちの一部に基づいて入力画像が処理不可能であると判定されたとしても、ステップS540における高画質化処理が実施されてもよい。 The image quality enhancement determination unit 403 determines the imaging region, imaging method, and imaging angle of view, and if it is determined that the input image can be handled, the process proceeds to step S540. On the other hand, if the image quality enhancement determination unit 403 determines that the image quality enhancement engine cannot process the input image based on these shooting conditions, the process proceeds to step S550. Note that even if it is determined that the input image cannot be processed based on some of the imaging region, imaging method, and imaging angle of view, depending on the settings and implementation of the image processing apparatus 400, in step S540 Image quality improvement processing may be performed.

処理がステップS540に移行すると、図11に示される本実施形態に係る高画質化処理が開始される。本実施形態に係る高画質化処理では、まず、ステップS1110において、高画質化部404が、入力画像を教師データについて設定された一定の解像度となるように拡大又は縮小し、変形画像を生成する。 When the process moves to step S540, the image quality enhancement process according to this embodiment shown in FIG. 11 is started. In the image quality enhancement process according to the present embodiment, first, in step S1110, the image quality enhancement unit 404 enlarges or reduces the input image to a certain resolution set for the teacher data, and generates a deformed image. .

次に、ステップS1120において、高画質化部404は、生成した変形画像について、教師データについて設定された画像サイズとなるように、パディングを行ってパディング画像を生成する。この際、高画質化部404は、パディングを行う領域について、効果的に高画質化できるように機械学習モデルの特性に合わせて、一定の画素値で埋めたり、近傍画素値で埋めたり、ミラーパディングしたりする。 Next, in step S1120, the image quality enhancing unit 404 generates a padding image by padding the generated deformed image so as to have the image size set for the teacher data. At this time, the image quality enhancement unit 404 fills the area to be padded with a constant pixel value, with neighboring pixel values, or with a mirror pixel value in accordance with the characteristics of the machine learning model so as to effectively improve the image quality. padding.

ステップS1130では、高画質化部404がパディング画像を高画質化エンジンに入力し高画質化された高画質なパディング画像を取得する。 In step S1130, the image quality enhancement unit 404 inputs the padding image to the image quality enhancement engine to obtain a high image quality padding image.

次に、ステップS1140において、高画質化部404は、高画質なパディング画像について、ステップS1120でパディングを行った領域分だけトリミングを行い、高画質な変形画像を生成する。 Next, in step S1140, the image quality enhancing unit 404 trims the high image quality padded image by the area padded in step S1120 to generate a high image quality deformed image.

その後、ステップS1150において、高画質化部404は、高画質な変形画像を入力画像の画像サイズに縮小又は拡大し、高画質画像を生成する。高画質化部404がステップS1130において高画質画像を生成したら、本実施形態に係る高画質化処理は終了し、処理はステップS550に移行する。ステップS550の処理は、第1の実施形態のステップS550と同様であるため説明を省略する。 After that, in step S1150, the image quality enhancing unit 404 reduces or enlarges the high quality deformed image to the image size of the input image to generate a high quality image. After the image quality improving unit 404 generates the high quality image in step S1130, the image quality improving process according to the present embodiment ends, and the process proceeds to step S550. Since the process of step S550 is the same as that of step S550 of the first embodiment, the description thereof is omitted.

上記のように、本実施形態による高画質化部404は、入力画像の解像度が所定の解像度となるように、入力画像の画像サイズを調整する。また、高画質化部404は、画像サイズが調整された入力画像について、調整された画像サイズが高画質化エンジンによって対処可能な画像サイズとなるように、パディングを行ったパディング画像を生成し、パディング画像を高画質化エンジンに入力する。その後、高画質化部404は、高画質化エンジンからの出力画像について、パディングを行った領域分だけトリミングを行う。そして、高画質化部404は、トリミングが行われた画像の画像サイズを、入力画像の元の画像サイズに調整することで高画質画像を生成する。 As described above, the image quality enhancing unit 404 according to the present embodiment adjusts the image size of the input image so that the resolution of the input image becomes a predetermined resolution. Further, the image quality enhancement unit 404 generates a padded image by padding the input image whose image size has been adjusted so that the adjusted image size becomes an image size that can be handled by the image quality enhancement engine, Input the padding image to the image quality enhancement engine. After that, the image quality enhancement unit 404 trims the output image from the image quality enhancement engine by the padding area. Then, the image quality enhancing unit 404 generates a high quality image by adjusting the image size of the trimmed image to the original image size of the input image.

これにより、本実施形態の高画質化部404は、第1の実施形態では対処できなかった画像サイズの入力画像であっても、高画質化エンジンによって高画質化して高画質画像を生成することができる。また、解像度を基準とした教師データで学習した高画質化エンジンを用いることで、単純に同一な画像サイズの画像を処理する第4の実施形態に係る高画質化エンジンよりも、効率よく入力画像を高画質化できる場合がある。 As a result, the image quality enhancing unit 404 of the present embodiment can generate a high quality image by enhancing the image quality using the image quality enhancing engine even for an input image having an image size that could not be handled in the first embodiment. can be done. In addition, by using an image quality improvement engine that has learned from training data based on resolution, input images can be obtained more efficiently than the image quality improvement engine according to the fourth embodiment, which simply processes images of the same image size. may be able to improve the image quality.

なお、出力部405は、第1の実施形態と同様に、生成された高画質画像を撮影装置10や画像処理装置400に接続される他の装置に出力してもよい。また、高画質化エンジンの教師データの出力データは、第1の実施形態と同様に、重ね合わせ処理を行った高画質画像に限られない。すなわち、重ね合わせ処理やMAP推定処理、平滑化フィルタ処理、階調変換処理、高性能な撮影装置を用いた撮影、高コストな処理、ノイズ低減処理といった処理群や撮影方法のうち、少なくとも一つを行うことによって得られた高画質画像を用いてもよい。 Note that the output unit 405 may output the generated high-quality image to another device connected to the imaging device 10 or the image processing device 400, as in the first embodiment. Also, the output data of the training data from the image quality improvement engine is not limited to the high quality image that has undergone the superimposition process, as in the first embodiment. That is, at least one of a processing group and a photographing method such as superimposition processing, MAP estimation processing, smoothing filter processing, gradation conversion processing, photographing using a high-performance photographing device, high-cost processing, and noise reduction processing. You may use the high quality image obtained by performing.

<第6の実施形態>
次に、図4、5、12及び13を参照して、第6の実施形態に係る画像処理装置について説明する。本実施形態では、高画質化部が、入力画像を一定の画像サイズの領域毎に高画質化することにより高画質画像を生成する。
<Sixth embodiment>
Next, an image processing apparatus according to a sixth embodiment will be described with reference to FIGS. In the present embodiment, the image quality enhancing unit generates a high quality image by enhancing the image quality of the input image for each area of a certain image size.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第1の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第1の実施形態に係る画像処理装置との違いを中心として説明する。なお、本実施形態に係る画像処理装置の構成は、第1の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。 Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the first embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below, focusing on the differences from the image processing apparatus according to the first embodiment. Note that the configuration of the image processing apparatus according to this embodiment is the same as that of the image processing apparatus according to the first embodiment, so the same reference numerals are used for the configuration shown in FIG. do.

本実施形態に係る高画質化部404には、第1の実施形態と同様の、高画質化エンジンが備えられている。ただし、本実施形態では、高画質化エンジンの学習に用いる教師データが第1の実施形態における教師データと異なる。具体的には、教師データを構成する、低画質画像である入力データと高画質画像である出力データとのペア群を、低画質画像及び高画質画像における、位置関係が対応する一定の画像サイズの矩形領域画像によって構成している。 The image quality enhancement unit 404 according to the present embodiment includes an image quality enhancement engine similar to that of the first embodiment. However, in this embodiment, the teacher data used for learning of the image quality enhancement engine is different from the teacher data in the first embodiment. Specifically, a group of pairs of low-quality image input data and high-quality image output data, which constitutes training data, is set to a fixed image size corresponding to the positional relationship between the low-quality image and the high-quality image. It consists of a rectangular area image of

ここで、図12を参照して、本実施形態に係る高画質化エンジンの教師データについて説明する。図12に示すように、教師データを構成するペア群の一つに、例えば、低画質画像である元画像Im1210と、高画質画像である重ね合わせ画像Im1220があるとした場合を考える。この場合、第1の実施形態においては、教師データの入力データをIm1210、出力データをIm1220とした。 Now, with reference to FIG. 12, the teacher data of the image quality enhancement engine according to this embodiment will be described. As shown in FIG. 12, let us consider a case where, for example, one pair group forming the teacher data includes an original image Im1210, which is a low-quality image, and a superimposed image Im1220, which is a high-quality image. In this case, in the first embodiment, the input data of the teacher data is Im1210, and the output data is Im1220.

これに対し、本実施形態においては、元画像Im1210のうちの矩形領域画像R1211を入力データとし、重ね合わせ画像Im1220において矩形領域画像R1211と同じ撮影領域である矩形領域画像R1221を出力データとする。そして、入力データである矩形領域画像R1211と出力データである矩形領域画像R1221によって教師データのペア(以下、第1の矩形領域画像ペア)を構成する。ここで、矩形領域画像R1211と矩形領域画像R1221は、一定の画像サイズの画像とされる。なお、元画像Im1210と重ね合わせ画像Im1220は任意の方法により位置合わせされてよい。また、矩形領域画像R1211と矩形領域画像R1221の対応する位置関係はテンプレートマッチングなどの任意の方法によって特定されてよい。なお、高画質化エンジンの設計によっては、入力データと出力データの、それぞれの画像サイズや次元数は異なっていてもよい。例えば、処理対象がOCTの画像である場合に、入力データがBスキャン画像(二次元画像)の一部であるとき、出力データがAスキャン画像(一次元画像)の一部であってもよい。 In contrast, in this embodiment, the rectangular area image R1211 of the original image Im1210 is used as input data, and the rectangular area image R1221, which is the same imaging area as the rectangular area image R1211 in the superimposed image Im1220, is used as output data. Then, a rectangular area image R1211 as input data and a rectangular area image R1221 as output data form a teacher data pair (hereinafter referred to as a first rectangular area image pair). Here, the rectangular area image R1211 and the rectangular area image R1221 are images of a fixed image size. Note that the original image Im1210 and the superimposed image Im1220 may be aligned by any method. Further, the corresponding positional relationship between the rectangular area image R1211 and the rectangular area image R1221 may be identified by any method such as template matching. Note that the image size and the number of dimensions of the input data and the output data may be different depending on the design of the image quality enhancement engine. For example, when the processing target is an OCT image, and the input data is part of a B-scan image (two-dimensional image), the output data may be part of an A-scan image (one-dimensional image). .

矩形領域画像R1211,R1221に関する一定の画像サイズは、例えば、処理対象(入力画像)として想定される画像の画像サイズ群について、対応する各次元の画素数群の公約数から決定することができる。この場合には、高画質化エンジンが出力する矩形領域画像群の位置関係が重なることを防ぐことができる。具体的に、例えば、処理対象として想定される画像が二次元画像であり、画像サイズ群のうちの第1の画像サイズが幅500画素、高さ500画素であり、第2の画像サイズが幅100画素、高さ100画素である場合を考える。ここで、各辺の公約数から、矩形領域画像R1211,R1221に関する一定の画像サイズを選択する。この場合には、例えば、一定の画像サイズを、幅100画素、高さ100画素や、幅50画素、高さ50画素や、幅25画素、高さ25画素等から選択する。 A fixed image size for the rectangular area images R1211 and R1221 can be determined from a common divisor of the number of pixels in each dimension corresponding to a group of image sizes of images assumed to be processed (input images), for example. In this case, it is possible to prevent the positional relationship of the rectangular area image groups output by the image quality enhancement engine from overlapping. Specifically, for example, the image assumed to be processed is a two-dimensional image, the first image size in the image size group is 500 pixels wide and 500 pixels high, and the second image size is 500 pixels wide and 500 pixels high. Consider the case of 100 pixels and 100 pixels high. Here, a certain image size is selected for the rectangular area images R1211 and R1221 from the common divisor of each side. In this case, for example, a fixed image size is selected from 100 pixels wide and 100 pixels high, 50 pixels wide and 50 pixels high, and 25 pixels wide and 25 pixels high.

処理対象として想定される画像が三次元である場合には、幅、高さ、奥行きに関して画素数を決定する。なお、矩形領域は、入力データに対応する低画質画像と出力データに対応する高画質画像のペアの一つに対して、複数設定可能である。このため、例えば、元画像Im1210のうちの矩形領域画像R1212を入力データ、重ね合わせ画像Im1220において矩形領域画像R1212と同じ撮影領域である矩形領域画像R1222を出力データとする。そして、入力データである矩形領域画像R1212と出力データである矩形領域画像R1222によって教師データのペアを構成する。これにより、第1の矩形領域画像ペアとは別の矩形領域画像ペアを作成できる。 When the image assumed to be processed is three-dimensional, the number of pixels is determined with respect to width, height, and depth. A plurality of rectangular areas can be set for one pair of a low-quality image corresponding to input data and a high-quality image corresponding to output data. Therefore, for example, the rectangular area image R1212 in the original image Im1210 is used as input data, and the rectangular area image R1222, which is the same imaging area as the rectangular area image R1212 in the superimposed image Im1220, is used as output data. The rectangular area image R1212 as input data and the rectangular area image R1222 as output data form a pair of teacher data. Thereby, a rectangular area image pair different from the first rectangular area image pair can be created.

なお、矩形領域の画像を異なる座標の画像に変えながら多数の矩形領域画像のペアを作成することで教師データを構成するペア群を充実させることができ、当該教師ペアを用いて学習を行った高画質化エンジンによって効率的な高画質化が期待できる。ただし、機械学習モデルの高画質化に寄与しないペアは教師データに加えないようにすることができる。例えば、ペアを構成する出力データである高画質画像から作成した矩形領域画像が診断に適さない画質である場合には、そのような教師データを用いて学習を行った高画質化エンジンが出力する画像も画像診断に適さない画質になってしまう可能性がある。そのため、そのような高画質画像を含むペアを教師データから取り除くことができる。 By creating a large number of pairs of rectangular area images while changing the image of the rectangular area to an image with different coordinates, the pair group that constitutes the teacher data can be enriched, and learning was performed using the teacher pair. Efficient image quality improvement can be expected with the image quality improvement engine. However, pairs that do not contribute to improving the image quality of the machine learning model can be prevented from being added to the training data. For example, if the image quality of a rectangular area image created from high-quality images that constitute a pair of output data is not suitable for diagnosis, an image quality improvement engine that has learned using such teacher data will output The image may also be of unsuitable quality for diagnostic imaging. Therefore, pairs containing such high-quality images can be removed from the training data.

また、例えば、ペアである、低画質画像から作成した矩形領域画像と高画質画像から作成した矩形領域画像の平均輝度や輝度分布が大きく異なる場合も、そのようなペアを教師データから取り除くことができる。そのような教師データを用いて学習を行うと、高画質化エンジンが入力画像と大きく異なる輝度分布を持つ画像診断に適さない画像を出力してしまう可能性がある。 Also, for example, even if the pair of rectangular area images created from a low-quality image and a rectangular area image created from a high-quality image differ greatly in average luminance or luminance distribution, such a pair can be removed from the training data. can. If learning is performed using such teacher data, there is a possibility that the image quality enhancement engine will output an image that is not suitable for image diagnosis and has a brightness distribution that is significantly different from that of the input image.

さらに、例えば、ペアである、低画質画像から作成した矩形領域画像と高画質画像から作成した矩形領域画像とに描画される撮影対象の構造や位置が大きく異なる場合を考える。この場合には、そのような教師データを用いて学習を行った高画質化エンジンが入力画像と大きく異なる構造や位置に撮影対象を描画した画像診断に適さない画像を出力してしまう可能性がある。そのため、このようなペアを教師データから取り除くこともできる。 Further, for example, consider a case where the structures and positions of the imaging targets drawn in the pair of rectangular area images created from the low-quality image and the rectangular area image created from the high-quality image are significantly different. In this case, there is a possibility that the image quality improvement engine that has learned using such training data will output an image that is not suitable for image diagnosis, in which the imaging target is drawn in a structure or position that is significantly different from the input image. be. Therefore, such pairs can be removed from the training data.

なお、第1の実施形態と同様に、教師データの入力データには、処理対象として想定される特定の撮影条件を持つ画像を用いるが、当該特定の撮影条件は、予め決定された撮影部位、撮影方式、及び撮影画角である。つまり、本実施形態に係る当該特定の撮影条件には、第1の実施形態と異なり、画像サイズは含まれない。 As in the first embodiment, an image having specific imaging conditions assumed to be processed is used as the input data of the teacher data. The photographing method and the photographing angle of view. That is, unlike the first embodiment, the specific imaging conditions according to this embodiment do not include the image size.

本実施形態に係る高画質化部404は、このような教師データで学習が行われた高画質化エンジンを用いて、入力画像を高画質化して高画質画像を生成する。この際、高画質化部404は、入力された画像を、隙間なく連続する、教師データについて設定された一定の画像サイズの矩形領域画像群に分割する。高画質化部404は、分割した矩形領域画像群のそれぞれを高画質化エンジンにより高画質化し、高画質な矩形領域画像群を生成する。その後、高画質化部404は、生成した高画質な矩形領域画像群を、入力画像の位置関係に応じて配置して結合し、高画質画像を生成する。 The image quality enhancement unit 404 according to the present embodiment uses the image quality enhancement engine trained with such teacher data to enhance the image quality of the input image to generate a high quality image. At this time, the image quality enhancing unit 404 divides the input image into a group of rectangular area images which are continuous without gaps and have a constant image size set for the teacher data. The image quality enhancing unit 404 enhances the image quality of each divided rectangular area image group by an image quality enhancing engine to generate a high quality rectangular area image group. Thereafter, the image quality enhancing unit 404 arranges and combines the generated high image quality rectangular area images according to the positional relationship of the input image to generate a high image quality image.

このように、本実施形態の高画質化部404は、入力された画像を矩形領域単位で高画質化し、高画質化した画像を結合することで、第1の実施形態では対処できなかった画像サイズの画像をも高画質化して高画質画像を生成することができる。 As described above, the image quality enhancing unit 404 of the present embodiment enhances the image quality of the input image in units of rectangular areas, and combines the images having the enhanced image quality. A high-quality image can be generated by increasing the image quality of an image of the same size.

次に、図5、13及び14を参照して、本実施形態に係る一連の画像処理について説明する。図13は、本実施形態に係る高画質化処理のフロー図である。なお、本実施形態に係るステップS510、ステップS520、及びステップS550の処理は、第1の実施形態におけるこれらの処理と同様であるため、説明を省略する。なお、入力画像に対して、画像サイズ以外の撮影条件について無条件で高画質化する場合には、ステップS520の処理の後に、ステップS530の処理を省き、処理をステップS540に移行してよい。 Next, a series of image processing according to this embodiment will be described with reference to FIGS. FIG. 13 is a flowchart of image quality enhancement processing according to this embodiment. Note that the processes of steps S510, S520, and S550 according to the present embodiment are the same as those processes in the first embodiment, and thus description thereof is omitted. Note that if the image quality of the input image is to be improved unconditionally with regard to shooting conditions other than the image size, the process of step S530 may be omitted after the process of step S520, and the process may proceed to step S540.

ステップS520において、第1の実施形態と同様に、撮影条件取得部402が入力画像の撮影条件群を取得したら、処理はステップS530に移行する。ステップS530では、高画質化可否判定部403が、取得された撮影条件群を用いて、高画質化部404に備える高画質化エンジンが入力画像を対処可能であるか否かを判定する。具体的には、高画質化可否判定部403は、入力画像の撮影条件について、高画質化エンジンが対処可能な、撮影部位、撮影方式、及び撮影画角であるか否かを判定する。高画質化可否判定部403は、第1の実施形態と異なり、画像サイズは判定しない。 In step S520, as in the first embodiment, after the imaging condition acquisition unit 402 acquires the imaging condition group of the input image, the process proceeds to step S530. In step S530, the image quality enhancement determination unit 403 determines whether or not the image quality enhancement engine provided in the image quality enhancement unit 404 can handle the input image using the acquired imaging condition group. Specifically, the image quality enhancement determination unit 403 determines whether or not the imaging conditions of the input image are the imaging region, the imaging method, and the imaging angle of view that can be handled by the image quality enhancement engine. Unlike the first embodiment, the image quality enhancement determination unit 403 does not determine the image size.

高画質化可否判定部403が、撮影部位、撮影方式、及び撮影画角について判定し、入力画像が対処可能と判定された場合には、処理はステップS540に移行する。一方、高画質化可否判定部403が、これら撮影条件に基づいて、高画質化エンジンが入力画像を対処不可能であると判定した場合には、処理はステップS550に移行する。なお、画像処理装置400の設定や実装形態によっては、撮影部位、撮影方式、及び撮影画角のうちの一部に基づいて入力画像が処理不可能であると判定されたとしても、ステップS540における高画質化処理が実施されてもよい。 The image quality enhancement determination unit 403 determines the imaging region, imaging method, and imaging angle of view, and if it is determined that the input image can be handled, the process proceeds to step S540. On the other hand, if the image quality enhancement determination unit 403 determines that the image quality enhancement engine cannot process the input image based on these shooting conditions, the process proceeds to step S550. Note that even if it is determined that the input image cannot be processed based on some of the imaging region, imaging method, and imaging angle of view, depending on the settings and implementation of the image processing apparatus 400, in step S540 Image quality improvement processing may be performed.

処理がステップS540に移行すると、図13に示される本実施形態に係る高画質化処理が開始される。本実施形態に係る高画質化処理では、まず、ステップS1310において、図14に示すように、入力画像を隙間なく連続する、教師データについて設定された一定の画像サイズの矩形領域画像群に分割する。ここで、図14は、入力画像Im1410を一定の画像サイズの矩形領域画像R1411~R1426群に分割した一例を示す。なお、上述のよぅに、高画質化エンジンの設計によっては、高画質化エンジンの入力画像と出力画像の、それぞれの画像サイズや次元数が異なってもよい。この場合には、ステップS1320において生成される結合された高画質画像に欠損が無いように、入力画像の分割位置を重複させたり、分離させたりして、調整することができる。 When the process proceeds to step S540, the image quality enhancement process according to this embodiment shown in FIG. 13 is started. In the image quality enhancement process according to the present embodiment, first, in step S1310, as shown in FIG. 14, the input image is divided into a group of rectangular area images of a constant image size set for the teacher data, which are continuous without gaps. . Here, FIG. 14 shows an example of dividing the input image Im1410 into a group of rectangular area images R1411 to R1426 each having a fixed image size. As described above, depending on the design of the image quality enhancement engine, the image size and the number of dimensions of the input image and the output image of the image quality enhancement engine may be different. In this case, the division positions of the input image can be overlapped or separated to adjust so that the combined high-quality image generated in step S1320 has no defect.

次に、ステップS1320において、高画質化部404は、矩形領域画像R1411~R1426群のそれぞれを高画質化エンジンにより高画質化し、高画質な矩形領域画像群を生成する。 Next, in step S1320, the image quality enhancing unit 404 enhances the image quality of each of the rectangular area images R1411 to R1426 by the image quality enhancing engine to generate a group of high image quality rectangular area images.

そして、ステップS1330において、高画質化部404は、生成した高画質な矩形領域画像群のそれぞれを、入力画像について分割した矩形領域画像R1411~R1426群のそれぞれと同様の位置関係に配置して結合し、高画質画像を生成する。 Then, in step S1330, the image quality enhancing unit 404 arranges and joins each of the generated high-quality rectangular area images R1411 to R1426 in the same positional relationship as each of the rectangular area images R1411 to R1426 obtained by dividing the input image. and produce high-quality images.

上記のように、本実施形態に係る高画質化部404は、入力画像を所定の画像サイズの複数の矩形領域画像(第3の画像)R1411~R1426に分割する。その後、高画質化部404は、分割した複数の矩形領域画像R1411~R1426を高画質化エンジンに入力して複数の第4の画像を生成し、複数の第4の画像を統合することで、高画質画像を生成する。なお、統合時に矩形領域群間で位置関係が重なる場合には、該矩形領域群の画素値群を統合したり、上書きしたりすることができる。 As described above, the image quality enhancing unit 404 according to the present embodiment divides an input image into a plurality of rectangular area images (third images) R1411 to R1426 each having a predetermined image size. After that, the image quality enhancement unit 404 inputs the plurality of divided rectangular area images R1411 to R1426 to the image quality enhancement engine to generate a plurality of fourth images, and integrates the plurality of fourth images, Produce high quality images. Note that if the positional relationship between the rectangular area groups overlaps at the time of integration, the pixel value groups of the rectangular area groups can be integrated or overwritten.

これにより、本実施形態の高画質化部404は、第1の実施形態では対処できなかった画像サイズの入力画像であっても、高画質化エンジンによって高画質化して高画質画像を生成することができる。また、教師データを、低画質画像及び高画質画像を所定の画像サイズに分割した複数の画像から作成すると、少ない画像から多くの教師データを作成することができる。そのため、この場合には、教師データを作成するための低画質画像及び高画質画像の数を少なくすることができる。 As a result, the image quality enhancing unit 404 of the present embodiment can generate a high quality image by enhancing the image quality using the image quality enhancing engine even for an input image having an image size that could not be handled in the first embodiment. can be done. Also, if the teacher data is created from a plurality of images obtained by dividing the low-quality image and the high-quality image into predetermined image sizes, a large amount of teacher data can be created from a small number of images. Therefore, in this case, the number of low-quality images and high-quality images for creating teacher data can be reduced.

なお、出力部405は、第1の実施形態と同様に、生成された高画質画像を撮影装置10や画像処理装置400に接続される他の装置に出力してもよい。また、高画質化エンジンの教師データの出力データは、第1の実施形態と同様に、重ね合わせ処理を行った高画質画像に限られない。すなわち、重ね合わせ処理やMAP推定処理、平滑化フィルタ処理、階調変換処理、高性能な撮影装置を用いた撮影、高コストな処理、ノイズ低減処理といった処理群や撮影方法のうち、少なくとも一つを行うことによって得られた高画質画像を用いてもよい。 Note that the output unit 405 may output the generated high-quality image to another device connected to the imaging device 10 or the image processing device 400, as in the first embodiment. Also, the output data of the training data from the image quality improvement engine is not limited to the high quality image that has undergone the superimposition process, as in the first embodiment. That is, at least one of a processing group and a photographing method such as superimposition processing, MAP estimation processing, smoothing filter processing, gradation conversion processing, photographing using a high-performance photographing device, high-cost processing, and noise reduction processing. You may use the high quality image obtained by performing.

<第7の実施形態>
次に、図15~17を参照して、第7の実施形態に係る画像処理装置について説明する。本実施形態では、画質評価部が、検者の指示に応じて、複数の高画質化エンジンから出力された複数の高画質画像のうち最も高画質な画像を選択する。
<Seventh embodiment>
Next, an image processing apparatus according to a seventh embodiment will be described with reference to FIGS. 15 to 17. FIG. In this embodiment, the image quality evaluation unit selects the highest image quality image among the plurality of high image quality images output from the plurality of image quality enhancement engines according to the examiner's instruction.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第1の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第1の実施形態に係る画像処理装置との違いを中心として説明する。 Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the first embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below, focusing on the differences from the image processing apparatus according to the first embodiment.

図15は、本実施形態に係る画像処理装置1500の概略的な構成を示す。本実施形態に係る画像処理装置1500には、取得部401、撮影条件取得部402、高画質化可否判定部403、高画質化部404、及び出力部405に加えて、画質評価部1506が設けられている。なお、画像処理装置1500は、これら構成要素のうちの一部が設けられた複数の装置で構成されてもよい。ここで、取得部401、撮影条件取得部402、高画質化可否判定部403、高画質化部404、及び出力部405は、第1の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。 FIG. 15 shows a schematic configuration of an image processing apparatus 1500 according to this embodiment. The image processing apparatus 1500 according to the present embodiment includes an image quality evaluation unit 1506 in addition to the acquisition unit 401, the imaging condition acquisition unit 402, the image quality enhancement determination unit 403, the image quality enhancement unit 404, and the output unit 405. It is Note that the image processing apparatus 1500 may be composed of a plurality of apparatuses provided with some of these components. Here, the acquisition unit 401, the imaging condition acquisition unit 402, the image quality enhancement determination unit 403, the image quality enhancement unit 404, and the output unit 405 are the same as those of the image processing apparatus according to the first embodiment. , are denoted by the same reference numerals as those shown in FIG. 4, and the description thereof is omitted.

また、画像処理装置1500は、第1の実施形態に係る画像処理装置400と同様に撮影装置10、表示部20及び不図示の他の装置と、任意の回路やネットワークを介して接続されてよい。また、これらの装置は、他の任意の装置と回路やネットワークを介して接続されてもよいし、他の任意の装置と一体的に構成されてもよい。なお、これらの装置は本実施形態では別個の装置とされているが、これらの装置の一部又は全部を一体的に構成してもよい。 Further, the image processing device 1500 may be connected to the imaging device 10, the display unit 20, and other devices (not shown) via arbitrary circuits and networks, similarly to the image processing device 400 according to the first embodiment. . Also, these devices may be connected to any other device via a circuit or network, or may be integrally configured with any other device. Although these devices are separate devices in this embodiment, some or all of these devices may be integrally configured.

本実施形態に係る高画質化部404には、それぞれ異なる教師データを用いて機械学習が行われた二つ以上の高画質化エンジンが備えられている。ここで、本実施形態に係る教師データ群の作成方法について説明する。具体的には、まず、様々な撮影条件によって撮影された、低画質画像である入力データと高画質画像である出力データのペア群を用意する。次に、任意の撮影条件の組み合わせによってペア群をグルーピングすることで、教師データ群を作成する。例えば、第1の撮影条件の組み合わせによって取得されたペア群で構成される第1の教師データ、第2の撮影条件の組み合わせによって取得されたペア群で構成される第2の教師データというように、教師データ群として作成する。 The image quality enhancement unit 404 according to the present embodiment includes two or more image quality enhancement engines for which machine learning is performed using different teacher data. Here, a method of creating a teacher data group according to this embodiment will be described. Specifically, first, a group of pairs of input data, which is a low-quality image, and output data, which is a high-quality image, shot under various shooting conditions is prepared. Next, a teacher data group is created by grouping the pair groups according to an arbitrary combination of imaging conditions. For example, first teacher data composed of a pair group acquired by a combination of first imaging conditions, second teacher data composed of a pair group acquired by a combination of second imaging conditions, and so on. , is created as a training data group.

その後、各教師データを用いて別々の高画質化エンジンに機械学習を行わせる。例えば、第1の教師データでトレーニングされた機械学習モデルに対応する第1の高画質化エンジン、第2の教師データでトレーニングされた機械学習モデルに対応する第2の高画質化エンジンというように高画質化エンジン群を用意する。 After that, each training data is used to cause a separate image quality enhancement engine to perform machine learning. For example, a first high image quality engine corresponding to the machine learning model trained with the first teacher data, a second high image quality engine corresponding to the machine learning model trained with the second teacher data, and so on. Prepare a group of high image quality engines.

このような高画質化エンジンは、それぞれ対応する機械学習モデルのトレーニングに用いた教師データが異なるため、高画質化エンジンに入力される画像の撮影条件によって、入力画像を高画質化できる程度が異なる。具体的には、第1の高画質化エンジンは、第1の撮影条件の組み合わせで撮影して取得された入力画像に対しては高画質化の程度が高く、第2の撮影条件の組み合わせで撮影して取得された画像に対しては高画質化の程度が低い。同様に、第2の高画質化エンジンは、第2の撮影条件で撮影して取得された入力画像に対しては高画質化の程度が高く、第1の撮影条件で撮影して取得された画像に対しては高画質化の程度が低い。 Since each image quality enhancement engine uses different training data for training the corresponding machine learning model, the degree to which the input image can be enhanced differs depending on the shooting conditions of the image input to the image quality enhancement engine. . Specifically, the first image quality improvement engine increases the degree of image quality improvement with respect to the input image acquired by photographing under the first combination of photographing conditions, and increases the degree of image quality improvement with the second combination of photographing conditions. The degree of improvement in image quality is low for an image obtained by photographing. Similarly, the second image quality improvement engine has a high degree of image quality improvement with respect to the input image acquired by shooting under the second shooting conditions, and the image quality enhancement engine acquired by shooting under the first shooting conditions. The degree of high image quality is low for images.

教師データのそれぞれが撮影条件の組み合わせによってグルーピングされたペア群で構成されることにより、該ペア群を構成する画像群の画質傾向が似る。このため、高画質化エンジンは対応する撮影条件の組み合わせであれば、第1の実施形態に係る高画質化エンジンよりも効果的に高画質化を行うことができる。なお、教師データのペアをグルーピングするための撮影条件の組み合わせは、任意であってよく、例えば、撮影部位、撮影画角、及び画像の解像度のうちの二つ以上の組み合わせであってよい。また、教師データのグルーピングを、第2の実施形態と同様に、一つの撮影条件に基づいて行ってもよい。 Each of the teacher data is composed of a pair group grouped according to a combination of shooting conditions, so that the image quality tendencies of the image groups forming the pair group are similar. For this reason, the image quality enhancement engine can improve image quality more effectively than the image quality enhancement engine according to the first embodiment, provided that the corresponding shooting conditions are combined. Note that the combination of imaging conditions for grouping pairs of teacher data may be arbitrary, and may be, for example, a combination of two or more of the imaging region, imaging angle of view, and image resolution. Also, grouping of teacher data may be performed based on one imaging condition, as in the second embodiment.

画質評価部1506は、高画質化部404が、複数の高画質化エンジンを用いて生成した複数の高画質画像について、検者の指示に応じて、最も画質の高い高画質画像を選択する。 The image quality evaluation unit 1506 selects a high quality image having the highest image quality from among the plurality of high quality images generated by the image quality enhancement unit 404 using a plurality of image quality enhancement engines, according to an instruction from the examiner.

出力部405は、画質評価部1506が選択した高画質画像を表示部20に表示させたり、他の装置に出力したりすることができる。なお、出力部405は、高画質化部404が生成した複数の高画質画像を表示部20に表示させることができ、画質評価部1506は、表示部20を確認した検者からの指示に応じて最も画質の高い高画質画像を選択することができる。 The output unit 405 can display the high-quality image selected by the image quality evaluation unit 1506 on the display unit 20 or output it to another device. Note that the output unit 405 can display a plurality of high-quality images generated by the image quality enhancement unit 404 on the display unit 20, and the image quality evaluation unit 1506 performs A high-quality image with the highest image quality can be selected by

これにより、画像処理装置1500は、複数の高画質化エンジンを用いて生成された複数の高画質画像のうち、検者の指示に応じた最も画質の高い高画質画像を出力することができる。 Accordingly, the image processing apparatus 1500 can output the highest quality image according to the examiner's instruction, among the plurality of high quality images generated using the plurality of image quality enhancement engines.

以下、図16及び17を参照して、本実施形態に係る一連の画像処理について説明する。図16は、本実施形態に係る一連の画像処理のフロー図である。なお、本実施形態に係るステップS1610及びステップS1620の処理は、第1の実施形態におけるステップS510及びステップS520での処理と同様であるため、説明を省略する。なお、入力画像に対して、撮影条件について無条件で高画質化する場合には、ステップS1620の処理の後に、ステップS1630の処理を省き、処理をステップS1640に移行してよい。 A series of image processing according to this embodiment will be described below with reference to FIGS. FIG. 16 is a flowchart of a series of image processing according to this embodiment. Note that the processing of steps S1610 and S1620 according to the present embodiment is the same as the processing of steps S510 and S520 according to the first embodiment, and thus description thereof is omitted. Note that if the image quality of the input image is to be improved unconditionally with respect to the shooting conditions, the process of step S1630 may be omitted after the process of step S1620, and the process may proceed to step S1640.

ステップS1620において、第1の実施形態と同様に、撮影条件取得部402が入力画像の撮影条件群を取得したら、処理はステップS1630に移行する。ステップS1630では、高画質化可否判定部403が、第2の実施形態と同様に、取得された撮影条件群を用いて、高画質化部404に備える高画質化エンジンのいずれかが入力画像を対処可能であるか否かを判定する。 In step S1620, similarly to the first embodiment, after the imaging condition acquisition unit 402 acquires the imaging condition group of the input image, the process proceeds to step S1630. In step S<b>1630 , the image quality enhancement determination unit 403 uses the acquired imaging condition group to determine whether any of the image quality enhancement engines provided in the image quality enhancement unit 404 selects an input image as in the second embodiment. Determine whether or not the problem can be dealt with.

高画質化可否判定部403が、高画質化エンジン群のいずれも入力画像を対処不可能であると判定した場合には、処理はステップS1660に移行する。一方で、高画質化可否判定部403が、高画質化エンジン群のいずれかが入力画像を対処可能であると判定した場合には、処理はステップS1640に移行する。なお、画像処理装置1500の設定や実装形態によっては、第1の実施形態と同様に、高画質化エンジンによって一部の撮影条件が対処不可能であると判定されたとしても、ステップS1640を実施してもよい。 If the image quality enhancement possibility determination unit 403 determines that none of the image quality enhancement engines can handle the input image, the process proceeds to step S1660. On the other hand, if the image quality improvement possibility determination unit 403 determines that any one of the image quality improvement engine group can handle the input image, the process proceeds to step S1640. It should be noted that, depending on the settings and implementation of the image processing apparatus 1500, as in the first embodiment, even if the image quality enhancement engine determines that some shooting conditions cannot be dealt with, step S1640 is executed. You may

ステップS1640においては、高画質化部404が、高画質化エンジン群のそれぞれにステップS1610において取得した入力画像を入力し、高画質画像群を生成する。 In step S1640, the image quality enhancement unit 404 inputs the input image acquired in step S1610 to each of the image quality enhancement engines to generate a high quality image group.

ステップS1650では、画質評価部1506が、ステップS1640において生成された高画質画像群のうち最も高画質な画像を選択する。具体的には、まず、出力部405が、ステップS1640で生成された高画質画像群を、表示部20のユーザーインターフェースに表示させる。 In step S1650, the image quality evaluation unit 1506 selects the highest image quality image from the high image quality image group generated in step S1640. Specifically, first, the output unit 405 causes the user interface of the display unit 20 to display the high-quality image group generated in step S1640.

ここで、図17に当該インターフェースの一例を示す。当該インターフェースには、入力画像Im1710、及び高画質化エンジン群のそれぞれが出力した高画質画像Im1720,Im1730,Im1740,Im1750のそれぞれが表示される。検者は不図示の任意の入力装置を操作して、画像群(高画質画像Im1720~Im1750)のうち、最も高画質、つまり、最も画像診断に適した画像を指示する。なお、高画質化エンジンによって高画質化していない入力画像の方が、画像診断に適している可能性もあるので、検者による指示の対象となる画像群に入力画像を加えてもよい。 Here, FIG. 17 shows an example of the interface. The interface displays an input image Im1710 and high-quality images Im1720, Im1730, Im1740, and Im1750 respectively output by the image quality improvement engine group. The examiner operates an arbitrary input device (not shown) to designate the image of the highest image quality, that is, the image most suitable for image diagnosis, out of the group of images (high-quality images Im1720 to Im1750). Since an input image that has not been enhanced in image quality by the image enhancement engine may be more suitable for image diagnosis, the input image may be added to the image group to be instructed by the examiner.

その後、画質評価部1506は、検者によって指示された高画質画像を最も高画質な画像として選択する。 After that, the image quality evaluation unit 1506 selects the high quality image designated by the examiner as the highest quality image.

ステップS1660においては、出力部405が、ステップS1650において選択された画像を表示部20に表示させたり、他の装置に出力したりする。ただし、ステップS1630において、入力画像が処理不可能であると判定されている場合には、出力部405は、入力画像を出力画像として出力する。なお、出力部405は、検者によって入力画像が指示された場合や、入力画像が処理不可能であった場合には、表示部20に出力画像が入力画像と同じであることを表示させてもよい。 In step S1660, the output unit 405 displays the image selected in step S1650 on the display unit 20 or outputs it to another device. However, if it is determined in step S1630 that the input image cannot be processed, the output unit 405 outputs the input image as the output image. When the examiner instructs the input image or when the input image cannot be processed, the output unit 405 causes the display unit 20 to display that the output image is the same as the input image. good too.

上記のように、本実施形態に係る高画質化部404は、複数の高画質化エンジンを用いて、入力画像から複数の高画質画像を生成し、画像処理装置1500の出力部405は、検者の指示に応じて、複数の高画質画像のうち少なくとも一つの画像を出力する。特に、本実施形態では、出力部405は、検者の指示に応じて、最も高画質な画像を出力する。これにより、画像処理装置1500は、複数の高画質化エンジンを用いて生成された複数の高画質画像のうち、検者の指示に応じた画質の高い高画質画像を出力することができる。 As described above, the image quality enhancement unit 404 according to the present embodiment uses a plurality of image quality enhancement engines to generate a plurality of high quality images from the input image, and the output unit 405 of the image processing apparatus 1500 outputs the detected image. At least one of a plurality of high-quality images is output according to an instruction from the user. In particular, in this embodiment, the output unit 405 outputs the highest quality image according to the examiner's instruction. Accordingly, the image processing apparatus 1500 can output a high quality image according to the examiner's instruction, among a plurality of high quality images generated using a plurality of image quality enhancement engines.

なお、出力部405は、第1の実施形態と同様に、生成された高画質画像を撮影装置10や画像処理装置1500に接続される他の装置に出力してもよい。また、高画質化エンジンの教師データの出力データは、第1の実施形態と同様に、重ね合わせ処理を行った高画質画像に限られない。すなわち、重ね合わせ処理やMAP推定処理、平滑化フィルタ処理、階調変換処理、高性能な撮影装置を用いた撮影、高コストな処理、ノイズ低減処理といった処理群や撮影方法のうち、少なくとも一つを行うことによって得られた高画質画像を用いてもよい。 Note that the output unit 405 may output the generated high-quality image to another device connected to the imaging device 10 or the image processing device 1500, as in the first embodiment. Also, the output data of the training data from the image quality improvement engine is not limited to the high quality image that has undergone the superimposition process, as in the first embodiment. That is, at least one of a processing group and a photographing method such as superimposition processing, MAP estimation processing, smoothing filter processing, gradation conversion processing, photographing using a high-performance photographing device, high-cost processing, and noise reduction processing. You may use the high quality image obtained by performing.

<第8の実施形態>
次に、図15及び16を参照して、第8の実施形態に係る画像処理装置について説明する。本実施形態では、画質評価部が、画質評価エンジンを用いて、複数の高画質化エンジンから出力された複数の高画質画像のうち最も高画質な画像を選択する。
<Eighth embodiment>
Next, an image processing apparatus according to an eighth embodiment will be described with reference to FIGS. 15 and 16. FIG. In this embodiment, the image quality evaluation unit uses the image quality evaluation engine to select the image with the highest image quality from among the plurality of high quality images output from the plurality of image quality enhancement engines.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第7の実施形態に係る画像処理装置1500と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第7の実施形態に係る画像処理装置との違いを中心として説明する。なお、本実施形態に係る画像処理装置の構成は、第7の実施形態に係る画像処理装置の構成と同様であるため、図15に示す構成について同一の参照符号を用いて示し、説明を省略する。 Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 1500 according to the seventh embodiment. Therefore, in the following description, the image processing apparatus according to this embodiment will be described with a focus on the differences from the image processing apparatus according to the seventh embodiment. Note that the configuration of the image processing apparatus according to this embodiment is the same as the configuration of the image processing apparatus according to the seventh embodiment, so the same reference numerals are used for the configuration shown in FIG. 15, and description thereof is omitted. do.

本実施形態に係る画質評価部1506には、入力された画像の画質を評価する画質評価エンジンが備えられている。画質評価エンジンは入力された画像に対する画質評価指数を出力する。本実施形態に係る画質評価エンジンにおいて画質評価指数を算出する画質評価処理手法は、機械学習アルゴリズムを用いて構築した機械学習モデルを用いる。機械学習モデルをトレーニングする教師データを構成するペアの入力データは、事前に様々な撮影条件によって撮影された低画質画像群と高画質画像群とで構成される画像群である。また、機械学習モデルをトレーニングする教師データを構成するペアの出力データは、例えば、画像診断を行う検者が入力データの画像群のそれぞれについて設定した画質評価指数群である。 The image quality evaluation unit 1506 according to this embodiment includes an image quality evaluation engine that evaluates the image quality of the input image. The image quality evaluation engine outputs an image quality evaluation index for the input image. The image quality evaluation processing method for calculating the image quality evaluation index in the image quality evaluation engine according to this embodiment uses a machine learning model constructed using a machine learning algorithm. A pair of input data constituting teacher data for training a machine learning model is an image group composed of a low-quality image group and a high-quality image group captured in advance under various shooting conditions. A pair of output data constituting teacher data for training a machine learning model is, for example, an image quality evaluation index group set for each image group of input data by an examiner who performs image diagnosis.

次に図16を参照して、本実施形態に係る一連の画像処理について説明する。なお、本実施形態に係るステップS1610、ステップS1620、ステップS1630、及びステップS1660の処理は、第7の実施形態におけるこれらの処理と同様であるため、説明を省略する。なお、入力画像に対して、撮影条件について無条件で高画質化する場合には、ステップS1620の処理の後に、ステップS1630の処理を省き、処理をステップS1640に移行してよい。 Next, a series of image processing according to this embodiment will be described with reference to FIG. Note that the processes of steps S1610, S1620, S1630, and S1660 according to the present embodiment are the same as those processes in the seventh embodiment, so descriptions thereof will be omitted. Note that if the image quality of the input image is to be improved unconditionally with respect to the shooting conditions, the process of step S1630 may be omitted after the process of step S1620, and the process may proceed to step S1640.

ステップS1630において、第7の実施形態と同様に、高画質化可否判定部403が、高画質化エンジン群のいずれかが入力画像を対処可能であると判定した場合には、処理はステップS1640に移行する。なお、画像処理装置1500の設定や実装形態によっては、第1の実施形態と同様に、高画質化エンジンによって一部の撮影条件が対処不可能であると判定されたとしても、ステップS1640を実施してもよい。 In step S1630, as in the seventh embodiment, if the image quality improvement possibility determination unit 403 determines that any one of the image quality improvement engine group can handle the input image, the process proceeds to step S1640. Transition. It should be noted that, depending on the settings and implementation of the image processing apparatus 1500, as in the first embodiment, even if the image quality enhancement engine determines that some shooting conditions cannot be dealt with, step S1640 is executed. You may

ステップS1640においては、高画質化部404が、高画質化エンジン群のそれぞれにステップS1610において取得した入力画像を入力し、高画質画像群を生成する。 In step S1640, the image quality enhancement unit 404 inputs the input image acquired in step S1610 to each of the image quality enhancement engines to generate a high quality image group.

ステップS1650では、画質評価部1506が、ステップS1640において生成された高画質画像群のうち最も高画質な画像を選択する。具体的には、まず、画質評価部1506が、ステップS1640で生成された高画質画像群を、画質評価エンジンに入力する。画質評価エンジンは、入力された各高画質画像について、学習に基づいて、画質評価指数を算出する。画質評価部1506は、算出された画質評価指数のうち最も高い画質評価指数が算出された高画質画像を選択する。なお、高画質化エンジンによって高画質化していない入力画像の方が、画像診断に適している可能性もあるので、画質評価部1506は、画質評価エンジンに入力画像も入力し、入力画像に対する画質評価指数も選択に加えてもよい。ステップS1660は、第7の実施形態のステップS1660と同様であるため説明を省略する。 In step S1650, the image quality evaluation unit 1506 selects the highest image quality image from the high image quality image group generated in step S1640. Specifically, first, the image quality evaluation unit 1506 inputs the high-quality image group generated in step S1640 to the image quality evaluation engine. The image quality evaluation engine calculates an image quality evaluation index based on learning for each input high quality image. The image quality evaluation unit 1506 selects the high-quality image for which the highest image quality evaluation index is calculated among the calculated image quality evaluation indexes. Note that an input image that has not been enhanced in image quality by the image quality enhancement engine may be more suitable for image diagnosis. A rating index may also be added to the selection. Since step S1660 is the same as step S1660 in the seventh embodiment, the description is omitted.

上記のように、本実施形態に係る画像処理装置1500は、高画質画像の画質を評価する画質評価部1506を更に備える。高画質化部404は、複数の高画質化エンジンを用いて、入力画像から複数の高画質画像を生成し、画像処理装置1500の出力部405は、画質評価部1506による評価結果に応じて、複数の高画質画像のうち少なくとも一つの画像を出力する。特に、本実施形態に係る画質評価部1506は、所定の評価手法による評価値を学習データとした画質評価エンジンを含む。画質評価部1506は、複数の高画質画像のうち、画質評価部1506による画質評価エンジンを用いた評価の結果が最も高い高画質画像を選択する。出力部405は、画質評価部1506によって選択された最も評価値が高い高画質画像を出力する。 As described above, the image processing apparatus 1500 according to this embodiment further includes the image quality evaluation unit 1506 that evaluates the image quality of high-quality images. The image quality enhancement unit 404 uses a plurality of image quality enhancement engines to generate a plurality of high quality images from the input image. At least one of the multiple high-quality images is output. In particular, the image quality evaluation unit 1506 according to this embodiment includes an image quality evaluation engine that uses evaluation values obtained by a predetermined evaluation method as learning data. The image quality evaluation unit 1506 selects, from among the plurality of high quality images, the high quality image with the highest evaluation result using the image quality evaluation engine by the image quality evaluation unit 1506 . The output unit 405 outputs the high quality image with the highest evaluation value selected by the image quality evaluation unit 1506 .

これにより、本実施形態に係る画像処理装置1500では、画質評価エンジンの出力に基づいて、複数の高画質画像から最も画像診断に適した高画質画像を容易に出力することができる。 As a result, the image processing apparatus 1500 according to this embodiment can easily output a high-quality image most suitable for image diagnosis from a plurality of high-quality images based on the output of the image quality evaluation engine.

なお、本実施形態では、画質評価部1506が画質評価エンジンによって出力される画質評価指数のうち最も高い画質評価指数の高画質画像を選択し、出力部405が選択された高画質画像を表示部20に表示させた。しかしながら、画質評価部1506の構成はこれに限られない。例えば、画質評価部1506は画質評価エンジンによって出力される画質評価指数のうち上位いくつかの画質評価指数の高画質画像を選択し、出力部405が選択された高画質画像を表示部20に表示させてもよい。また、出力部405が、画質評価エンジンによって出力された画質評価指数を対応する高画質画像とともに表示部20に表示させ、画質評価部1506が検者の指示に応じて、最も高画質な画像を選択してもよい。 In this embodiment, the image quality evaluation unit 1506 selects a high-quality image with the highest image quality evaluation index among the image quality evaluation indexes output by the image quality evaluation engine, and the output unit 405 displays the selected high-quality image on the display unit. 20 was displayed. However, the configuration of image quality evaluation section 1506 is not limited to this. For example, the image quality evaluation unit 1506 selects high-quality images having several high image quality evaluation indexes among the image quality evaluation indexes output by the image quality evaluation engine, and the output unit 405 displays the selected high-quality images on the display unit 20. You may let Further, the output unit 405 causes the display unit 20 to display the image quality evaluation index output by the image quality evaluation engine together with the corresponding high quality image, and the image quality evaluation unit 1506 selects the highest quality image according to the examiner's instruction. You may choose.

なお、出力部405は、第1の実施形態と同様に、生成された高画質画像を撮影装置10や画像処理装置1500に接続される他の装置に出力してもよい。また、高画質化エンジンの教師データの出力データは、第1の実施形態と同様に、重ね合わせ処理を行った高画質画像に限られない。すなわち、重ね合わせ処理やMAP推定処理、平滑化フィルタ処理、階調変換処理、高性能な撮影装置を用いた撮影、高コストな処理、ノイズ低減処理といった処理群や撮影方法のうち、少なくとも一つを行うことによって得られた高画質画像を用いてもよい。 Note that the output unit 405 may output the generated high-quality image to another device connected to the imaging device 10 or the image processing device 1500, as in the first embodiment. Also, the output data of the training data from the image quality improvement engine is not limited to the high quality image that has undergone the superimposition process, as in the first embodiment. That is, at least one of a processing group and a photographing method such as superimposition processing, MAP estimation processing, smoothing filter processing, gradation conversion processing, photographing using a high-performance photographing device, high-cost processing, and noise reduction processing. You may use the high quality image obtained by performing.

<第9の実施形態>
次に、図18及び19を参照して、第9の実施形態に係る画像処理装置について説明する。本実施形態では、真贋評価部が、真贋評価エンジンを用いて、高画質化部404によって生成された高画質画像が十分に高画質化されたものであるか否かを評価する。
<Ninth Embodiment>
Next, an image processing apparatus according to the ninth embodiment will be described with reference to FIGS. 18 and 19. FIG. In this embodiment, the authenticity evaluation unit uses the authentication evaluation engine to evaluate whether the high quality image generated by the image quality enhancement unit 404 is sufficiently high in quality.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第1の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第1の実施形態に係る画像処理装置との違いを中心として説明する。 Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the first embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below, focusing on the differences from the image processing apparatus according to the first embodiment.

図18は、本実施形態に係る画像処理装置1800の概略的な構成を示す。本実施形態に係る画像処理装置1800には、取得部401、撮影条件取得部402、高画質化可否判定部403、高画質化部404、及び出力部405に加えて、真贋評価部1807が設けられている。なお、画像処理装置1800は、これら構成要素のうちの一部が設けられた複数の装置で構成されてもよい。ここで、取得部401、撮影条件取得部402、高画質化可否判定部403、高画質化部404、及び出力部405は、第1の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。 FIG. 18 shows a schematic configuration of an image processing apparatus 1800 according to this embodiment. The image processing apparatus 1800 according to the present embodiment includes an acquisition unit 401, an imaging condition acquisition unit 402, an image quality enhancement determination unit 403, an image quality enhancement unit 404, and an output unit 405, as well as an authenticity evaluation unit 1807. It is Note that the image processing apparatus 1800 may be composed of a plurality of apparatuses provided with some of these components. Here, the acquisition unit 401, the imaging condition acquisition unit 402, the image quality enhancement determination unit 403, the image quality enhancement unit 404, and the output unit 405 are the same as those of the image processing apparatus according to the first embodiment. , are denoted by the same reference numerals as those shown in FIG. 4, and the description thereof is omitted.

また、画像処理装置1800は、第1の実施形態に係る画像処理装置400と同様に撮影装置10、表示部20及び不図示の他の装置と、任意の回路やネットワークを介して接続されてよい。また、これらの装置は、他の任意の装置と回路やネットワークを介して接続されてもよいし、他の任意の装置と一体的に構成されてもよい。なお、これらの装置は本実施形態では別個の装置とされているが、これらの装置の一部又は全部を一体的に構成してもよい。 Further, the image processing device 1800 may be connected to the imaging device 10, the display unit 20, and other devices (not shown) via arbitrary circuits and networks, similarly to the image processing device 400 according to the first embodiment. . Also, these devices may be connected to any other device via a circuit or network, or may be integrally configured with any other device. Although these devices are separate devices in this embodiment, some or all of these devices may be integrally configured.

真贋評価部1807には、真贋評価エンジンが備えられている。真贋評価部1807は、真贋評価エンジンを用いて、高画質化エンジンが生成した高画質画像が十分に高画質化されているか否かを評価する。本実施形態に係る真贋評価エンジンにおける真贋評価処理手法は、機械学習アルゴリズムを用いて構築した機械学習モデルを用いる。 The authenticity evaluation unit 1807 is equipped with an authentication evaluation engine. The authenticity evaluation unit 1807 uses an authenticity evaluation engine to evaluate whether the high image quality image generated by the image quality improvement engine is sufficiently high in quality. The authenticity evaluation processing method in the authenticity evaluation engine according to this embodiment uses a machine learning model constructed using a machine learning algorithm.

機械学習モデルをトレーニングする教師データには、事前に様々な撮影条件によって撮影された高画質画像群と対象の撮影装置によって撮影され取得されたことを表すラベル(以下、真作ラベル)とのペア群が含まれる。また、教師データには、高画質化の精度の悪い高画質化エンジンに低画質画像を入力して生成した高画質画像群と対象の撮影装置によって撮影され取得されていないことを表すラベル(以下、贋作ラベル)とのペア群が含まれる。 The training data used to train the machine learning model consists of a group of high-quality images taken in advance under various shooting conditions and a pair of labels indicating that they were taken and acquired by the target camera (hereinafter referred to as the genuine label). groups are included. In addition, the training data includes a group of high-quality images generated by inputting low-quality images into a high-quality image enhancement engine with poor image quality accuracy, and labels indicating that they were not acquired by the target camera. , counterfeit labels).

このような教師データを用いて学習が行われた真贋評価エンジンは、入力された画像に対し、確実に撮影装置によって撮影され取得された画像か否かを評価できるわけではないが、撮影装置によって撮影され取得された画像らしさを持つ画像か否かを評価できる。この特性を利用して、真贋評価部1807は、真贋評価エンジンに高画質化部404が生成した高画質画像を入力することで、高画質化部404が生成した高画質画像が十分に高画質化されているか否かを評価できる。 The authenticity evaluation engine, which has been trained using such training data, cannot evaluate whether or not an input image has been captured and acquired with certainty by the imaging device. It is possible to evaluate whether or not the image has the resemblance to the captured and acquired image. Using this characteristic, the authenticity evaluation unit 1807 inputs the high-quality image generated by the image-quality improving unit 404 to the authenticity evaluation engine, so that the high-quality image generated by the image-quality improving unit 404 has sufficiently high image quality. It is possible to evaluate whether or not the

出力部405は、真贋評価部1807によって高画質化部404が生成した高画質画像が十分に高画質化されていると判断されたら、当該高画質画像を表示部20に表示させる。一方、出力部405は、真贋評価部1807によって、高画質化部404が生成した高画質画像が十分に高画質化されていないと判断されたら、入力画像を表示部20に表示させる。なお、出力部405は、入力画像を表示させる際に、高画質化部404によって生成された高画質画像が十分に高画質化されなかったことや表示されている画像が入力画像であることを表示部20に表示させることができる。 When the authenticity evaluation unit 1807 determines that the high quality image generated by the image quality enhancement unit 404 is sufficiently high in quality, the output unit 405 causes the display unit 20 to display the high quality image. On the other hand, the output unit 405 causes the display unit 20 to display the input image when the authenticity evaluation unit 1807 determines that the high image quality image generated by the image quality enhancement unit 404 is not sufficiently enhanced. When displaying the input image, the output unit 405 notifies that the high-quality image generated by the image-quality improving unit 404 is not sufficiently high-quality and that the displayed image is the input image. It can be displayed on the display unit 20 .

以下、図19を参照して、本実施形態に係る一連の画像処理について説明する。図19は、本実施形態に係る一連の画像処理のフロー図である。なお、本実施形態に係るステップS1910~ステップS1940の処理は、第1の実施形態におけるステップS510~ステップS540での処理と同様であるため、説明を省略する。なお、入力画像に対して、撮影条件について無条件で高画質化する場合には、ステップS1920の処理の後に、ステップS1930の処理を省き、処理をステップS1940に移行してよい。 A series of image processing according to this embodiment will be described below with reference to FIG. FIG. 19 is a flowchart of a series of image processing according to this embodiment. Note that the processing of steps S1910 to S1940 according to the present embodiment is the same as the processing of steps S510 to S540 in the first embodiment, so description thereof will be omitted. Note that if the image quality of the input image is to be improved unconditionally with respect to the shooting conditions, the process of step S1930 may be omitted after the process of step S1920, and the process may proceed to step S1940.

ステップS1940において、高画質化部404が高画質画像群を生成したら、処理はステップS1950に移行する。ステップS1950では、真贋評価部1807が、ステップS1940において生成された高画質画像を真贋評価エンジンに入力し、真贋評価エンジンの出力に基づいて真贋評価を行う。具体的には、真贋評価部1807は、真贋評価エンジンから真作ラベル(真)が出力された場合には、生成された高画質画像が十分に高画質化されていると評価する。一方、真贋評価エンジンから贋作ラベル(偽)が出力された場合には、真贋評価部1807は、生成された高画質画像が十分に高画質化されていないと評価する。 In step S1940, after the image quality enhancement unit 404 generates the high quality image group, the process proceeds to step S1950. In step S1950, the authentication evaluation unit 1807 inputs the high-quality image generated in step S1940 to the authentication evaluation engine, and performs authentication based on the output of the authentication evaluation engine. Specifically, the authenticity evaluation unit 1807 evaluates that the generated high-quality image is sufficiently high-quality when the authenticity evaluation engine outputs the label (true). On the other hand, when the authenticity evaluation engine outputs a counterfeit label (false), the authenticity evaluation unit 1807 evaluates that the generated high-quality image is not sufficiently high in quality.

ステップS1960においては、出力部405が、真贋評価部1807によって高画質化部404が生成した高画質画像が十分に高画質化されていると判断されたら、当該高画質画像を表示部20に表示させる。一方、出力部405は、真贋評価部1807によって、高画質化部404が生成した高画質画像が十分に高画質化されていないと判断されたら、入力画像を表示部20に表示させる。 In step S1960, when the output unit 405 determines that the high-quality image generated by the image-quality improving unit 404 is sufficiently high-quality by the authenticity evaluating unit 1807, the high-quality image is displayed on the display unit 20. Let On the other hand, the output unit 405 causes the display unit 20 to display the input image when the authenticity evaluation unit 1807 determines that the high image quality image generated by the image quality enhancement unit 404 is not sufficiently enhanced.

上記のように、本実施形態に係る画像処理装置1800は、高画質画像の画質を評価する真贋評価部1807を更に備え、真贋評価部1807は画像の真贋を評価する真贋評価エンジンを含む。真贋評価エンジンは、高画質化部404の高画質化エンジンよりも高画質化処理の精度が低い(悪い)高画質化エンジンによって生成された画像を学習データとした機械学習エンジンを含む。画像処理装置1800の出力部405は、真贋評価部の真贋評価エンジンからの出力が真である場合に、高画質画像を出力する。 As described above, the image processing apparatus 1800 according to this embodiment further includes the authentication evaluation unit 1807 that evaluates the image quality of the high-quality image, and the authentication evaluation unit 1807 includes an authentication evaluation engine that evaluates the authenticity of the image. The authenticity evaluation engine includes a machine learning engine that uses, as learning data, an image generated by an image quality enhancement engine whose image quality enhancement processing accuracy is lower (worse) than that of the image quality enhancement engine of the image quality enhancement unit 404 . The output unit 405 of the image processing device 1800 outputs a high quality image when the output from the authenticity evaluation engine of the authenticity evaluation unit is true.

これにより、本実施形態に係る画像処理装置1800では、検者は十分に高画質化された高画質画像を効率よく確認することができる。 Accordingly, with the image processing apparatus 1800 according to the present embodiment, the examiner can efficiently check a high-quality image with sufficiently high image quality.

また、高画質化エンジンの機械学習モデルと真贋評価エンジンの機械学習モデルとを協調させてトレーニングすることによって、双方のエンジンの効率や精度を向上させてもよい。 Also, the machine learning model of the image quality enhancement engine and the machine learning model of the authenticity evaluation engine may be trained in cooperation to improve the efficiency and accuracy of both engines.

なお、本実施形態では、高画質化部404が一つの高画質画像を生成し、真贋評価部1807が生成された一つの高画質画像について評価を行う構成としたが、真贋評価部1807の評価はこれに限られない。例えば、第2の実施形態のように、高画質化部404が複数の高画質化エンジンを用いて複数の高画質画像を生成する場合には、真贋評価部1807が生成された複数の高画質画像の少なくとも一つについて評価を行う構成としてもよい。この場合、例えば真贋評価部1807は、生成された複数の高画質画像の全てについて評価を行ってもよいし、複数の高画質画像のうち検者によって指示された画像のみについて評価を行ってもよい。 In this embodiment, the image quality enhancement unit 404 generates one high-quality image, and the authentication evaluation unit 1807 evaluates the generated high-quality image. is not limited to this. For example, as in the second embodiment, when the image quality enhancement unit 404 generates a plurality of high quality images using a plurality of image quality enhancement engines, the authenticity evaluation unit 1807 generates a plurality of high quality images. At least one of the images may be evaluated. In this case, for example, the authenticity evaluation unit 1807 may evaluate all of the plurality of generated high-quality images, or may evaluate only the image designated by the examiner among the plurality of high-quality images. good.

さらに、出力部405は、真贋評価部1807による高画質画像が十分に高画質化されているか否かの判断結果を表示部20に表示させ、検者の指示に応じて、高画質画像を出力してもよい。 Furthermore, the output unit 405 causes the display unit 20 to display the determination result of whether or not the high-quality image is sufficiently enhanced by the authenticity evaluation unit 1807, and outputs the high-quality image in accordance with the examiner's instruction. You may

なお、出力部405は、第1の実施形態と同様に、生成された高画質画像を撮影装置10や画像処理装置1800に接続される他の装置に出力してもよい。また、高画質化エンジンの教師データの出力データは、第1の実施形態と同様に、重ね合わせ処理を行った高画質画像に限られない。すなわち、重ね合わせ処理やMAP推定処理、平滑化フィルタ処理、階調変換処理、高性能な撮影装置を用いた撮影、高コストな処理、ノイズ低減処理といった処理群や撮影方法のうち、少なくとも一つを行うことによって得られた高画質画像を用いてもよい。 Note that the output unit 405 may output the generated high-quality image to another device connected to the imaging device 10 or the image processing device 1800, as in the first embodiment. Also, the output data of the training data from the image quality improvement engine is not limited to the high quality image that has undergone the superimposition process, as in the first embodiment. That is, at least one of a processing group and a photographing method such as superimposition processing, MAP estimation processing, smoothing filter processing, gradation conversion processing, photographing using a high-performance photographing device, high-cost processing, and noise reduction processing. You may use the high quality image obtained by performing.

<第10の実施形態>
次に、図4及び5を参照して、第10の実施形態に係る画像処理装置について説明する。本実施形態では、高画質化部が三次元の入力画像を複数の二次元画像に分割して高画質化エンジンに入力し、高画質化エンジンからの出力画像を結合することで三次元の高画質画像を生成する。
<Tenth Embodiment>
Next, an image processing apparatus according to a tenth embodiment will be described with reference to FIGS. 4 and 5. FIG. In this embodiment, the image quality enhancement unit divides a three-dimensional input image into a plurality of two-dimensional images, inputs them to the image quality enhancement engine, and combines the output images from the image quality enhancement engine to create a three-dimensional image. Generate quality images.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第1の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第1の実施形態に係る画像処理装置との違いを中心として説明する。なお、本実施形態に係る画像処理装置の構成は、第1の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。 Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the first embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below, focusing on the differences from the image processing apparatus according to the first embodiment. Note that the configuration of the image processing apparatus according to this embodiment is the same as that of the image processing apparatus according to the first embodiment, so the same reference numerals are used for the configuration shown in FIG. do.

本実施形態に係る取得部401は、構造的に連続する二次元画像群で構成された、三次元画像を取得する。具体的には、三次元画像は、例えば、OCTのBスキャン像(断層画像)群で構成された三次元OCTボリューム画像である。また、例えば、アキシャル断層像群で構成された三次元CTボリューム画像である。 The acquisition unit 401 according to this embodiment acquires a three-dimensional image composed of a group of structurally continuous two-dimensional images. Specifically, the three-dimensional image is, for example, a three-dimensional OCT volume image composed of a group of OCT B-scan images (tomographic images). Also, for example, it is a three-dimensional CT volume image composed of a group of axial tomographic images.

高画質化部404には、第1の実施形態と同様に、高画質化エンジンが備えられている。なお、高画質化エンジンの教師データである入力データと出力データのペア群は二次元画像の画像群により構成されている。高画質化部404は、取得された三次元画像を複数の二次元画像に分割し、二次元画像毎に高画質化エンジンに入力する。これにより、高画質化部404は、複数の二次元の高画質画像を生成することができる。 The image quality enhancement unit 404 includes an image quality enhancement engine, as in the first embodiment. A group of pairs of input data and output data, which is training data for the image quality enhancement engine, is composed of a group of two-dimensional images. The image quality enhancement unit 404 divides the acquired three-dimensional image into a plurality of two-dimensional images, and inputs each two-dimensional image to the image quality enhancement engine. Thereby, the image quality improving unit 404 can generate a plurality of two-dimensional high quality images.

出力部405は、高画質化部404によって、三次元画像の各二次元画像について生成された複数の二次元の高画質画像を結合し、三次元の高画質画像を出力する。 The output unit 405 combines a plurality of two-dimensional high-quality images generated for each two-dimensional image of the three-dimensional image by the image quality enhancement unit 404, and outputs a three-dimensional high-quality image.

次に、図5を参照して、本実施形態に係る一連の画像処理について説明する。なお、本実施形態に係るステップS510~ステップS530、及びステップS550の処理は、第1の実施形態におけるこれらの処理と同様であるため、説明を省略する。ただし、ステップS510では、取得部401は三次元画像を取得する。なお、入力画像に対して、撮影条件について無条件で高画質化する場合には、ステップS520の処理の後に、ステップS530の処理を省き、処理をステップS540に移行してよい。 Next, a series of image processing according to this embodiment will be described with reference to FIG. Note that the processes of steps S510 to S530 and step S550 according to the present embodiment are the same as those processes in the first embodiment, so description thereof will be omitted. However, in step S510, the acquisition unit 401 acquires a three-dimensional image. Note that if the image quality of the input image is to be improved unconditionally with respect to the shooting conditions, the process of step S530 may be omitted after the process of step S520, and the process may proceed to step S540.

ステップS530において、高画質化可否判定部403が、高画質化エンジンによって入力画像を対処可能と判定した場合には、処理はステップS540に移行する。なお、高画質化可否判定部403は、三次元画像の撮影条件に基づいて当該判定を行ってもよいし、三次元画像を構成する複数の二次元画像に関する撮影条件に基づいて当該判定を行ってもよい。ステップS540では、高画質化部404が、取得された三次元画像を複数の二次元画像に分割する。高画質化部404は、分割した複数の二次元画像のそれぞれを高画質化エンジンに入力し、複数の二次元の高画質画像を生成する。高画質化部404は、取得した三次元画像に基づいて、生成した複数の二次元の高画質画像を結合し、三次元の高画質画像を生成する。 In step S530, if the image quality enhancement determination unit 403 determines that the input image can be processed by the image quality enhancement engine, the process proceeds to step S540. Note that the image quality improvement possibility determination unit 403 may perform the determination based on the imaging conditions of the three-dimensional image, or may perform the determination based on the imaging conditions of a plurality of two-dimensional images forming the three-dimensional image. may In step S540, the image quality enhancing unit 404 divides the acquired three-dimensional image into a plurality of two-dimensional images. The image quality enhancement unit 404 inputs each of the divided two-dimensional images to the image quality enhancement engine to generate a plurality of two-dimensional high-quality images. The image quality enhancing unit 404 combines a plurality of generated two-dimensional high-quality images based on the acquired three-dimensional image to generate a three-dimensional high-quality image.

ステップS550では、出力部405は、生成された三次元の高画質画像を表示部20に表示させる。なお、三次元の高画質画像の表示態様は任意であってよい。 In step S550, the output unit 405 causes the display unit 20 to display the generated three-dimensional high-quality image. Note that the display mode of the three-dimensional high-quality image may be arbitrary.

上記のように、本実施形態に係る高画質化部404は、三次元の入力画像を複数の二次元の画像に分割して高画質化エンジンに入力する。高画質化部404は、高画質化エンジンから出力された複数の二次元の高画質画像を結合し、三次元の高画質画像を生成する。 As described above, the image quality enhancement unit 404 according to the present embodiment divides a three-dimensional input image into a plurality of two-dimensional images and inputs them to the image quality enhancement engine. The image quality enhancement unit 404 combines a plurality of two-dimensional high-quality images output from the image quality enhancement engine to generate a three-dimensional high-quality image.

これにより、本実施形態に係る高画質化部404は、二次元画像の教師データを用いて学習が行われた高画質化エンジンを用いて、三次元画像を高画質化することができる。 As a result, the image quality enhancing unit 404 according to the present embodiment can enhance the image quality of the 3D image using the image quality enhancing engine trained using the teacher data of the 2D image.

なお、出力部405は、第1の実施形態と同様に、生成された高画質画像を撮影装置10や画像処理装置400に接続される他の装置に出力してもよい。また、高画質化エンジンの教師データの出力データは、第1の実施形態と同様に、重ね合わせ処理を行った高画質画像に限られない。すなわち、重ね合わせ処理やMAP推定処理、平滑化フィルタ処理、階調変換処理、高性能な撮影装置を用いた撮影、高コストな処理、ノイズ低減処理といった処理群や撮影方法のうち、少なくとも一つを行うことによって得られた高画質画像を用いてもよい。 Note that the output unit 405 may output the generated high-quality image to another device connected to the imaging device 10 or the image processing device 400, as in the first embodiment. Also, the output data of the training data from the image quality improvement engine is not limited to the high quality image that has undergone the superimposition process, as in the first embodiment. That is, at least one of a processing group and a photographing method such as superimposition processing, MAP estimation processing, smoothing filter processing, gradation conversion processing, photographing using a high-performance photographing device, high-cost processing, and noise reduction processing. You may use the high quality image obtained by performing.

<第11の実施形態>
次に、図4及び5を参照して、第11の実施形態に係る画像処理装置について説明する。本実施形態では、高画質化部が三次元の入力画像を複数の二次元画像に分割し、複数の二次元画像を複数の高画質化エンジンによって並列に高画質化し、高画質化エンジンからの出力画像を結合することで三次元の高画質画像を生成する。
<Eleventh Embodiment>
Next, an image processing apparatus according to an eleventh embodiment will be described with reference to FIGS. 4 and 5. FIG. In this embodiment, the image quality enhancement unit divides a three-dimensional input image into a plurality of two-dimensional images, and enhances the image quality of the plurality of two-dimensional images in parallel by a plurality of image quality enhancement engines. A three-dimensional high-quality image is generated by combining the output images.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第10の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第10の実施形態に係る画像処理装置との違いを中心として説明する。なお、本実施形態に係る画像処理装置の構成は、第1及び10の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。 Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the tenth embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below, focusing on the differences from the image processing apparatus according to the tenth embodiment. Since the configuration of the image processing apparatus according to this embodiment is the same as that of the image processing apparatuses according to the first and tenth embodiments, the same reference numerals are used for the configuration shown in FIG. omitted.

本実施形態に係る高画質化部404には、第10の実施形態と同様の高画質化エンジンが、複数備えられている。なお、高画質化部404に備えられた複数の高画質化エンジン群は、回路やネットワークを介して、二つ以上の装置群に分散処理可能なように実装されていてもよいし、単一の装置に実装されていてもよい。 The image quality enhancement unit 404 according to this embodiment includes a plurality of image quality enhancement engines similar to those of the tenth embodiment. Note that the plurality of image quality enhancement engine groups provided in the image quality enhancement unit 404 may be implemented so as to be able to perform distributed processing in two or more device groups via a circuit or network, or may be implemented in a single image quality enhancement engine group. device.

高画質化部404は、第10の実施形態と同様に、取得された三次元画像を複数の二次元画像に分割する。高画質化部404は、複数の二次元画像を複数の高画質化エンジンを用いて、分担して(並列的に)高画質化を行い、複数の二次元の高画質画像を生成する。高画質化部404は、複数の高画質化エンジンから出力された複数の二次元の高画質画像を、処理対象である三次元画像に基づいて結合し、三次元の高画質画像を生成する。 The image quality enhancing unit 404 divides the acquired three-dimensional image into a plurality of two-dimensional images, as in the tenth embodiment. The image quality enhancement unit 404 uses a plurality of image quality enhancement engines to share (in parallel) image quality enhancement of a plurality of two-dimensional images, thereby generating a plurality of two-dimensional high-quality images. The image quality enhancing unit 404 combines a plurality of two-dimensional high-quality images output from a plurality of image-quality enhancing engines based on a three-dimensional image to be processed to generate a three-dimensional high-quality image.

次に、図5を参照して、本実施形態に係る一連の画像処理について説明する。なお、本実施形態に係るステップS510~ステップS530、及びステップS550の処理は、第10の実施形態におけるこれらの処理と同様であるため、説明を省略する。なお、入力画像に対して、撮影条件について無条件で高画質化する場合には、ステップS520の処理の後に、ステップS530の処理を省き、処理をステップS540に移行してよい。 Next, a series of image processing according to this embodiment will be described with reference to FIG. Note that the processes of steps S510 to S530 and step S550 according to the present embodiment are the same as those processes in the tenth embodiment, so description thereof will be omitted. Note that if the image quality of the input image is to be improved unconditionally with respect to the shooting conditions, the process of step S530 may be omitted after the process of step S520, and the process may proceed to step S540.

ステップS530において、高画質化可否判定部403が、高画質化エンジンによって入力画像を対処可能と判定した場合には、処理はステップS540に移行する。なお、高画質化可否判定部403は、三次元画像の撮影条件に基づいて当該判定を行ってもよいし、三次元画像を構成する複数の二次元画像に関する撮影条件に基づいて当該判定を行ってもよい。 In step S530, if the image quality enhancement determination unit 403 determines that the input image can be processed by the image quality enhancement engine, the process proceeds to step S540. Note that the image quality improvement possibility determination unit 403 may perform the determination based on the imaging conditions of the three-dimensional image, or may perform the determination based on the imaging conditions of a plurality of two-dimensional images forming the three-dimensional image. may

ステップS540では、高画質化部404が、取得された三次元画像を複数の二次元画像に分割する。高画質化部404は、分割した複数の二次元画像のそれぞれを複数の高画質化エンジンに入力し、並列的に高画質化処理して、複数の二次元の高画質画像を生成する。高画質化部404は、取得した三次元画像に基づいて、生成した複数の二次元の高画質画像を結合し、三次元の高画質画像を生成する。 In step S540, the image quality enhancing unit 404 divides the acquired three-dimensional image into a plurality of two-dimensional images. The image quality enhancement unit 404 inputs each of the plurality of divided two-dimensional images to a plurality of image quality enhancement engines, performs image quality enhancement processing in parallel, and generates a plurality of two-dimensional high-quality images. The image quality enhancing unit 404 combines a plurality of generated two-dimensional high-quality images based on the acquired three-dimensional image to generate a three-dimensional high-quality image.

ステップS550では、出力部405は、生成された三次元の高画質画像を表示部20に表示させる。なお、三次元の高画質画像の表示態様は任意であってよい。 In step S550, the output unit 405 causes the display unit 20 to display the generated three-dimensional high-quality image. Note that the display mode of the three-dimensional high-quality image may be arbitrary.

上記のように、本実施形態に係る高画質化部404は、複数の高画質化エンジンを含む。高画質化部404は、三次元の入力画像を複数の二次元の画像に分割し、複数の高画質化エンジンを並列的に用いて、複数の二次元の高画質画像を生成する。高画質化部404は複数の二次元の高画質画像を統合することで、三次元の高画質画像を生成する。 As described above, the image quality enhancement unit 404 according to this embodiment includes a plurality of image quality enhancement engines. The image quality enhancement unit 404 divides a three-dimensional input image into a plurality of two-dimensional images, and uses a plurality of image quality enhancement engines in parallel to generate a plurality of two-dimensional high-quality images. The image quality enhancing unit 404 integrates a plurality of two-dimensional high-quality images to generate a three-dimensional high-quality image.

これにより、本実施形態に係る高画質化部404は、二次元画像の教師データを用いて学習が行われた高画質化エンジンを用いて、三次元画像を高画質化することができる。また、第10の実施形態と比べて、より効率的に三次元画像を高画質化することができる。 As a result, the image quality enhancing unit 404 according to the present embodiment can enhance the image quality of the 3D image using the image quality enhancing engine trained using the teacher data of the 2D image. Also, compared to the tenth embodiment, it is possible to improve the image quality of the three-dimensional image more efficiently.

なお、複数の高画質化エンジンの教師データは、各高画質化エンジンで処理を行う処理対象に応じて異なる教師データであってもよい。例えば、第1の高画質化エンジンは第1の撮影領域についての教師データで学習を行い、第2の高画質化エンジンは第2の撮影領域についての教師データで学習を行ってもよい。この場合には、それぞれの高画質化エンジンが、より精度良く二次元画像の高画質化を行うことができる。 Note that the teacher data for the plurality of image quality enhancement engines may be different teacher data according to the processing target to be processed by each image quality enhancement engine. For example, the first image quality improvement engine may learn using teacher data for the first imaging area, and the second image quality improvement engine may learn using teacher data for the second imaging area. In this case, each image quality improvement engine can improve the image quality of the two-dimensional image with higher accuracy.

また、出力部405は、第1の実施形態と同様に、生成された高画質画像を撮影装置10や画像処理装置400に接続される他の装置に出力してもよい。また、高画質化エンジンの教師データの出力データは、第1の実施形態と同様に、重ね合わせ処理を行った高画質画像に限られない。すなわち、重ね合わせ処理やMAP推定処理、平滑化フィルタ処理、階調変換処理、高性能な撮影装置を用いた撮影、高コストな処理、ノイズ低減処理といった処理群や撮影方法のうち、少なくとも一つを行うことによって得られた高画質画像を用いてもよい。 Further, the output unit 405 may output the generated high-quality image to another device connected to the imaging device 10 or the image processing device 400, as in the first embodiment. Also, the output data of the training data from the image quality improvement engine is not limited to the high quality image that has undergone the superimposition process, as in the first embodiment. That is, at least one of a processing group and a photographing method such as superimposition processing, MAP estimation processing, smoothing filter processing, gradation conversion processing, photographing using a high-performance photographing device, high-cost processing, and noise reduction processing. You may use the high quality image obtained by performing.

<第12の実施形態>
次に、図5及び20を参照して、第12の実施形態に係る画像処理装置について説明する。本実施形態では、取得部401が撮影装置ではなく画像管理システム2000から入力画像を取得する。
<Twelfth Embodiment>
Next, an image processing apparatus according to a twelfth embodiment will be described with reference to FIGS. 5 and 20. FIG. In this embodiment, the acquisition unit 401 acquires the input image from the image management system 2000 instead of the imaging device.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第1の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第1の実施形態に係る画像処理装置との違いを中心として説明する。なお、本実施形態に係る画像処理装置の構成は第1の実施形態に係る画像処理装置400の構成と同様であるため、図4に示す構成について同じ参照符号を用いて説明を省略する。 Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the first embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below, focusing on the differences from the image processing apparatus according to the first embodiment. Note that the configuration of the image processing apparatus according to the present embodiment is the same as the configuration of the image processing apparatus 400 according to the first embodiment, so the same reference numerals are used for the configuration shown in FIG. 4 and the description thereof is omitted.

図20は、本実施形態に係る画像処理装置400の概略的な構成を示す。本実施形態に係る画像処理装置400は画像管理システム2000、及び表示部20と任意の回路やネットワークを介して接続されている。画像管理システム2000は、任意の撮影装置によって撮影された画像や画像処理された画像を受信して保存する装置及びシステムである。また、画像管理システム2000は、接続された装置の要求に応じて画像を送信したり、保存された画像に対して画像処理を行ったり、画像処理の要求を他の装置に要求したりすることができる。画像管理システムとしては、例えば、画像保存通信システム(PACS)を含むことができる。 FIG. 20 shows a schematic configuration of an image processing apparatus 400 according to this embodiment. The image processing apparatus 400 according to this embodiment is connected to the image management system 2000 and the display unit 20 via arbitrary circuits and networks. The image management system 2000 is a device and system for receiving and storing images captured by an arbitrary image capturing device and images subjected to image processing. In addition, the image management system 2000 can transmit images in response to requests from connected devices, perform image processing on stored images, and request other devices to perform image processing. can be done. The image management system can include, for example, a picture archival communication system (PACS).

本実施形態に係る取得部401は、画像処理装置400に接続される画像管理システム2000から入力画像を取得することができる。また、出力部405は、高画質化部404によって生成された高画質画像を、画像管理システム2000に出力することができる。 The acquisition unit 401 according to this embodiment can acquire an input image from the image management system 2000 connected to the image processing apparatus 400 . Also, the output unit 405 can output the high quality image generated by the image quality enhancement unit 404 to the image management system 2000 .

次に、図5を参照して、本実施形態に係る一連の画像処理について説明する。なお、本実施形態に係るステップS520~ステップS540の処理は、第1の実施形態におけるこれらの処理と同様であるため、説明を省略する。なお、入力画像に対して、撮影条件について無条件で高画質化する場合には、ステップS520の処理の後に、ステップS530の処理を省き、処理をステップS540に移行してよい。 Next, a series of image processing according to this embodiment will be described with reference to FIG. Note that the processing of steps S520 to S540 according to the present embodiment is the same as those processing in the first embodiment, so description thereof will be omitted. Note that if the image quality of the input image is to be improved unconditionally with respect to the shooting conditions, the process of step S530 may be omitted after the process of step S520, and the process may proceed to step S540.

ステップS510において、取得部401は、回路やネットワークを介して接続された画像管理システム2000から、画像管理システム2000が保存している画像を入力画像として取得する。なお、取得部401は、画像管理システム2000からの要求に応じて、入力画像を取得してもよい。このような要求は、例えば、画像管理システム2000が画像を保存した時や、保存した画像を他の装置に送信する前、保存された画像を表示部20に表示する時に発行されてよい。また、当該要求は、例えば、画像管理システム2000を利用者が操作して高画質化処理の要求を行った時や、画像管理システム2000が備える画像解析機能に高画質画像を利用する時等に発行されてよい。 In step S510, the acquisition unit 401 acquires an image stored in the image management system 2000 as an input image from the image management system 2000 connected via a circuit or network. Note that the acquisition unit 401 may acquire an input image in response to a request from the image management system 2000 . Such a request may be issued, for example, when the image management system 2000 saves an image, displays the saved image on the display unit 20 before transmitting the saved image to another device. Further, the request is issued when, for example, the user operates the image management system 2000 to request high image quality processing, or when a high image quality image is used in the image analysis function of the image management system 2000. may be issued.

ステップS520~ステップS540の処理は、第1の実施形態における処理と同様である。ステップS540において高画質化部404が高画質画像を生成したら、処理はステップS550に移行する。ステップS550において、出力部405は、ステップS540において高画質画像が生成されていれば、該高画質画像を画像管理システム2000に出力画像として出力する。ステップS540において高画質画像が生成されていなければ、上記入力画像を画像管理システム2000に出力画像として出力する。なお、出力部405は、画像処理装置400の設定や実装によっては、出力画像を画像管理システム2000が利用可能なように加工したり、出力画像のデータ形式を変換したりしてもよい。 The processing from step S520 to step S540 is the same as the processing in the first embodiment. After the image quality improving unit 404 generates the high quality image in step S540, the process proceeds to step S550. In step S550, the output unit 405 outputs the high-quality image to the image management system 2000 as an output image if a high-quality image has been generated in step S540. If a high-quality image has not been generated in step S540, the input image is output to the image management system 2000 as an output image. Note that the output unit 405 may process the output image so that it can be used by the image management system 2000 or convert the data format of the output image, depending on the settings and implementation of the image processing apparatus 400 .

上記のように、本実施形態に係る取得部401は、画像管理システム2000から入力画像を取得する。このため、本実施形態の画像処理装置400は、画像管理システム2000が保存している画像を元に、画像診断に適した高画質画像を、撮影者や被検者の侵襲性を高めたり、労力を増したりすることなく出力することができる。また、出力された高画質画像は画像管理システム2000に保存されたり、画像管理システム2000が備えるユーザーインターフェースに表示されたりすることができる。また、出力された高画質画像は、画像管理システム2000が備える画像解析機能に利用されたり、画像管理システム2000に接続された他の装置に画像管理システム2000を介して送信されたりすることができる。 As described above, the acquisition unit 401 according to this embodiment acquires an input image from the image management system 2000 . For this reason, the image processing apparatus 400 of the present embodiment, based on the images stored in the image management system 2000, generates high-quality images suitable for image diagnosis, increases invasiveness for the photographer and the subject, It can be output without increasing effort. Also, the output high-quality image can be saved in the image management system 2000 or displayed on a user interface provided in the image management system 2000 . Also, the output high-quality image can be used for the image analysis function provided in the image management system 2000, or can be transmitted to another device connected to the image management system 2000 via the image management system 2000. .

なお、画像処理装置400や画像管理システム2000、表示部20は、不図示の他の装置と回路やネットワーク介して接続されていてもよい。また、これらの装置は本実施形態では別個の装置とされているが、これらの装置の一部又は全部を一体的に構成してもよい。 Note that the image processing device 400, the image management system 2000, and the display unit 20 may be connected to other devices (not shown) via circuits or networks. Moreover, although these devices are separate devices in this embodiment, some or all of these devices may be integrally configured.

また、出力部405は、第1の実施形態と同様に、生成された高画質画像を画像管理システム2000や画像処理装置400に接続される他の装置に出力してもよい。 Also, the output unit 405 may output the generated high-quality image to the image management system 2000 or another device connected to the image processing apparatus 400, as in the first embodiment.

<第13の実施形態>
次に、図4、5、21A、及び21Bを参照して、第13の実施形態に係る画像処理装置について説明する。本実施形態では、高画質化部が複数の画像を入力画像とし、一枚の高画質画像を生成する。
<Thirteenth Embodiment>
Next, an image processing apparatus according to a thirteenth embodiment will be described with reference to FIGS. 4, 5, 21A, and 21B. In this embodiment, the image quality enhancement unit uses a plurality of images as input images and generates one high quality image.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第1の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第1の実施形態に係る画像処理装置との違いを中心として説明する。なお、本実施形態に係る画像処理装置の構成は、第1の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。 Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the first embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below, focusing on the differences from the image processing apparatus according to the first embodiment. Note that the configuration of the image processing apparatus according to this embodiment is the same as that of the image processing apparatus according to the first embodiment, so the same reference numerals are used for the configuration shown in FIG. do.

本実施形態に係る取得部401は、撮影装置10や他の装置から、処理対象である入力データとして、複数の画像を取得する。 The acquisition unit 401 according to the present embodiment acquires a plurality of images as input data to be processed from the imaging device 10 or another device.

本実施形態に係る高画質化部404には、第1の実施形態と同様の、高画質化エンジンが備えられている。また、教師データも第1の実施形態と同様であってよい。高画質化部404は、取得部401で取得された複数の画像のそれぞれを高画質化エンジンに入力し、出力された複数の高画質画像を重ね合わせ処理して、最終的な高画質画像を生成する。なお、高画質化部404は、複数の高画質画像を重ね合わせ処理する前に、任意の手法により複数の高画質画像を位置合わせしてよい。 The image quality enhancement unit 404 according to the present embodiment includes an image quality enhancement engine similar to that of the first embodiment. Also, the teacher data may be the same as in the first embodiment. The image quality enhancement unit 404 inputs each of the plurality of images acquired by the acquisition unit 401 to the image quality enhancement engine, superimposes the plurality of output high quality images, and produces a final high quality image. Generate. Note that the image quality enhancing unit 404 may position the plurality of high quality images by any method before superimposing the plurality of high quality images.

出力部405は、高画質化部404が生成した最終的な高画質画像を表示部20に表示させる。なお、出力部405は、最終的な高画質画像とともに、複数の入力画像を表示部20に表示させてもよい。また、出力部405は、生成された複数の高画質画像を最終的な高画質画像や入力画像とともに表示部20に表示してもよい。 The output unit 405 causes the display unit 20 to display the final high-quality image generated by the image quality enhancement unit 404 . Note that the output unit 405 may cause the display unit 20 to display a plurality of input images together with the final high-quality image. Further, the output unit 405 may display a plurality of generated high-quality images on the display unit 20 together with the final high-quality image and the input image.

次に、図5及び図21Aを参照して、本実施形態に係る一連の画像処理について説明する。図21Aは本実施形態に係る高画質化処理のフロー図である。なお、本実施形態に係るステップS510~ステップS530の処理は、第1の実施形態におけるこれらの処理と同様であるため、説明を省略する。 Next, a series of image processing according to this embodiment will be described with reference to FIGS. 5 and 21A. FIG. 21A is a flowchart of image quality enhancement processing according to this embodiment. Note that the processing of steps S510 to S530 according to the present embodiment is the same as those processing in the first embodiment, so description thereof will be omitted.

ただし、ステップS510では、取得部401は複数の画像を取得し、ステップS520及びS530では、複数の画像のそれぞれについて、撮影条件が取得されるとともに、高画質化エンジンによって対処可能か否かが判断される。なお、入力画像に対して、撮影条件について無条件で高画質化する場合には、ステップS520の処理の後に、ステップS530の処理を省き、処理をステップS540に移行してよい。また、複数の画像の一部の画像が、高画質化エンジンによって対処不可能であると判断された場合には、当該画像を以降の処理から除外することができる。 However, in step S510, the acquisition unit 401 acquires a plurality of images, and in steps S520 and S530, the shooting conditions are acquired for each of the plurality of images, and it is determined whether or not the image quality enhancement engine can handle the conditions. be done. Note that if the image quality of the input image is to be improved unconditionally with respect to the shooting conditions, the process of step S530 may be omitted after the process of step S520, and the process may proceed to step S540. Further, when it is determined that some of the plurality of images cannot be dealt with by the image quality enhancement engine, the image can be excluded from subsequent processing.

ステップS530において、高画質化可否判定部403が、複数の入力画像について高画質化エンジンによって対処可能と判定した場合には、処理はステップS540に移行する。処理がステップS540に移行すると、図21Aに示される本実施形態に係る高画質化処理が開始される。本実施形態に係る高画質化処理では、まず、ステップS2110において、高画質化部404が、複数の入力画像のそれぞれを高画質化エンジンに入力し、高画質画像群を生成する。 In step S530, if the image quality enhancement determination unit 403 determines that the plurality of input images can be handled by the image quality enhancement engine, the process proceeds to step S540. When the process moves to step S540, the image quality enhancement process according to this embodiment shown in FIG. 21A is started. In the image quality enhancement process according to this embodiment, first, in step S2110, the image quality enhancement unit 404 inputs each of a plurality of input images to the image quality enhancement engine to generate a high quality image group.

次に、ステップS2120では、高画質化部404は、生成した高画質画像群を重ね合わせ処理して最終的な一枚の高画質画像を生成する。なお、重ね合わせ処理は加算平均等平均化の処理やその他の既存の任意の処理によって行われてよい。また、重ね合わせに際しては、高画質化部404は複数の高画質画像を任意の手法により位置合わせした上で重ね合わせしてよい。高画質化部404が最終的な高画質画像を生成したら、処理はステップS550に移行する。 Next, in step S2120, the image quality enhancing unit 404 superimposes the generated high quality image groups to generate a final high quality image. Note that the superposition processing may be performed by averaging processing such as addition averaging or any other existing processing. Also, when superimposing, the image quality enhancing unit 404 may align a plurality of high quality images by any method and then superimpose them. After the image quality enhancing unit 404 has generated the final high quality image, the process proceeds to step S550.

ステップS550では、出力部405が生成された最終的な高画質画像を表示部20に表示させる。 In step S550, the final high-quality image generated by the output unit 405 is displayed on the display unit 20. FIG.

上記のように、本実施形態に係る高画質化部404は、複数の入力画像から一つの最終的な高画質画像を生成する。高画質化エンジンによる高画質化は入力画像に基づくため、例えば、病変部等が、ある入力画像において適切に表示されていない場合、当該入力画像を高画質化した高画質画像では低い画素値となってしまう。一方で、同一箇所を撮影した他の入力画像では病変部等が適切に表示されており、当該他の入力画像を高画質化した高画質画像では高い画素値となっている場合もある。そこで、これらの高画質画像を重ね合わせることで、当該低い又は高い画素値となっている箇所を適切に表示できるようになり、高コントラストな高画質画像を生成することができる。なお、入力画像の数は、従来の重ね合わせに必要な枚数よりも少ない数とすることで、従来のような撮影時間の長期化等の代償をより少なくすることができる。 As described above, the image quality enhancement unit 404 according to this embodiment generates one final high quality image from a plurality of input images. Since the image quality improvement by the image quality improvement engine is based on the input image, for example, if a lesion is not properly displayed in an input image, a high-quality image obtained by improving the image quality of the input image will have a low pixel value. turn into. On the other hand, other input images obtained by photographing the same location may appropriately display lesions and the like, and high-quality images obtained by enhancing the image quality of the other input images may have high pixel values. Therefore, by superimposing these high-quality images, it becomes possible to appropriately display the portions with low or high pixel values, and it is possible to generate a high-contrast high-quality image. By setting the number of input images to be smaller than the number of images required for conventional superimposition, it is possible to further reduce costs such as longer photographing time as in the conventional art.

なお、当該作用については、例えば、OCTA画像等のモーションコントラストデータを用いた入力画像を用いる場合に顕著となる。ここで、モーションコントラストデータとは、OCTA等で用いられる、撮影対象の同一箇所を繰り返し撮影し、その撮影間における撮影対象の時間的な変化を検出したデータである。OCTAでは、算出したモーションコントラストデータのうち、撮影対象の深さ方向における所望の範囲のデータを用いて正面画像を生成することで、OCTA画像を生成する。 It should be noted that this effect becomes remarkable when using an input image using motion contrast data such as an OCTA image, for example. Here, the motion contrast data is data used in OCTA or the like, obtained by repeatedly photographing the same part of an object to be photographed and detecting a temporal change in the object to be photographed between the photographings. In OCTA, an OCTA image is generated by generating a front image using data of a desired range in the depth direction of the imaging target among the calculated motion contrast data.

モーションコントラストデータは、撮影対象の同一箇所を繰り返し撮影した時間間隔における、撮影対象の時間的な変化を検出したものであるため、例えば、ある時間間隔では撮影対象の動きについて僅かな動きしか検出できない場合がある。これに対して、別の時間間隔撮影を行った場合には、撮影対象の動きをより大きな動きとして検出できる場合もある。そのため、それぞれの場合のモーションコントラスト画像を高画質化した画像を重ね合わせることで、特定のタイミングでは生じていなかった又は僅かにしか検出されていなかったモーションコントラストを補間することができる。そのため、このような処理によれば、撮影対象のより多くの動きについてコントラスト強調が行われたモーションコントラスト画像を生成することができ、検者は、撮影対象のより正確な状態を把握することができる。 Motion contrast data is obtained by detecting temporal changes in the object to be photographed over time intervals in which the same part of the object to be photographed is repeatedly photographed. Sometimes. On the other hand, if another time-interval photographing is performed, it may be possible to detect the movement of the photographed object as a larger movement. Therefore, by superimposing the motion contrast images obtained by increasing the quality of the motion contrast images in each case, it is possible to interpolate the motion contrast that was not generated at a specific timing or was only slightly detected. Therefore, according to such processing, it is possible to generate a motion contrast image in which contrast enhancement is performed for more movements of the object to be photographed, and the examiner can grasp the state of the object to be photographed more accurately. can.

従って、OCTA画像のように時間的に変化している箇所を描出する画像を入力画像として用いる場合には、異なる時間で取得した高画質画像を重ね合わせることによって、被検者の所定部位をより詳細に画像化することができる。 Therefore, when an image such as an OCTA image that depicts a portion that changes with time is used as an input image, by superimposing high-quality images acquired at different times, the predetermined portion of the subject can be more clearly identified. It can be imaged in detail.

なお、本実施形態では、複数の入力画像からそれぞれ高画質画像を生成し、高画質画像を重ね合わせることで、最終的な一枚の高画質画像を生成したが、複数の入力画像から一枚の高画質画像を生成する方法はこれに限られない。例えば、図21Bに示す本実施形態の高画質化処理の別例では、ステップS540において高画質化処理が開始されると、ステップS2130において、高画質化部404が入力画像群を重ね合わせし、一枚の重ね合わせされた入力画像を生成する。 In this embodiment, high-quality images are generated from a plurality of input images, and the high-quality images are superimposed to generate a final high-quality image. The method for generating a high-quality image of is not limited to this. For example, in another example of the image quality improvement process of this embodiment shown in FIG. Generate a single superimposed input image.

その後、ステップS2140において、高画質化部404が、一枚の重ね合わされた入力画像を高画質化エンジンに入力し、一枚の高画質画像を生成する。このような、高画質化処理であっても、上述の高画質化処理と同様に、複数の入力画像について低い又は高い画素値となっている箇所を適切に表示できるようになり、高コントラストな高画質画像を生成することができる。当該処理も、上記OCTA画像等のモーションコントラスト画像を入力画像とした場合に、顕著な作用を奏することができる。 After that, in step S2140, the image quality enhancement unit 404 inputs the one superimposed input image to the image quality enhancement engine to generate one high quality image. Even with this kind of image quality enhancement processing, like the image quality enhancement processing described above, portions of a plurality of input images with low or high pixel values can be displayed appropriately, resulting in a high-contrast image. High quality images can be generated. This processing can also produce a remarkable effect when a motion contrast image such as the OCTA image is used as an input image.

なお、当該高画質処理を行う場合には、高画質化エンジンの教師データの入力データとして、処理対象とされる複数の入力画像と同数の入力画像の重ね合わせ画像を用いる。これにより、高画質化エンジンにより適切な高画質化処理を行うことができる。 When the image quality processing is performed, a superimposed image of the same number of input images as the plurality of input images to be processed is used as the input data for the training data of the image quality enhancement engine. As a result, the image quality enhancement engine can perform appropriate image quality enhancement processing.

また、本実施形態による高画質化処理及び上述の別の高画質化処理について、高画質画像群又は入力画像群を組み合わせる処理は、重ね合わせに限られない。例えば、これらの画像群にMAP推定処理を適用することで一枚の画像を生成してもよい。また、高画質画像群又は入力画像群を合成して一枚の画像を生成してもよい。 Further, in the image quality improvement processing according to the present embodiment and the other image quality improvement processing described above, the processing of combining a high quality image group or an input image group is not limited to superimposition. For example, one image may be generated by applying MAP estimation processing to these image groups. Alternatively, a single image may be generated by synthesizing a group of high-quality images or a group of input images.

高画質画像群又は入力画像群を合成して一枚の画像を生成する場合としては、例えば、入力画像として高輝度領域について広い階調を有する画像と低輝度領域に広い階調を有する画像を用いる場合がある。この場合には、例えば、高輝度領域について広い階調を有する画像を高画質化した画像と、低輝度領域について広い階調を有する画像を高画質化した画像とを合成する。これにより、より広い明るさの幅(ダイナミックレンジ)を表現できる画像を生成することができる。なお、この場合には、高画質化エンジンの教師データの入力データは、処理対象とされる、高輝度領域について広い階調を有する画像や低輝度領域について広い階調を有する低画質画像とすることができる。また、高画質化エンジンの教師データの出力データは、入力データに対応する高画質画像とすることができる。 When synthesizing a group of high-quality images or a group of input images to generate a single image, for example, an image having a wide gradation in a high luminance area and an image having a wide gradation in a low luminance area are used as an input image. may be used. In this case, for example, an image obtained by improving the image quality of an image having wide gradation in a high luminance area and an image obtained by improving the image quality of an image having a wide gradation in a low luminance area are synthesized. This makes it possible to generate an image that can express a wider range of brightness (dynamic range). In this case, the input data of the training data for the image quality enhancement engine is an image with wide gradation in the high luminance area or a low image quality image with wide gradation in the low luminance area, which is to be processed. be able to. Also, the output data of the teacher data from the image quality enhancement engine can be a high quality image corresponding to the input data.

また、高輝度領域について広い階調を有する画像と、低輝度領域について広い階調を有する画像とを合成し、合成した画像を高画質化エンジンによって高画質化してもよい。この場合にも、より広い明るさの幅を表現できる画像を生成することができる。なお、この場合には、高画質化エンジンの教師データの入力データは、処理対象とされる、高輝度領域について広い階調を有する低画質画像と低輝度領域について広い階調を有する低画質画像を合成した画像とすることができる。また、高画質化エンジンの教師データの出力データは、入力データに対応する高画質画像とすることができる。 Alternatively, an image having a wide gradation in a high luminance area and an image having a wide gradation in a low luminance area may be synthesized, and the image quality of the synthesized image may be improved by an image quality improvement engine. In this case also, an image that can express a wider range of brightness can be generated. In this case, the input data for the training data of the image quality enhancement engine is a low image quality image having wide gradation in the high luminance area and a low image quality image having wide gradation in the low luminance area. can be a composite image. Also, the output data of the teacher data from the image quality enhancement engine can be a high quality image corresponding to the input data.

これらの場合には、高画質化エンジンを用いて、より広い明るさの幅を表現できる画像を高画質化することができ、従来と比べてより少ない枚数の画像等で処理を行うことができ、より少ない代償で、画像解析に適した画像を提供することができる。 In these cases, an image quality enhancement engine can be used to improve the image quality of an image that can express a wider range of brightness, making it possible to process images with a smaller number of images than before. , can provide images suitable for image analysis at a lower cost.

なお、高輝度領域について広い階調を有する画像と、低輝度領域について広い階調を有する画像の撮影方法としては、撮影装置の露光時間をより短く又はより長くする等の、任意の方法を採用してよい。また、階調の幅の分け方は、低輝度領域及び高輝度領域に限られず、任意であってよい。 Any method, such as shortening or lengthening the exposure time of the photographing device, can be used as a method of photographing an image having a wide gradation in the high luminance region and an image having a wide gradation in the low luminance region. You can Moreover, the method of dividing the width of the gradation is not limited to the low-luminance region and the high-luminance region, and may be arbitrary.

また、本実施形態に係る高画質化処理において、複数の高画質化エンジンを用いて、複数の入力画像を並列的に処理してもよい。なお、出力部405は、第1の実施形態と同様に、生成された高画質画像を撮影装置10や画像処理装置400に接続される他の装置に出力してもよい。また、高画質化エンジンの教師データの出力データは、第1の実施形態と同様に、重ね合わせ処理を行った高画質画像に限られない。すなわち、重ね合わせ処理やMAP推定処理、平滑化フィルタ処理、階調変換処理、高性能な撮影装置を用いた撮影、高コストな処理、ノイズ低減処理といった処理群や撮影方法のうち、少なくとも一つを行うことによって得られた高画質画像を用いてもよい。 Further, in the image quality enhancement processing according to the present embodiment, a plurality of image quality enhancement engines may be used to process a plurality of input images in parallel. Note that the output unit 405 may output the generated high-quality image to another device connected to the imaging device 10 or the image processing device 400, as in the first embodiment. Also, the output data of the training data from the image quality improvement engine is not limited to the high quality image that has undergone the superimposition process, as in the first embodiment. That is, at least one of a processing group and a photographing method such as superimposition processing, MAP estimation processing, smoothing filter processing, gradation conversion processing, photographing using a high-performance photographing device, high-cost processing, and noise reduction processing. You may use the high quality image obtained by performing.

<第14の実施形態>
次に、図4及び5を参照して、第14の実施形態に係る画像処理装置について説明する。本実施形態では、高画質化部が複数の低画質画像から生成された中画質画像を入力画像とし、高画質画像を生成する。
<Fourteenth Embodiment>
Next, an image processing apparatus according to a fourteenth embodiment will be described with reference to FIGS. 4 and 5. FIG. In this embodiment, the image quality enhancing unit uses, as an input image, a medium image quality image generated from a plurality of low image quality images, and generates a high image quality image.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第1の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第1の実施形態に係る画像処理装置との違いを中心として説明する。なお、本実施形態に係る画像処理装置の構成は、第1の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。 Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the first embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below, focusing on the differences from the image processing apparatus according to the first embodiment. Note that the configuration of the image processing apparatus according to this embodiment is the same as that of the image processing apparatus according to the first embodiment, so the same reference numerals are used for the configuration shown in FIG. do.

本実施形態に係る取得部401は、撮影装置10や他の装置から、処理対象である入力データとして、複数の低画質画像を重ね合わせ処理した中画質画像を取得する。なお、低画質画像の重ね合わせに際しては、任意の位置合わせ処理が行われてよい。 The acquisition unit 401 according to the present embodiment acquires a medium image quality image obtained by superimposing a plurality of low image quality images as input data to be processed from the imaging device 10 or another device. Arbitrary alignment processing may be performed when superimposing the low-quality images.

本実施形態に係る高画質化部404には、第1の実施形態と同様の、高画質化エンジンが備えられている。ただし、本実施形態の高画質化エンジンは、中程度の画質である中画質画像を入力し、高画質画像を出力するように設計されている。中画質画像とは複数の低画質画像群を重ね合わせして生成された重ね合わせ画像である。また、高画質画像は中画質画像よりも高画質な画像である。また、高画質化エンジンのトレーニングに用いられた教師データを構成するペア群についても、各ペアを構成する入力データは中画質画像と同様にして生成された中画質画像であり、出力データは高画質画像である。 The image quality enhancement unit 404 according to the present embodiment includes an image quality enhancement engine similar to that of the first embodiment. However, the image quality enhancement engine of the present embodiment is designed to input a medium image quality image of medium image quality and to output a high image quality image. A medium-quality image is a superimposed image generated by superimposing a plurality of low-quality image groups. Also, the high quality image is an image of higher quality than the medium quality image. Also, for the pair groups that make up the training data used for training the image quality enhancement engine, the input data that makes up each pair is a medium quality image generated in the same way as the medium quality image, and the output data is a high quality image. It is a quality image.

出力部405は、高画質化部404が生成した高画質画像を表示部20に表示させる。なお、出力部405は、高画質画像とともに、入力画像を表示部20に表示させてもよく、この場合に、出力部405は、入力画像が複数の低画質画像から生成された画像であることを表示部20に表示してもよい。 The output unit 405 causes the display unit 20 to display the high quality image generated by the image quality enhancement unit 404 . Note that the output unit 405 may display the input image on the display unit 20 together with the high-quality image. may be displayed on the display unit 20.

次に、図5を参照して、本実施形態に係る一連の画像処理について説明する。なお、本実施形態に係るステップS520~ステップS550の処理は、第1の実施形態におけるこれらの処理と同様であるため、説明を省略する。 Next, a series of image processing according to this embodiment will be described with reference to FIG. Note that the processing of steps S520 to S550 according to the present embodiment is the same as those processing in the first embodiment, so description thereof will be omitted.

ステップS510においては、取得部401は、撮影装置10や他の装置から、入力画像として中画質画像を取得する。なお、取得部401は撮影装置10からの要求に応じて、撮影装置10が生成した中画質画像を入力画像として取得してもよい。このような要求は、例えば、撮影装置10が画像を生成した時、撮影装置10が生成した画像を撮影装置10が備える記録装置に保存する前や保存した後、保存された画像を表示部20に表示する時、画像解析処理に高画質画像を利用する時等に発行されてよい。 In step S510, the acquisition unit 401 acquires a medium quality image as an input image from the imaging device 10 or another device. Note that the acquiring unit 401 may acquire the medium quality image generated by the imaging device 10 as the input image in response to a request from the imaging device 10 . For example, when the image capturing device 10 generates an image, such a request is made before or after saving the image generated by the image capturing device 10 in a recording device included in the image capturing device 10, and displaying the saved image on the display unit 20. may be issued when displaying a high quality image, when using a high quality image for an image analysis process, and so on.

以降の処理は、第1の実施形態における処理と同様であるため、説明を省略する。 Since the subsequent processing is the same as the processing in the first embodiment, the description is omitted.

上記のように、本実施形態に係る取得部401は、被検者の所定部位の複数の画像を用いて生成された画像である中画質画像を入力画像として取得する。この場合、入力画像がより明瞭な画像となるため、高画質化エンジンは高画質画像をより精度良く生成することができる。なお、中画質画像を生成するために用いる低画質画像の枚数は、従来の重ね合わせ画像を生成するために用いられる画像の枚数より少なくてよい。 As described above, the acquiring unit 401 according to the present embodiment acquires, as an input image, a medium-quality image that is an image generated using a plurality of images of a predetermined region of the subject. In this case, since the input image becomes a clearer image, the image quality enhancement engine can generate a high quality image with higher accuracy. Note that the number of low-quality images used to generate a medium-quality image may be less than the number of images used to generate a conventional superimposed image.

なお、中画質画像は、複数の低画質画像を重ね合わせた画像に限られず、例えば、複数の低画質画像にMAP推定処理を適用した画像でもよいし、複数の低画質画像を合成した画像であってもよい。複数の低画質画像を合成する場合には、それぞれの画像の階調が異なっている画像同士を合成してもよい。 Note that the medium-quality image is not limited to an image obtained by superimposing a plurality of low-quality images. There may be. When synthesizing a plurality of low-quality images, images having different gradations may be synthesized.

また、出力部405は、第1の実施形態と同様に、生成された高画質画像を撮影装置10や画像処理装置400に接続される他の装置に出力してもよい。また、高画質化エンジンの教師データの出力データは、第1の実施形態と同様に、重ね合わせ処理を行った高画質画像に限られない。すなわち、重ね合わせ処理やMAP推定処理、平滑化フィルタ処理、階調変換処理、高性能な撮影装置を用いた撮影、高コストな処理、ノイズ低減処理といった処理群や撮影方法のうち、少なくとも一つを行うことによって得られた高画質画像を用いてもよい。 Further, the output unit 405 may output the generated high-quality image to another device connected to the imaging device 10 or the image processing device 400, as in the first embodiment. Also, the output data of the training data from the image quality improvement engine is not limited to the high quality image that has undergone the superimposition process, as in the first embodiment. That is, at least one of a processing group and a photographing method such as superimposition processing, MAP estimation processing, smoothing filter processing, gradation conversion processing, photographing using a high-performance photographing device, high-cost processing, and noise reduction processing. You may use the high quality image obtained by performing.

<第15の実施形態>
次に、図4及び5を参照して、第15の実施形態に係る画像処理装置について説明する。本実施形態では、高画質化部が第1の実施形態等に係る高画質化とともに入力画像の高画像サイズ化(高サイズ化)を行う。
<Fifteenth Embodiment>
Next, an image processing apparatus according to a fifteenth embodiment will be described with reference to FIGS. 4 and 5. FIG. In the present embodiment, the image quality improving unit performs the image quality improvement according to the first embodiment and the like, and also increases the image size of the input image (increase in size).

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第1の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第1の実施形態に係る画像処理装置との違いを中心として説明する。なお、本実施形態に係る画像処理装置の構成は、第1の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。 Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the first embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below, focusing on the differences from the image processing apparatus according to the first embodiment. Note that the configuration of the image processing apparatus according to this embodiment is the same as that of the image processing apparatus according to the first embodiment, so the same reference numerals are used for the configuration shown in FIG. do.

本実施形態に係る取得部401は、入力画像として低画像サイズの画像(低サイズ画像)を取得する。なお、低サイズ画像とは、後述する高画質化エンジンによって出力される高画像サイズの画像(高サイズ画像)よりも、画像を構成する画素数が少ない画像である。具体的には、例えば、高サイズ画像の画像サイズが幅1024画素、高さ1024画素、奥行き1024画素の場合に、低サイズ画像の画像サイズが512画素、高さ512画素、奥行き512画素である場合等である。これに関連して、本明細書における、高画像サイズ化とは、一画像あたりの画素数を増加させ、画像サイズを拡大する処理をいう。 The acquisition unit 401 according to the present embodiment acquires a low image size image (low size image) as an input image. Note that the low-size image is an image having a smaller number of pixels than a high-image-size image (high-size image) output by an image quality enhancement engine, which will be described later. Specifically, for example, when the image size of the high-size image is 1024 pixels wide, 1024 pixels high, and 1024 pixels deep, the image size of the low-size image is 512 pixels, 512 pixels high, and 512 pixels deep. and so on. In relation to this, in this specification, increasing the image size refers to processing for increasing the number of pixels per image and enlarging the image size.

本実施形態に係る高画質化部404には、第1の実施形態と同様に、高画質化エンジンが備えられている。ただし、本実施形態の高画質化エンジンは、入力画像についてノイズ低減やコントラスト強調するとともに、入力画像の画像サイズを高画像サイズ化するように構成されている。そのため、本実施形態の高画質化エンジンは、低サイズ画像を入力し、高サイズ画像を出力するように構成されている。 The image quality enhancement unit 404 according to the present embodiment includes an image quality enhancement engine, as in the first embodiment. However, the image quality enhancement engine of this embodiment is configured to reduce noise and enhance the contrast of the input image and increase the image size of the input image. Therefore, the image quality enhancement engine of this embodiment is configured to receive a low-size image and output a high-size image.

これに関連して、高画質化エンジンの教師データを構成するペア群について、各ペアを構成する入力データは低サイズ画像であり、出力データは高サイズ画像である。なお、出力データ用として用いる高サイズ画像は、低サイズ画像を取得した撮影装置よりも高性能な装置から取得したり、撮影装置の設定を変更することによって取得したりすることができる。また、高サイズ画像群が既にある場合には、当該高サイズ画像群を撮影装置10からの取得が想定される画像の画像サイズに縮小することで、入力データとして用いる低サイズ画像群を取得してもよい。また、高サイズ画像については、第1の実施形態等と同様に低サイズ画像を重ね合わせたものが用いられる。 In relation to this, for a group of pairs forming teacher data for the image quality enhancement engine, the input data forming each pair is a low-size image, and the output data is a large-size image. Note that the high-size image used as output data can be acquired from a device with higher performance than the imaging device that acquired the low-size image, or by changing the settings of the imaging device. Further, when a group of high-size images already exists, the group of low-size images to be used as input data is acquired by reducing the group of high-size images to the image size of the image assumed to be acquired from the imaging device 10. may As for the high-size image, a superimposed low-size image is used as in the first embodiment.

なお、本実施形態に係る高画質化部404による入力画像の画像サイズの拡大については、教師データとして撮影装置10よりも高性能な装置から取得したり、撮影装置10の設定を変更したりすることで取得しているため、単純な画像の拡大とは異なる。具体的には、本実施形態に係る高画質化部404による入力画像の画像サイズの拡大処理は、単純に画像を拡大した場合と比べ、解像度の劣化を低減することができる。 Note that the enlargement of the image size of the input image by the image quality enhancement unit 404 according to the present embodiment is performed by acquiring training data from a device having higher performance than the imaging device 10 or by changing the settings of the imaging device 10 . It is different from simple image enlargement because it is obtained by Specifically, the processing for enlarging the image size of the input image by the image quality enhancing unit 404 according to the present embodiment can reduce degradation in resolution compared to simply enlarging the image.

このような構成により、本実施形態に係る高画質化部404は、入力画像に対して、ノイズ低減やコントラスト強調がなされるとともに高画像サイズ化された高画質画像を生成することができる。 With such a configuration, the image quality enhancing unit 404 according to the present embodiment can generate a high image quality image in which noise reduction and contrast enhancement are performed on the input image and the image size is increased.

次に、図5を参照して、本実施形態に係る一連の画像処理について説明する。なお、本実施形態に係るステップS520、ステップS530、及びステップS550の処理は、第1の実施形態におけるこれらの処理と同様であるため、説明を省略する。なお、入力画像に対して、撮影条件について無条件で高画質化する場合には、ステップS520の処理の後に、ステップS530の処理を省き、処理をステップS540に移行してよい。 Next, a series of image processing according to this embodiment will be described with reference to FIG. Note that the processes of steps S520, S530, and S550 according to the present embodiment are the same as those processes in the first embodiment, and therefore description thereof is omitted. Note that if the image quality of the input image is to be improved unconditionally with respect to the shooting conditions, the process of step S530 may be omitted after the process of step S520, and the process may proceed to step S540.

ステップS510において、取得部401は、撮影装置10や他の装置から、処理対象である入力データとして、低サイズ画像を取得する。なお、取得部401は撮影装置10からの要求に応じて、撮影装置10が生成した低サイズ画像を入力画像として取得してもよい。このような要求は、例えば、撮影装置10が画像を生成した時、撮影装置10が生成した画像を撮影装置10が備える記録装置に保存する前や保存した後、保存された画像を表示部20に表示する時、画像解析処理に高画質画像を利用する時等に発行されてよい。 In step S510, the acquisition unit 401 acquires a low-size image as input data to be processed from the imaging device 10 or another device. Note that the acquisition unit 401 may acquire a low-size image generated by the imaging device 10 as an input image in response to a request from the imaging device 10 . For example, when the image capturing device 10 generates an image, such a request is made before or after saving the image generated by the image capturing device 10 in a recording device included in the image capturing device 10, and displaying the saved image on the display unit 20. may be issued when displaying a high quality image, when using a high quality image for an image analysis process, and so on.

ステップS520及びステップS530の処理は第1の実施形態での処理と同様であるため説明を省略する。ステップS540では、高画質化部404が、入力画像を高画質化エンジンに入力し、高画質画像としてノイズ低減やコントラスト強調がなされるとともに高画像サイズ化された画像を生成する。以降の処理は、第1の実施形態と同様であるため説明を省略する。 Since the processing in steps S520 and S530 is the same as the processing in the first embodiment, description thereof is omitted. In step S540, the image quality enhancing unit 404 inputs the input image to the image quality enhancing engine, and generates an image of high image quality with noise reduction and contrast enhancement and with a large image size. Since subsequent processing is the same as that of the first embodiment, the description is omitted.

上記のように、本実施形態に係る高画質化部404は、入力画像と比べてノイズ低減及びコントラスト強調のうちの少なくとも一つがなされるとともに、画像サイズの拡大がなされた高画質画像を生成する。これにより、本実施形態に係る画像処理装置400は、画像診断に適した高画質画像を、撮影者や被検者の侵襲性を高めたり、労力を増したりすることなく出力することができる。 As described above, the image quality enhancement unit 404 according to the present embodiment generates a high quality image in which at least one of noise reduction and contrast enhancement is performed and the image size is enlarged as compared with the input image. . As a result, the image processing apparatus 400 according to the present embodiment can output high-quality images suitable for image diagnosis without increasing the invasiveness or labor of the photographer or subject.

なお、本実施形態では、一つの高画質化エンジンにより、第1の実施形態等による高画質化処理と高画像サイズ化の処理を行った高画質画像を生成したが、これらの処理を行う構成はこれに限られない。例えば、高画質化部は、第1の実施形態等による高画質化処理を行う高画質化エンジン及び高画像サイズ化処理を行う別の高画質化エンジンを備えてもよい。 In this embodiment, a single image quality enhancement engine generates a high quality image by performing the image quality enhancement process and the image size enhancement process according to the first embodiment and the like. is not limited to this. For example, the image quality enhancement unit may include an image quality enhancement engine that performs image quality enhancement processing according to the first embodiment or the like and another image quality enhancement engine that performs image size enhancement processing.

この場合には、第1の実施形態等に係る高画質化処理を行う高画質化エンジンは第1の実施形態等に係る高画質化エンジンと同様に学習を行った機械学習モデルを用いることができる。また、高画像サイズ化処理を行う高画質化エンジンの教師データの入力データとしては、第1の実施形態等に係る高画質化エンジンが生成した高画質画像を用いる。また、当該高画質化エンジンの教師データの出力データとしては、高性能な撮影装置で取得された画像について第1の実施形態等に係る高画質化エンジンが生成した高画質画像を用いる。これにより、高画像サイズ化処理を行う高画質化エンジンは、第1の実施形態等に係る高画質化処理を行った高画質画像について高画像サイズ化した最終的な高画質画像を生成することができる。 In this case, the image quality enhancement engine that performs the image quality enhancement process according to the first embodiment and the like can use a machine learning model that has undergone learning in the same manner as the image quality enhancement engine according to the first embodiment and the like. can. Also, as the input data for the training data of the image quality enhancement engine that performs the image size enhancement process, the high quality image generated by the image quality enhancement engine according to the first embodiment and the like is used. Also, as the output data of the training data of the image quality improvement engine, a high quality image generated by the image quality improvement engine according to the first embodiment and the like is used for the image acquired by the high-performance imaging device. As a result, the image quality enhancement engine that performs the image size enhancement process generates a final high quality image by increasing the image size of the high quality image that has undergone the image quality enhancement process according to the first embodiment. can be done.

また、当該高画質化エンジンによる高画像サイズ化処理を、第1の実施形態等に係る高画化処理エンジンによる高画質化処理の前に行ってもよい。この場合には、高画像サイズ化処理を行う高画質化エンジンについての教師データは、撮影装置で取得した低サイズ画像である入力データと高サイズ画像である出力データのペア群により構成する。また、第1の実施形態等に係る高画質化処理を行う高画質化エンジンの教師データとしては、高サイズ画像を入力データと、高サイズ画像を重ね合わせした画像を出力データのペア群により構成する。 Further, the image size increasing processing by the image quality enhancing engine may be performed before the image quality increasing processing by the image enhancing processing engine according to the first embodiment and the like. In this case, the training data for the image quality enhancement engine that performs the image size enhancement processing is composed of pairs of input data as low-size images and output data as high-size images acquired by the imaging device. In addition, as training data for the image quality enhancement engine that performs image quality enhancement processing according to the first embodiment, etc., a large size image is input data, and an image obtained by superimposing the high size image is composed of a pair group of output data. do.

このような構成によっても、画像処理装置400は、入力画像と比べてノイズ低減及びコントラスト強調のうちの少なくとも一つがなされるとともに、画像サイズの拡大がなされた画像を高画質画像として生成することができる。 Even with such a configuration, the image processing apparatus 400 can generate, as a high-quality image, an image in which at least one of noise reduction and contrast enhancement has been performed as compared with the input image and the image size has been enlarged. can.

なお、本実施形態では、第1の実施形態等に係る高画質化処理について、重ね合わせ画像を教師データの出力データとして用いる構成について述べたが、第1の実施形態と同様に当該出力データはこれに限られない。すなわち、重ね合わせ処理やMAP推定処理、平滑化フィルタ処理、階調変換処理、高性能な撮影装置を用いた撮影、高コストな処理、ノイズ低減処理といった処理群や撮影方法のうち、少なくとも一つを行うことによって得られた高画質画像を用いてもよい。 In addition, in the present embodiment, regarding the image quality improvement processing according to the first embodiment, etc., a configuration in which a superimposed image is used as output data of teacher data has been described. It is not limited to this. That is, at least one of a processing group and a photographing method such as superimposition processing, MAP estimation processing, smoothing filter processing, gradation conversion processing, photographing using a high-performance photographing device, high-cost processing, and noise reduction processing. You may use the high quality image obtained by performing.

なお、出力部405は、第1の実施形態と同様に、生成された高画質画像を撮影装置10や画像処理装置400に接続される他の装置に出力してもよい。 Note that the output unit 405 may output the generated high-quality image to another device connected to the imaging device 10 or the image processing device 400, as in the first embodiment.

<第16の実施形態>
次に、図4及び5を参照して、第16の実施形態に係る画像処理装置について説明する。本実施形態では、高画質化部が第1の実施形態等に係る高画質化とともに高空間分解能化を行う。
<Sixteenth Embodiment>
Next, an image processing apparatus according to a sixteenth embodiment will be described with reference to FIGS. 4 and 5. FIG. In this embodiment, the image quality enhancement unit performs the image quality enhancement according to the first embodiment and the like, as well as the spatial resolution enhancement.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第1の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第1の実施形態に係る画像処理装置との違いを中心として説明する。なお、本実施形態に係る画像処理装置の構成は、第1の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。 Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the first embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below, focusing on the differences from the image processing apparatus according to the first embodiment. Note that the configuration of the image processing apparatus according to this embodiment is the same as that of the image processing apparatus according to the first embodiment, so the same reference numerals are used for the configuration shown in FIG. do.

本実施形態に係る取得部401は、入力画像として低空間分解能画像を取得する。なお、低空間分解能画像とは、高画質化部404が出力する高空間分解能画像よりも、空間分解能が低い画像である。 The acquisition unit 401 according to this embodiment acquires a low spatial resolution image as an input image. Note that the low spatial resolution image is an image having a spatial resolution lower than that of the high spatial resolution image output by the image quality enhancing unit 404 .

高画質化部404には、第1の実施形態と同様に、高画質化エンジンが備えられている。ただし、本実施形態の高画質化エンジンは、入力画像についてノイズ低減やコントラスト強調するとともに、入力画像の空間分解能を高空間分解能化するように構成されている。そのため、本実施形態に係る高画質化エンジンは、低空間分解能画像を入力し、高空間分解能画像を出力するように構成されている。 The image quality enhancement unit 404 includes an image quality enhancement engine, as in the first embodiment. However, the image quality enhancement engine of the present embodiment is configured to reduce noise and enhance the contrast of the input image and to increase the spatial resolution of the input image. Therefore, the image quality enhancement engine according to this embodiment is configured to receive a low spatial resolution image and output a high spatial resolution image.

これに関連して、高画質化エンジンの教師データを構成するペア群についても、各ペアを構成する入力データは低空間分解能画像であり、出力データは高空間分解能画像である。なお、高空間分解能画像は、低空間分解能画像を取得した撮影装置よりも高性能な装置から取得したり、撮影装置の設定を変更することによって取得したりすることができる。また、高空間分解能画像については、第1の実施形態等と同様に低空間分解能画像を重ね合わせたものが用いられる。 In relation to this, the input data constituting each pair is a low spatial resolution image, and the output data is a high spatial resolution image, also for a group of pairs constituting teacher data for the image quality enhancement engine. Note that the high spatial resolution image can be acquired from a device with higher performance than the imaging device that acquired the low spatial resolution image, or by changing the settings of the imaging device. As for the high spatial resolution image, a superimposed low spatial resolution image is used as in the first embodiment.

このような構成により、本実施形態に係る高画質化部404は、入力画像に対して、ノイズ低減やコントラスト強調がなされるとともに高空間分解能化された高画質画像を生成することができる。 With such a configuration, the image quality improving unit 404 according to the present embodiment can generate a high quality image in which noise reduction and contrast enhancement are performed on the input image and also high spatial resolution is achieved.

次に、図5を参照して、本実施形態に係る一連の画像処理について説明する。なお、本実施形態に係るステップS520、ステップS530、及びステップS550の処理は、第1の実施形態におけるこれらの処理と同様であるため、説明を省略する。なお、入力画像に対して、撮影条件について無条件で高画質化する場合には、ステップS520の処理の後に、ステップS530の処理を省き、処理をステップS540に移行してよい。 Next, a series of image processing according to this embodiment will be described with reference to FIG. Note that the processes of steps S520, S530, and S550 according to the present embodiment are the same as those processes in the first embodiment, and therefore description thereof is omitted. Note that if the image quality of the input image is to be improved unconditionally with respect to the shooting conditions, the process of step S530 may be omitted after the process of step S520, and the process may proceed to step S540.

ステップS510において、取得部401は、撮影装置10や他の装置から、処理対象である入力データとして、低空間分解能画像を取得する。なお、取得部401は撮影装置10からの要求に応じて、撮影装置10が生成した低空間分解能画像を入力画像として取得してもよい。このような要求は、例えば、撮影装置10が画像を生成した時、撮影装置10が生成した画像を撮影装置10が備える記録装置に保存する前や保存した後、保存された画像を表示部20に表示する時、画像解析処理に高画質画像を利用する時等に発行されてよい。 In step S510, the acquisition unit 401 acquires a low spatial resolution image as input data to be processed from the imaging device 10 or another device. Note that the acquisition unit 401 may acquire the low spatial resolution image generated by the imaging device 10 as the input image in response to a request from the imaging device 10 . For example, when the image capturing device 10 generates an image, such a request is made before or after saving the image generated by the image capturing device 10 in a recording device included in the image capturing device 10, and displaying the saved image on the display unit 20. may be issued when displaying a high quality image, when using a high quality image for an image analysis process, and so on.

ステップS520及びステップS530の処理は第1の実施形態での処理と同様であるため説明を省略する。ステップS540では、高画質化部404が、入力画像を高画質化エンジンに入力し、高画質画像としてノイズ低減やコントラスト強調がなされるとともに高空間分解能化された画像を生成する。以降の処理は、第1の実施形態と同様であるため説明を省略する。 Since the processing in steps S520 and S530 is the same as the processing in the first embodiment, description thereof is omitted. In step S540, the image quality enhancement unit 404 inputs the input image to the image quality enhancement engine, and generates an image with high spatial resolution as well as noise reduction and contrast enhancement as a high quality image. Since subsequent processing is the same as that of the first embodiment, the description is omitted.

上記のように、本実施形態に係る高画質化部404は、入力画像と比べてノイズ低減及びコントラスト強調のうちの少なくとも一つがなされるとともに、空間分解能が向上された画像を高画質画像として生成する。これにより、本実施形態に係る画像処理装置400は、画像診断に適した高画質画像を、撮影者や被検者の侵襲性を高めたり、労力を増したりすることなく出力することができる。 As described above, the image quality enhancing unit 404 according to the present embodiment generates an image having at least one of noise reduction and contrast enhancement and improved spatial resolution as a high quality image compared to the input image. do. As a result, the image processing apparatus 400 according to the present embodiment can output high-quality images suitable for image diagnosis without increasing the invasiveness or labor of the photographer or subject.

なお、本実施形態では、一つの高画質化エンジンにより、第1の実施形態等による高画質化処理と高分解能化の処理を行った高画質画像を生成したが、これらの処理を行う構成はこれに限られない。例えば、高画質化部は、第1の実施形態等による高画質化処理を行う高画質化エンジン及び高空間分解能化処理を行う別の高画質化エンジンを備えてもよい。 In the present embodiment, one high-quality image engine generates a high-quality image by performing the high-quality image processing and the high-resolution processing according to the first embodiment and the like. It is not limited to this. For example, the image quality enhancement unit may include an image quality enhancement engine that performs image quality enhancement processing according to the first embodiment or the like and another image quality enhancement engine that performs high spatial resolution enhancement processing.

この場合には、第1の実施形態等に係る高画質化処理を行う高画質化エンジンは第1の実施形態等に係る高画質化エンジンと同様に学習を行った機械学習モデルを用いることができる。また、高空間分解能化処理を行う高画質化エンジンの教師データの入力データとしては、第1の実施形態等に係る高画質化エンジンが生成した高画質画像を用いる。また、当該高画質化エンジンの教師データの出力データとしては、高性能な撮影装置で取得された画像について第1の実施形態等に係る高画質化エンジンが生成した高画質画像を用いる。これにより、高空間分解能化処理を行う高画質化エンジンは、第1の実施形態等に係る高画質化処理を行った高画質画像について高空間分解能化した最終的な高画質画像を生成することができる。 In this case, the image quality enhancement engine that performs the image quality enhancement process according to the first embodiment and the like can use a machine learning model that has undergone learning in the same manner as the image quality enhancement engine according to the first embodiment and the like. can. Also, as the input data for the training data of the image quality enhancement engine that performs the spatial resolution enhancement process, the high quality image generated by the image quality enhancement engine according to the first embodiment and the like is used. Also, as the output data of the training data of the image quality improvement engine, a high quality image generated by the image quality improvement engine according to the first embodiment and the like is used for the image acquired by the high-performance imaging device. As a result, the image quality enhancement engine that performs the spatial resolution enhancement process generates a final high quality image by increasing the spatial resolution of the high quality image that has been subjected to the image quality enhancement process according to the first embodiment. can be done.

また、当該高画質化エンジンによる高空間分解能化処理を、第1の実施形態等に係る高画化処理エンジンによる高画質化処理の前に行ってもよい。この場合には、高空間分解能化処理を行う高画質化エンジンについての教師データは、撮影装置で取得した低空間分解能画像である入力データと高空間分解能画像である出力データのペア群により構成する。また、第1の実施形態等に係る高画質化処理を行う高画質化エンジンの教師データとしては、高空間分解能画像を入力データと、高空間分解能画像を重ね合わせした画像を出力データのペア群により構成する。 Also, the high spatial resolution processing by the image quality enhancement engine may be performed before the image quality enhancement processing by the image enhancement processing engine according to the first embodiment and the like. In this case, the training data for the high image quality engine that performs high spatial resolution processing is composed of pairs of input data as low spatial resolution images and output data as high spatial resolution images acquired by the imaging device. . Also, as training data for the image quality enhancement engine that performs image quality enhancement processing according to the first embodiment, a pair group of input data of a high spatial resolution image and output data of an image obtained by superimposing the high spatial resolution images is used. Consists of

このような構成によっても、画像処理装置400は、入力画像と比べてノイズ低減及びコントラスト強調のうちの少なくとも一つがなされるとともに、空間分解能が向上された画像を高画質画像として生成することができる。 With such a configuration as well, the image processing apparatus 400 can generate, as a high-quality image, an image in which at least one of noise reduction and contrast enhancement has been performed as compared with the input image, and spatial resolution has been improved. .

なお、本実施形態では、第1の実施形態等に係る高画質化処理について、重ね合わせ画像を教師データの出力データとして用いる構成について述べたが、第1の実施形態と同様に当該出力データはこれに限られない。すなわち、重ね合わせ処理やMAP推定処理、平滑化フィルタ処理、階調変換処理、高性能な撮影装置を用いた撮影、高コストな処理、ノイズ低減処理といった処理群や撮影方法のうち、少なくとも一つを行うことによって得られた高画質画像を用いてもよい。 In addition, in the present embodiment, regarding the image quality improvement processing according to the first embodiment, etc., a configuration in which a superimposed image is used as output data of teacher data has been described. It is not limited to this. That is, at least one of a processing group and a photographing method such as superimposition processing, MAP estimation processing, smoothing filter processing, gradation conversion processing, photographing using a high-performance photographing device, high-cost processing, and noise reduction processing. You may use the high quality image obtained by performing.

また、高画質化部404は、高画質化エンジンを用いて、高空間分解能化処理に加えて第15の実施形態に係る高画質化処理を行ってもよい。この場合には、入力画像と比べてノイズ低減及びコントラスト強調のうちの少なくとも一つがなされるとともに、入力画像と比べて高画像サイズ化及び高空間分解能化された画像を高画質画像として生成することができる。これにより、本実施形態に係る画像処理装置400は、画像診断に適した高画質画像を、撮影者や被検者の侵襲性を高めたり、労力を増したりすることなく出力することができる。 Further, the image quality enhancement unit 404 may use the image quality enhancement engine to perform the image quality enhancement processing according to the fifteenth embodiment in addition to the high spatial resolution enhancement processing. In this case, at least one of noise reduction and contrast enhancement compared to the input image is performed, and an image having a higher image size and higher spatial resolution than the input image is generated as a high-quality image. can be done. As a result, the image processing apparatus 400 according to the present embodiment can output high-quality images suitable for image diagnosis without increasing the invasiveness or labor of the photographer or subject.

なお、出力部405は、第1の実施形態と同様に、生成された高画質画像を撮影装置10や画像処理装置400に接続される他の装置に出力してもよい。 Note that the output unit 405 may output the generated high-quality image to another device connected to the imaging device 10 or the image processing device 400, as in the first embodiment.

<第17の実施形態>
次に、図22及び23を参照して、第17の実施形態に係る画像処理装置について説明する。本実施形態では、解析部が高画質化部によって生成された高画質画像を画像解析する。
<Seventeenth Embodiment>
Next, an image processing apparatus according to the seventeenth embodiment will be described with reference to FIGS. 22 and 23. FIG. In this embodiment, the analysis unit analyzes the high quality image generated by the image quality enhancement unit.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第1の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第1の実施形態に係る画像処理装置との違いを中心として説明する。 Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the first embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below, focusing on the differences from the image processing apparatus according to the first embodiment.

図22は、本実施形態に係る画像処理装置2200の概略的な構成を示す。本実施形態に係る画像処理装置2200には、取得部401、撮影条件取得部402、高画質化可否判定部403、高画質化部404、及び出力部405に加えて、解析部2208が設けられている。なお、画像処理装置2200は、これら構成要素のうちの一部が設けられた複数の装置で構成されてもよい。ここで、取得部401、撮影条件取得部402、高画質化可否判定部403、高画質化部404、及び出力部405は、第1の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。 FIG. 22 shows a schematic configuration of an image processing apparatus 2200 according to this embodiment. The image processing apparatus 2200 according to the present embodiment is provided with an analysis unit 2208 in addition to the acquisition unit 401, the imaging condition acquisition unit 402, the image quality enhancement determination unit 403, the image quality enhancement unit 404, and the output unit 405. ing. Note that the image processing device 2200 may be composed of a plurality of devices provided with some of these components. Here, the acquisition unit 401, the imaging condition acquisition unit 402, the image quality enhancement determination unit 403, the image quality enhancement unit 404, and the output unit 405 are the same as those of the image processing apparatus according to the first embodiment. , are denoted by the same reference numerals as those shown in FIG. 4, and the description thereof is omitted.

解析部2208は、高画質化部404が生成した高画質画像に対して所定の画像解析処理を適用する。画像解析処理は、例えば、眼科分野では、OCTにより取得された画像に対する、網膜層のセグメンテーション、層厚計測、乳頭三次元形状解析、篩状板解析、OCTA画像の血管密度計測、及び角膜形状解析等の既存の任意の画像解析処理を含む。また、画像解析処理は眼科分野の解析処理に限られず、例えば、拡散テンソル解析やVBL(Voxel-based Morphometry)解析等の放射線分野における既存の任意の解析処理も含む。 The analysis unit 2208 applies predetermined image analysis processing to the high quality image generated by the image quality enhancement unit 404 . For example, in the field of ophthalmology, image analysis processing includes segmentation of retinal layers, layer thickness measurement, papilla three-dimensional shape analysis, cribriform plate analysis, blood vessel density measurement of OCTA images, and corneal shape analysis for images acquired by OCT. Including any existing image analysis processing such as. Further, image analysis processing is not limited to analysis processing in the field of ophthalmology, and includes arbitrary existing analysis processing in the field of radiology such as diffusion tensor analysis and VBL (Voxel-based Morphometry) analysis.

出力部405は、高画質化部404によって生成された高画質画像を表示部20に表示させるとともに、解析部2208による画像解析処理の解析結果を表示させることができる。なお、出力部405は解析部2208による画像解析結果のみを表示部20に表示させてもよいし、当該画像解析結果を撮影装置10や画像管理システム、その他の装置等に出力してもよい。なお、解析結果の表示形態は、解析部2208で行った画像解析処理に応じて任意であってよく、例えば、画像、数値又は文字として表示されてもよい。 The output unit 405 can display the high-quality image generated by the image-quality improving unit 404 on the display unit 20 and display the analysis result of the image analysis processing by the analysis unit 2208 . Note that the output unit 405 may display only the image analysis result by the analysis unit 2208 on the display unit 20, or may output the image analysis result to the imaging device 10, an image management system, other devices, or the like. Note that the display form of the analysis result may be arbitrary according to the image analysis processing performed by the analysis unit 2208, and may be displayed as an image, numerical values, or characters, for example.

以下、図23を参照して、本実施形態に係る一連の画像処理について説明する。図23は、本実施形態に係る一連の画像処理のフロー図である。なお、本実施形態に係るステップS2310~ステップS2340の処理は、第1の実施形態におけるステップS510~ステップS540での処理と同様であるため、説明を省略する。なお、入力画像に対して、撮影条件について無条件で高画質化する場合には、ステップS2320の処理の後に、ステップS2330の処理を省き、処理をステップS2340に移行してよい。 A series of image processing according to this embodiment will be described below with reference to FIG. FIG. 23 is a flowchart of a series of image processing according to this embodiment. Note that the processing of steps S2310 to S2340 according to the present embodiment is the same as the processing of steps S510 to S540 in the first embodiment, so description thereof will be omitted. Note that if the image quality of the input image is to be improved unconditionally with respect to the shooting conditions, the process of step S2330 may be omitted after the process of step S2320, and the process may proceed to step S2340.

ステップS2340において、高画質化部404が、高画質画像群を生成したら、処理はステップS2350に移行する。ステップS2350で、解析部2208が、ステップS2340において生成された高画質画像を画像解析し、解析結果を出力する。画像解析の処理内容及び処理手法については、既存の任意の画像解析処理及び処理手法を用いてよい。なお、解析部2208は複数の画像解析処理を行ってもよい。これに関連して、解析部2208は、任意の入力装置を介した検者からの指示に応じて、複数の画像解析処理のうちの一部又は全部を行ってもよい。 In step S2340, after the image quality enhancement unit 404 generates the high quality image group, the process proceeds to step S2350. In step S2350, the analysis unit 2208 analyzes the high-quality image generated in step S2340 and outputs the analysis result. Any existing image analysis processing and processing method may be used for the image analysis processing content and processing method. Note that the analysis unit 2208 may perform a plurality of image analysis processes. In this regard, the analysis unit 2208 may perform some or all of the plurality of image analysis processes according to instructions from the examiner via any input device.

ステップS2360では、出力部405が、高画質化部404によって生成された高画質画像及び解析部2208による解析結果を表示部20に表示させる。なお、出力部405は高画質画像及び解析結果を別々の表示部や装置に出力してもよい。また、出力部405は、解析結果のみを表示部20に表示させてもよい。さらに、解析部2208が複数の解析結果を出力する場合には、出力部405は、複数の解析結果の一部又は全部を表示部20やその他の装置に出力してもよい。 In step S<b>2360 , the output unit 405 causes the display unit 20 to display the high-quality image generated by the image quality enhancement unit 404 and the analysis result by the analysis unit 2208 . Note that the output unit 405 may output the high-quality image and the analysis result to separate display units or devices. Alternatively, the output unit 405 may cause the display unit 20 to display only the analysis result. Furthermore, when the analysis unit 2208 outputs a plurality of analysis results, the output unit 405 may output some or all of the plurality of analysis results to the display unit 20 or other device.

上記のように、本実施形態に係る画像処理装置2200は、高画質画像を画像解析する解析部2208を更に備え、出力部405は解析部2208による解析結果を表示部20に表示させる。このように、本実施形態に係る画像処理装置2200では、画像解析に高画質画像を用いるため、解析の精度を向上させることができる。 As described above, the image processing apparatus 2200 according to this embodiment further includes the analysis unit 2208 that analyzes the high-quality image, and the output unit 405 causes the display unit 20 to display the analysis result of the analysis unit 2208 . As described above, in the image processing apparatus 2200 according to the present embodiment, high-quality images are used for image analysis, so the accuracy of analysis can be improved.

また、出力部405は、第1の実施形態と同様に、生成された高画質画像を撮影装置10や画像処理装置2200に接続される他の装置に出力してもよい。また、高画質化エンジンの教師データの出力データは、第1の実施形態と同様に、重ね合わせ処理を行った高画質画像に限られない。すなわち、重ね合わせ処理やMAP推定処理、平滑化フィルタ処理、階調変換処理、高性能な撮影装置を用いた撮影、高コストな処理、ノイズ低減処理といった処理群や撮影方法のうち、少なくとも一つを行うことによって得られた高画質画像を用いてもよい。 Also, the output unit 405 may output the generated high-quality image to another device connected to the imaging device 10 or the image processing device 2200, as in the first embodiment. Also, the output data of the training data from the image quality improvement engine is not limited to the high quality image that has undergone the superimposition process, as in the first embodiment. That is, at least one of a processing group and a photographing method such as superimposition processing, MAP estimation processing, smoothing filter processing, gradation conversion processing, photographing using a high-performance photographing device, high-cost processing, and noise reduction processing. You may use the high quality image obtained by performing.

上記第1~17の実施形態に関しては、出力部405による表示部20への高画質画像の表示は基本的に高画質化部404による高画質画像の生成や解析部2208による解析結果の出力に応じて自動で行われる。しかしながら、高画質画像の表示は、検者からの指示に応じてなされてもよい。例えば、出力部405は、高画質化部404によって生成された高画質画像と入力画像のうち、検者からの指示に応じて選択された画像を表示部20に表示させてもよい。また、出力部405は、検者からの指示に応じて、表示部20上の表示を撮影画像(入力画像)から高画質画像に切り替えてもよい。 In the first to seventeenth embodiments, the display of a high-quality image on the display unit 20 by the output unit 405 is basically the generation of a high-quality image by the image quality enhancement unit 404 and the output of the analysis result by the analysis unit 2208. It will be done automatically accordingly. However, the high-quality image may be displayed according to an instruction from the examiner. For example, the output unit 405 may cause the display unit 20 to display an image selected from the high-quality image generated by the image quality enhancement unit 404 and the input image in accordance with an instruction from the examiner. In addition, the output unit 405 may switch the display on the display unit 20 from a captured image (input image) to a high-quality image in accordance with an instruction from the examiner.

さらに、高画質化部404が、高画質化エンジンによる高画質化処理の開始(高画質化エンジンへの画像の入力)を検者からの指示に応じて実行し、出力部405が、高画質化部404によって生成された高画質画像を表示部20に表示させてもよい。これに対し、撮影装置10によって入力画像が撮影されると、高画質化エンジンが自動的に入力画像に基づいて高画質画像を生成し、出力部405が、検者からの指示に応じて高画質画像を表示部20に表示させてもよい。なお、これらの処理は解析結果の出力についても同様に行うことができる。さらに、撮影箇所推定エンジンや画質評価エンジン、真贋評価エンジン、評価部による処理を検者からの指示に応じて開始するように、画像処理装置が構成されてもよい。 Furthermore, the image quality enhancement unit 404 starts image quality enhancement processing by the image quality enhancement engine (input of an image to the image quality enhancement engine) in accordance with an instruction from the examiner. The display unit 20 may display the high-quality image generated by the conversion unit 404 . On the other hand, when an input image is captured by the imaging device 10, the image quality enhancement engine automatically generates a high quality image based on the input image, and the output unit 405 outputs a high quality image according to an instruction from the examiner. A quality image may be displayed on the display unit 20 . Note that these processes can be similarly performed for the output of analysis results. Furthermore, the image processing apparatus may be configured so that the processing by the photographing location estimation engine, the image quality evaluation engine, the authenticity evaluation engine, and the evaluation unit is started according to an instruction from the examiner.

なお、上記第1~17の実施形態に関し、出力部405が高画質画像を表示部20に表示させる表示態様は任意であってよい。例えば、出力部405は、入力画像と高画質画像を並べて表示させてもよいし、切り替えて表示させてもよい。また、出力部405は、入力画像や高画質画像を、撮影部位や撮影日時、撮影が行われた施設等に応じて順番に表示させてもよい。同様に、出力部405は高画質画像を用いた画像解析結果等を、高画質画像や高画質画像に対応する入力画像の任意の撮影条件に応じて順番に表示させてもよい。さらに、出力部405は高画質画像を用いた画像解析結果を、解析項目ごとに順番に表示させてもよい。 Regarding the first to seventeenth embodiments, the display mode in which the output unit 405 displays the high-quality image on the display unit 20 may be arbitrary. For example, the output unit 405 may display the input image and the high-quality image side by side, or may switch between them. Further, the output unit 405 may display the input images and the high-quality images in order according to the imaged part, the imaged date and time, the facility where the image was taken, and the like. Similarly, the output unit 405 may display the image analysis results using the high-quality images in order according to arbitrary shooting conditions of the high-quality images and the input images corresponding to the high-quality images. Furthermore, the output unit 405 may display the image analysis results using high-quality images in order for each analysis item.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける一つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

以上、実施形態を参照して本発明について説明したが、本発明は上記実施形態に限定されるものではない。本発明の趣旨に反しない範囲で変更された発明、及び本発明と均等な発明も本発明に含まれる。また、上述の各実施形態は、本発明の趣旨に反しない範囲で適宜組み合わせることができる。 Although the present invention has been described with reference to the embodiments, the present invention is not limited to the above embodiments. Inventions modified within the scope of the present invention and inventions equivalent to the present invention are also included in the present invention. Moreover, each of the above-described embodiments can be appropriately combined within the scope of the present invention.

100:画像処理装置(医用画像処理装置)、104:高画質化部、105:出力部 100: Image processing apparatus (medical image processing apparatus), 104: Image quality enhancement unit, 105: Output unit

本発明の一実施態様に係る医用画像処理装置は、被検者の所定部位の画像である第1の画像を取得する取得部と、機械学習エンジンを含む高画質化エンジンに前記第1の画像を入力することで、該第1の画像よりも高い画質を有する第2の画像を生成する生成部と、前記第2の画像が生成された場合には、前記第1の画像及び前記第2の画像の少なくとも一方を表示するように表示部を制御する表示制御部とを備え、前記高画質化エンジンは、重ね合わせ処理、最大事後確率推定処理、平滑化フィルタ処理、階調変換処理及びノイズ低減処理のうちの少なくとも一つの処理により得られた画像と、前記第1の画像の撮影に用いられる撮影装置よりも高性能な撮影装置によって撮影された画像と、前記第1の画像の撮影工程よりも工数の多い撮影工程で取得された画像とのうち少なくともいずれかを学習データとした機械学習エンジンを含む。 A medical image processing apparatus according to an embodiment of the present invention includes an acquisition unit that acquires a first image that is an image of a predetermined region of a subject, and an image quality enhancement engine that includes a machine learning engine. by inputting a generation unit that generates a second image having a higher image quality than the first image, and when the second image is generated, the first image and the second and a display control unit that controls the display unit to display at least one of the images of the image quality improvement engine, superimposition processing, maximum posterior probability estimation processing, smoothing filter processing, gradation conversion processing and noise an image obtained by at least one reduction process, an image captured by an image capturing apparatus having higher performance than the image capturing apparatus used to capture the first image, and the image capturing step of the first image. and a machine learning engine that uses at least one of images acquired in a photographing process that requires more man-hours as learning data.

また、本発明の他の実施態様に係る医用画像処理方法は、被検者の所定部位の画像である第1の画像を取得することと、機械学習エンジンを含む高画質化エンジンに前記第1の画像を入力することで、該第1の画像よりも高い画質を有する第2の画像を生成することと、前記第2の画像が生成された場合には、前記第1の画像及び前記第2の画像の少なくとも一方を表示するように表示部を制御することとを含み、前記高画質化エンジンは、重ね合わせ処理、最大事後確率推定処理、平滑化フィルタ処理、階調変換処理及びノイズ低減処理のうちの少なくとも一つの処理により得られた画像と、前記第1の画像の撮影に用いられる撮影装置よりも高性能な撮影装置によって撮影された画像と、前記第1の画像の撮影工程よりも工数の多い撮影工程で取得された画像とのうち少なくともいずれかを学習データとした機械学習エンジンを含むFurther, a medical image processing method according to another embodiment of the present invention acquires a first image, which is an image of a predetermined region of a subject, and causes an image quality enhancement engine including a machine learning engine to perform the first image processing. generating a second image having a higher image quality than the first image by inputting the image of; and when the second image is generated, the first image and the first and controlling a display unit to display at least one of the two images , wherein the image quality improvement engine performs superimposition processing, maximum a posteriori probability estimation processing, smoothing filter processing, tone conversion processing, and noise an image obtained by at least one reduction process, an image captured by an image capturing apparatus having higher performance than the image capturing apparatus used to capture the first image, and the image capturing step of the first image. and a machine learning engine that uses at least one of images acquired in a photographing process that requires more man-hours as learning data .

Claims (37)

被検者の所定部位の画像である第1の画像を取得する取得部と、
機械学習エンジンを含む高画質化エンジンを用いて、前記第1の画像から、該第1の画像と比べてノイズ低減及びコントラスト強調のうちの少なくとも一つがなされた第2の画像を生成する高画質化部と、
を備える、医用画像処理装置。
an acquisition unit that acquires a first image that is an image of a predetermined region of the subject;
high image quality generating, from the first image, a second image having at least one of noise reduction and contrast enhancement relative to the first image using an image enhancement engine including a machine learning engine; chemical department and
A medical image processing apparatus comprising:
前記高画質化エンジンは、重ね合わせ処理、最大事後確率推定処理、平滑化フィルタ処理、階調変換処理及びノイズ低減処理のうちの少なくとも一つの処理により得られた画像を学習データとした機械学習エンジンを含む、請求項1に記載の医用画像処理装置。 The image quality improvement engine is a machine learning engine that uses an image obtained by at least one of superposition processing, maximum posterior probability estimation processing, smoothing filter processing, tone conversion processing, and noise reduction processing as learning data. The medical image processing apparatus according to claim 1, comprising: 前記高画質化エンジンは、前記第1の画像の撮影に用いられる撮影装置よりも高性能な撮影装置によって撮影された画像、又は前記第1の画像の撮影工程よりも工数の多い撮影工程で取得された画像を学習データとした機械学習エンジンを含む、請求項1に記載の医用画像処理装置。 The image quality enhancement engine acquires an image captured by an image capturing device having higher performance than the image capturing device used to capture the first image, or an image capturing process involving more man-hours than the image capturing process of the first image. 2. The medical image processing apparatus according to claim 1, further comprising a machine learning engine using the processed image as learning data. 前記第1の画像に対して、前記高画質化エンジンを用いて前記第2の画像を生成できる否かを判定する判定部を更に備える、請求項1乃至3のいずれか一項に記載の医用画像処理装置。 The medical device according to any one of claims 1 to 3, further comprising a determination unit that determines whether or not the second image can be generated from the first image using the image quality enhancement engine. Image processing device. 前記判定部は、前記第1の画像の撮影部位、撮影方式、撮影画角、及び画像サイズの少なくとも一つに基づいて前記判定を行う、請求項4に記載の医用画像処理装置。 5. The medical image processing apparatus according to claim 4, wherein the determination unit makes the determination based on at least one of the imaging region, imaging method, imaging angle of view, and image size of the first image. 前記高画質化部は、前記判定部による判定結果に対する検者からの入力に応じて、前記第2の画像を生成する、請求項4又は5に記載の医用画像処理装置。 6. The medical image processing apparatus according to claim 4, wherein said image quality enhancing section generates said second image in accordance with an input from an examiner regarding a determination result by said determining section. 前記高画質化部は、それぞれ異なる学習データを用いて学習を行った複数の高画質化エンジンを備える、請求項1乃至6のいずれか一項に記載の医用画像処理装置。 7. The medical image processing apparatus according to any one of claims 1 to 6, wherein said image quality enhancing unit comprises a plurality of image quality enhancing engines each trained using different learning data. 前記複数の高画質化エンジンの各々は、それぞれ撮影部位、撮影画角、及び画像の解像度のうちの少なくとも一つについての異なる学習データを用いて学習を行っており、
前記高画質化部は、前記第1の画像の撮影部位、撮影画角、及び画像の解像度のうちの少なくとも一つに応じた前記高画質化エンジンを用いて、前記第2の画像を生成する、請求項7に記載の医用画像処理装置。
each of the plurality of image quality enhancement engines performs learning using different learning data for at least one of the imaging region, imaging angle of view, and image resolution;
The image quality enhancement unit generates the second image using the image quality enhancement engine corresponding to at least one of a photographed region, a photographing angle of view, and an image resolution of the first image. 8. The medical image processing apparatus according to claim 7.
前記高画質化部は、前記複数の高画質化エンジンのうち検者の指示に応じた前記高画質化エンジンを用いて、前記第2の画像を生成する、請求項7に記載の医用画像処理装置。 8. The medical image processing according to claim 7, wherein said image quality enhancing unit generates said second image using said image quality enhancing engine among said plurality of image quality enhancing engines according to an instruction from an examiner. Device. 前記高画質化部は、前記複数の高画質化エンジンを用いて、前記第1の画像から複数の前記第2の画像を生成し、
該医用画像処理装置は、検者の指示に応じて、前記複数の第2の画像のうち少なくとも一つの画像を出力する、請求項7に記載の医用画像処理装置。
The image quality enhancement unit uses the plurality of image quality enhancement engines to generate a plurality of the second images from the first image,
8. The medical image processing apparatus according to claim 7, wherein said medical image processing apparatus outputs at least one of said plurality of second images according to an instruction from an examiner.
前記第2の画像の画質を評価する評価部を更に備え、
前記高画質化部は、前記複数の高画質化エンジンを用いて、前記第1の画像から複数の前記第2の画像を生成し、
該医用画像処理装置は、前記評価部による評価結果に応じて、前記複数の第2の画像のうち少なくとも一つの画像を出力する、請求項7に記載の医用画像処理装置。
Further comprising an evaluation unit for evaluating the image quality of the second image,
The image quality enhancement unit uses the plurality of image quality enhancement engines to generate a plurality of the second images from the first image,
8. The medical image processing apparatus according to claim 7, wherein said medical image processing apparatus outputs at least one of said plurality of second images according to the evaluation result by said evaluation unit.
前記評価部は、所定の評価手法による評価値を学習データとした機械学習エンジンを含み、
該医用画像処理装置は、前記複数の第2の画像のうち、前記評価部による評価値が最も高い前記第2の画像を出力する、請求項11に記載の医用画像処理装置。
The evaluation unit includes a machine learning engine whose learning data is an evaluation value obtained by a predetermined evaluation method,
12. The medical image processing apparatus according to claim 11, wherein said medical image processing apparatus outputs said second image having the highest evaluation value by said evaluation unit among said plurality of second images.
前記第2の画像の画質を評価する評価部を更に備え、
前記評価部は画像の真贋を評価する真贋評価エンジンを含み、
該医用画像処理装置は、前記評価部の真贋評価エンジンからの出力が真である場合に、前記第2の画像を出力する、請求項1乃至10のいずれか一項に記載の医用画像処理装置。
Further comprising an evaluation unit for evaluating the image quality of the second image,
The evaluation unit includes an authenticity evaluation engine that evaluates the authenticity of the image,
The medical image processing apparatus according to any one of claims 1 to 10, wherein the medical image processing apparatus outputs the second image when the output from the authenticity evaluation engine of the evaluation unit is true. .
前記真贋評価エンジンは、前記高画質化エンジンよりも高画質化処理の精度が低い高画質化エンジンによって生成された画像を学習データとした機械学習エンジンを含む、請求項13に記載の医用画像処理装置。 14. The medical image processing according to claim 13, wherein said authenticity evaluation engine includes a machine learning engine using, as learning data, an image generated by an image quality enhancement engine whose image quality enhancement processing accuracy is lower than that of said image quality enhancement engine. Device. 前記第1の画像の撮影部位及び撮影領域のうちの少なくとも一方を推定する推定部を更に備える、請求項1乃至14のいずれか一項に記載の医用画像処理装置。 The medical image processing apparatus according to any one of claims 1 to 14, further comprising an estimating unit that estimates at least one of an imaging region and an imaging area of the first image. 前記推定部は、撮影部位及び撮影領域のうちの少なくとも一方のラベルが付けられた画像を学習データとした機械学習エンジンを含む、請求項15に記載の医用画像処理装置。 16. The medical image processing apparatus according to claim 15, wherein the estimating unit includes a machine learning engine using images labeled with at least one of an imaging region and an imaging region as learning data. 前記高画質化部は、
前記第1の画像の画像サイズを、前記高画質化エンジンが対処可能な画像サイズに調整して高画質化エンジンに入力し、
前記高画質化エンジンからの出力画像を前記第1の画像の元の画像サイズに調整することで前記第2の画像を生成する、請求項1乃至16のいずれか一項に記載の医用画像処理装置。
The image quality enhancement unit
adjusting the image size of the first image to an image size that can be handled by the image quality improvement engine and inputting it to the image quality improvement engine;
17. The medical image processing according to any one of claims 1 to 16, wherein the second image is generated by adjusting the output image from the image quality enhancement engine to the original image size of the first image. Device.
前記高画質化部は、
前記第1の画像の解像度が所定の解像度となるように、前記第1の画像の画像サイズを調整し、
前記画像サイズが調整された前記第1の画像について、調整された前記画像サイズが前記高画質化エンジンによって対処可能な画像サイズとなるように、パディングを行った画像を高画質化エンジンに入力し、
前記高画質化エンジンからの出力画像について、前記パディングを行った領域分だけトリミングを行い、
前記トリミングが行われた画像の画像サイズを、前記第1の画像の元の画像サイズに調整することで前記第2の画像を生成する、請求項1乃至17のいずれか一項に記載の医用画像処理装置。
The image quality enhancement unit
adjusting the image size of the first image so that the resolution of the first image is a predetermined resolution;
The first image whose image size has been adjusted is input to an image quality enhancement engine by performing padding such that the adjusted image size becomes an image size that can be dealt with by the image quality enhancement engine. ,
Trimming the output image from the image quality enhancement engine by the padding area,
18. The medical device according to any one of claims 1 to 17, wherein the second image is generated by adjusting the image size of the trimmed image to the original image size of the first image. Image processing device.
前記高画質化部は、
前記第1の画像を所定の画像サイズの複数の第3の画像に分割し、
前記複数の第3の画像を前記高画質化エンジンに入力して複数の第4の画像を生成し、
前記複数の第4の画像を統合することで、前記第2の画像を生成する、請求項1乃至18のいずれか一項に記載の医用画像処理装置。
The image quality enhancement unit
dividing the first image into a plurality of third images of a predetermined image size;
inputting the plurality of third images into the image quality enhancement engine to generate a plurality of fourth images;
The medical image processing apparatus according to any one of claims 1 to 18, wherein the second image is generated by integrating the plurality of fourth images.
前記高画質化部は、
三次元の前記第1の画像を複数の二次元の画像又は複数の一次元の画像に分割して前記高画質化エンジンに入力し、
前記高画質化エンジンからの複数の出力画像を統合することで、前記第2の画像を生成する、請求項1乃至19のいずれか一項に記載の医用画像処理装置。
The image quality enhancement unit
dividing the first three-dimensional image into a plurality of two-dimensional images or a plurality of one-dimensional images and inputting them to the image quality enhancement engine;
The medical image processing apparatus according to any one of claims 1 to 19, wherein the second image is generated by integrating a plurality of output images from the image quality enhancement engine.
前記高画質化部は、
複数の前記高画質化エンジンを含み、
三次元の前記第1の画像を複数の二次元の画像又は複数の一次元の画像に分割し、
前記複数の高画質化エンジンの並列的に用いて、前記複数の二次元の画像又は前記複数の一次元の画像から複数の第2の画像を生成し、
前記複数の第2の画像を統合することで、三次元の前記第2の画像を生成する、請求項1乃至20のいずれか一項に記載の医用画像処理装置。
The image quality enhancement unit
including a plurality of the image quality enhancement engines,
dividing the three-dimensional first image into a plurality of two-dimensional images or a plurality of one-dimensional images;
generating a plurality of second images from the plurality of two-dimensional images or the plurality of one-dimensional images using the plurality of image quality enhancement engines in parallel;
The medical image processing apparatus according to any one of claims 1 to 20, wherein the three-dimensional second image is generated by integrating the plurality of second images.
前記高画質化部は、前記第1の画像と比べてノイズ低減及びコントラスト強調のうちの少なくとも一つがなされるとともに、画像サイズの拡大及び空間分解能の向上のうちの少なくとも一つがなされた画像を前記第2の画像として生成する、請求項1乃至21のいずれか一項に記載の医用画像処理装置。 The image quality enhancement unit produces an image that has been subjected to at least one of noise reduction and contrast enhancement, and at least one of image size enlargement and spatial resolution enhancement, as compared with the first image. 22. The medical image processing apparatus according to any one of claims 1 to 21, which is generated as a second image. 前記第2の画像を表示部に表示する表示制御部を更に備える、請求項1乃至22のいずれか一項に記載の医用画像処理装置。 The medical image processing apparatus according to any one of claims 1 to 22, further comprising a display control section that displays the second image on a display section. 前記表示制御部は、検者の指示に応じて前記第2の画像を前記表示部に表示させる、請求項23に記載の医用画像処理装置。 24. The medical image processing apparatus according to claim 23, wherein said display control section causes said display section to display said second image in accordance with an instruction from an examiner. 前記表示制御部は、前記第2の画像とともに、前記第2の画像が前記高画質化エンジンにより生成された画像であることを示す表示を前記表示部に表示させる、請求項23又は24に記載の医用画像処理装置。 25. The display control unit according to claim 23, wherein the display control unit causes the display unit to display, together with the second image, a display indicating that the second image is the image generated by the image quality enhancement engine. medical image processing equipment. 前記表示制御部は、前記第2の画像を前記表示部に表示させ、
該医用画像処理装置は、表示された前記第2の画像に対する検者からの入力に応じて前記第2の画像を出力する、請求項23乃至25のいずれか一項に記載の医用画像処理装置。
The display control unit causes the display unit to display the second image,
26. The medical image processing apparatus according to any one of claims 23 to 25, wherein said medical image processing apparatus outputs said second image according to an input from an examiner for said displayed second image. .
前記第2の画像を画像解析する解析部を更に備え、
前記表示制御部は前記解析部による解析結果を前記表示部に表示させる、請求項23乃至26のいずれか一項に記載の医用画像処理装置。
Further comprising an analysis unit for image analysis of the second image,
The medical image processing apparatus according to any one of claims 23 to 26, wherein said display control unit causes said display unit to display an analysis result by said analysis unit.
前記高画質化部は、複数の前記第1の画像から一つの前記第2の画像を生成する、請求項1乃至27のいずれか一項に記載の医用画像処理装置。 28. The medical image processing apparatus according to any one of claims 1 to 27, wherein said image quality enhancing unit generates one said second image from a plurality of said first images. 前記第1の画像は、前記被検者の所定部位の複数の画像を用いて生成された画像である、請求項1乃至28のいずれか一項に記載の医用画像処理装置。 The medical image processing apparatus according to any one of claims 1 to 28, wherein said first image is an image generated using a plurality of images of a predetermined region of said subject. 前記高画質化部は、複数の前記第2の画像を生成し、該複数の第2の画像を平均化する、請求項1乃至29のいずれか一項に記載の医用画像処理装置。 The medical image processing apparatus according to any one of claims 1 to 29, wherein said image quality enhancing unit generates a plurality of said second images and averages said plurality of second images. 前記所定部位は被検眼である、請求項1乃至30のいずれか一項に記載の医用画像処理装置。 The medical image processing apparatus according to any one of claims 1 to 30, wherein said predetermined portion is an eye to be examined. 前記取得部は、撮影装置から前記第1の画像を取得する、請求項1乃至31のいずれか一項に記載の医用画像処理装置。 The medical image processing apparatus according to any one of claims 1 to 31, wherein said acquisition unit acquires said first image from an imaging device. 前記取得部は、撮影装置から前記被検者の前記所定部位のデータを取得し、前記データに基づく前記第1の画像を取得する、請求項1乃至31のいずれか一項に記載の医用画像処理装置。 The medical image according to any one of claims 1 to 31, wherein said acquisition unit acquires data of said predetermined part of said subject from an imaging device and acquires said first image based on said data. processing equipment. 前記取得部は、画像管理システムから前記第1の画像を取得する、請求項1乃至31のいずれか一項に記載の医用画像処理装置。 The medical image processing apparatus according to any one of claims 1 to 31, wherein said acquisition unit acquires said first image from an image management system. 前記高画質化エンジンは、前記第2の画像を学習データとして用いない、請求項1乃至34のいずれか一項に記載の医用画像処理装置。 The medical image processing apparatus according to any one of claims 1 to 34, wherein said image quality enhancement engine does not use said second image as learning data. 被検者の所定部位の画像である第1の画像を取得することと、
機械学習エンジンを含む高画質化エンジンを用いて、前記第1の画像から、該第1の画像と比べてノイズ低減及びコントラスト強調のうちの少なくとも一つがなされた第2の画像を生成することと、
を含む、医用画像処理方法。
Acquiring a first image that is an image of a predetermined part of the subject;
generating, from the first image, a second image having at least one of noise reduction and contrast enhancement compared to the first image using an image enhancement engine including a machine learning engine; ,
A medical image processing method, comprising:
プロセッサーによって実行されると、該プロセッサーに請求項36に記載の医用画像処理方法の各工程を実行させる、プログラム。 37. A program which, when executed by a processor, causes the processor to perform the steps of the medical image processing method of claim 36.
JP2022118982A 2018-06-15 2022-07-26 Medical image processing device, medical image processing method and program Active JP7434447B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022118982A JP7434447B2 (en) 2018-06-15 2022-07-26 Medical image processing device, medical image processing method and program
JP2024018016A JP2024045479A (en) 2018-06-15 2024-02-08 Medical image processing device, medical image processing method and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018114760A JP7114358B2 (en) 2018-06-15 2018-06-15 MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
JP2022118982A JP7434447B2 (en) 2018-06-15 2022-07-26 Medical image processing device, medical image processing method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018114760A Division JP7114358B2 (en) 2018-06-15 2018-06-15 MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024018016A Division JP2024045479A (en) 2018-06-15 2024-02-08 Medical image processing device, medical image processing method and program

Publications (2)

Publication Number Publication Date
JP2022145732A true JP2022145732A (en) 2022-10-04
JP7434447B2 JP7434447B2 (en) 2024-02-20

Family

ID=69094674

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2018114760A Active JP7114358B2 (en) 2018-06-15 2018-06-15 MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
JP2022118982A Active JP7434447B2 (en) 2018-06-15 2022-07-26 Medical image processing device, medical image processing method and program
JP2024018016A Pending JP2024045479A (en) 2018-06-15 2024-02-08 Medical image processing device, medical image processing method and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018114760A Active JP7114358B2 (en) 2018-06-15 2018-06-15 MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024018016A Pending JP2024045479A (en) 2018-06-15 2024-02-08 Medical image processing device, medical image processing method and program

Country Status (1)

Country Link
JP (3) JP7114358B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7355532B2 (en) 2018-06-29 2023-10-03 キヤノンメディカルシステムズ株式会社 Medical information processing device, method and program
JP7183590B2 (en) * 2018-06-29 2022-12-06 株式会社ニデック Ophthalmic image processing device, OCT device, and ophthalmic image processing program
WO2021039154A1 (en) * 2019-08-23 2021-03-04 ソニー株式会社 Signal processing device, signal processing method, and program
JP7387457B2 (en) 2020-01-20 2023-11-28 キヤノンメディカルシステムズ株式会社 Medical image processing devices, programs, and medical image processing systems
US20230094530A1 (en) * 2020-02-12 2023-03-30 National University Corporation Tokai National Higher Education And Research System Diagnostic imaging support device, diagnostic imaging support system, and diagnostic imaging support method
JP7407618B2 (en) * 2020-02-25 2024-01-04 謙一 井上 information processing system
JP7428020B2 (en) * 2020-03-06 2024-02-06 コニカミノルタ株式会社 Ultrasonic diagnostic equipment, ultrasound image generation method, program and model training device
JP7435067B2 (en) * 2020-03-12 2024-02-21 株式会社ニデック Ophthalmology image processing device and ophthalmology image processing program
EP4150504A1 (en) 2020-05-14 2023-03-22 Optos PLC Retinal image processing
WO2023152809A1 (en) * 2022-02-08 2023-08-17 日本電信電話株式会社 Image processing device, image processing method, and program

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5043403B2 (en) 2006-11-10 2012-10-10 株式会社日立メディコ X-ray fluoroscopic equipment
JPWO2010050333A1 (en) 2008-10-30 2012-03-29 コニカミノルタエムジー株式会社 Information processing device
JP5921068B2 (en) 2010-03-02 2016-05-24 キヤノン株式会社 Image processing apparatus, control method, and optical coherence tomography system
JP6105852B2 (en) 2012-04-04 2017-03-29 キヤノン株式会社 Image processing apparatus and method, and program
JP2015129987A (en) 2014-01-06 2015-07-16 国立大学法人三重大学 System and method of forming medical high-resolution image
JP6512738B2 (en) 2014-02-28 2019-05-15 キヤノン株式会社 Image processing apparatus, image processing method and program
JP6878101B2 (en) 2016-04-06 2021-05-26 キヤノンメディカルシステムズ株式会社 Image processing device and operation method of image processing device
JP6929047B2 (en) 2016-11-24 2021-09-01 キヤノン株式会社 Image processing equipment, information processing methods and programs
JP6813178B2 (en) 2016-12-07 2021-01-13 学校法人常翔学園 Biological image processing device, output image manufacturing method, learning result manufacturing method, and program

Also Published As

Publication number Publication date
JP7114358B2 (en) 2022-08-08
JP7434447B2 (en) 2024-02-20
JP2019216848A (en) 2019-12-26
JP2024045479A (en) 2024-04-02

Similar Documents

Publication Publication Date Title
JP7114358B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
KR102507711B1 (en) Medical image processing apparatus, medical image processing method, and computer readable medium
JP7229881B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, TRAINED MODEL, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
WO2020183799A1 (en) Medical image processing device, medical image processing method, and program
JP7406892B2 (en) Medical image processing device, medical image processing method and program
JP7269413B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING SYSTEM, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
WO2020075345A1 (en) Medical image processing device, medical image processing method, and program
JP7341874B2 (en) Image processing device, image processing method, and program
KR20220051369A (en) Information processing apparatus, information processing method, information processing system and program
JP5127897B2 (en) Ophthalmic image processing apparatus and method
JP2023017051A (en) Medical image processing apparatus, medical image processing method, and program
JP2020039851A (en) Image processing device, image processing method and program
JP7362403B2 (en) Image processing device and image processing method
JP7349870B2 (en) Medical image processing device, tomography device, medical image processing method and program
JP7344847B2 (en) Image processing device, image processing method, and program
JP2024025807A (en) Medical image processing device, medical image processing method and program
JP2021058563A (en) Information processing device and information processing method
JP7471795B2 (en) Information processing device, information processing method, and program
WO2020049828A1 (en) Image processing apparatus, image processing method, and program
JP2022121202A (en) Image processing device and image processing method
JP2023010308A (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220825

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240207

R151 Written notification of patent or utility model registration

Ref document number: 7434447

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151