JP2022155690A5 - - Google Patents

Download PDF

Info

Publication number
JP2022155690A5
JP2022155690A5 JP2021059043A JP2021059043A JP2022155690A5 JP 2022155690 A5 JP2022155690 A5 JP 2022155690A5 JP 2021059043 A JP2021059043 A JP 2021059043A JP 2021059043 A JP2021059043 A JP 2021059043A JP 2022155690 A5 JP2022155690 A5 JP 2022155690A5
Authority
JP
Japan
Prior art keywords
image
image processing
processing device
subject
trained model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021059043A
Other languages
Japanese (ja)
Other versions
JP2022155690A (en
Filing date
Publication date
Application filed filed Critical
Priority to JP2021059043A priority Critical patent/JP2022155690A/en
Priority claimed from JP2021059043A external-priority patent/JP2022155690A/en
Publication of JP2022155690A publication Critical patent/JP2022155690A/en
Publication of JP2022155690A5 publication Critical patent/JP2022155690A5/ja
Pending legal-status Critical Current

Links

Description

開示の技術のうち少なくとも1つの実施態様に係る画像処理装置は、
第1の画像サイズを有する医用画像である入力データを含む学習データにより学習して得た学習済モデルであって、前記第1の画像サイズよりも大きい第2の画像サイズを有する医用画像である第1の画像を入力データとして前記学習済モデルに入力することにより生成された第2の画像を出力データとして出力する画像処理部を備える。
An image processing device according to at least one embodiment of the disclosed technology includes:
The trained model is obtained by training using training data including input data which is a medical image having a first image size, and is equipped with an image processing unit which outputs as output data a second image generated by inputting a first image which is a medical image having a second image size larger than the first image size as input data to the trained model.

Claims (27)

第1の画像サイズを有する医用画像である入力データを含む学習データにより学習して得た学習済モデルであって、前記第1の画像サイズよりも大きい第2の画像サイズを有する医用画像である第1の画像を入力データとして前記学習済モデルに入力することにより生成された第2の画像を出力データとして出力する画像処理部を備える、画像処理装置。 An image processing device comprising: an image processing unit that outputs as output data a second image generated by inputting a first image, which is a medical image having a second image size larger than the first image size, into the trained model as input data, the trained model being obtained by training using training data including input data which is a medical image having a first image size. 前記画像処理部は、前記第2の画像サイズよりも大きい第3の画像サイズを有する医用画像を複数の画像に分割して得た前記第2の画像サイズを有する複数の医用画像を入力データとして前記学習済モデルに入力することにより、前記複数の医用画像に対応する複数の画像を出力データとして出力する、請求項1に記載の画像処理装置。 The image processing device according to claim 1, wherein the image processing unit inputs a plurality of medical images having a third image size larger than the second image size obtained by dividing a medical image having the second image size into a plurality of images as input data to the trained model, and outputs a plurality of images corresponding to the plurality of medical images as output data. 前記画像処理部は、前記出力された複数の画像を合成することにより、前記第3の画像サイズの画像を生成する、請求項2に記載の画像処理装置。 The image processing device according to claim 2, wherein the image processing unit generates an image of the third image size by synthesizing the output images. 前記学習済モデルは、Encoder-Decoder型のTransformerを含む、請求項1乃至3のいずれか一項に記載の画像処理装置。 The image processing device according to any one of claims 1 to 3, wherein the trained model includes an Encoder-Decoder type Transformer. 前記画像処理部は、前記第1の画像又は前記第2の画像における対象領域に対して、対象領域の画素値と対象領域以外の領域の画素値との差が広がるように且つ対象領域の画素値がより低くなるように画像処理を行う、請求項1乃至4のいずれか一項に記載の画像処理装置。 The image processing device according to any one of claims 1 to 4, wherein the image processing unit performs image processing on a target region in the first image or the second image so that the difference between pixel values of the target region and pixel values of regions other than the target region increases and the pixel values of the target region become lower. 前記画像処理は、対象領域の画素値と対象領域以外の領域の画素値との差が広がるように且つ対象領域の画素値がより低くなるように、前記第1の画像と前記第2の画像とをブレンドする処理を含む、請求項5に記載の画像処理装置。 The image processing device according to claim 5, wherein the image processing includes a process of blending the first image and the second image so that the difference between the pixel values of the target region and the pixel values of the region other than the target region increases and the pixel values of the target region become lower. 前記画像処理部は、前記第1の画像又は前記第2の画像を用いて医用画像における対象領域を検出し、前記第1の画像における検出された対象領域に対応する前記第2の画像における対象領域に対して前記画像処理を行う、請求項5又は6に記載の画像処理装置。 The image processing device according to claim 5 or 6, wherein the image processing unit detects a target area in a medical image using the first image or the second image, and performs the image processing on a target area in the second image that corresponds to the detected target area in the first image. 前記画像処理部は、前記学習済モデルを用いて対象領域を検出する、請求項1乃至7のいずれか一項に記載の画像処理装置。 The image processing device according to any one of claims 1 to 7, wherein the image processing unit detects a target region using the trained model. 医用画像は正面画像であり、
前記画像処理部は、複数の深度範囲に対応する被検体の複数の正面画像を学習データとした学習により得た前記学習済モデルを用いて、2次元の対象領域を検出する、請求項1乃至7のいずれか一項に記載の画像処理装置。
The medical image is a frontal image,
The image processing device according to claim 1 , wherein the image processing unit detects a two-dimensional target region using the trained model obtained by learning using a plurality of front images of a subject corresponding to a plurality of depth ranges as training data.
医用画像は正面画像であり、
前記画像処理部は、複数の深度範囲に対応する被検体の複数の正面画像をそれぞれの学習データとした学習により得た複数の学習済モデルのうち、検者からの指示に応じて選択された深度範囲に対応する学習済モデルを選択し、選択された学習済モデルを用いて、2次元の対象領域を検出する、請求項1乃至7のいずれか一項に記載の画像処理装置。
The medical image is a frontal image,
The image processing device according to any one of claims 1 to 7, wherein the image processing unit selects a trained model corresponding to a depth range selected in accordance with an instruction from an examiner from among a plurality of trained models obtained by learning using a plurality of front images of a subject corresponding to a plurality of depth ranges as respective training data, and detects a two-dimensional target region using the selected trained model.
医用画像は3次元の医用画像であり、
前記画像処理部は、被検体の3次元の医用画像を学習データとした学習により得た前記学習済モデルを用いて、3次元の対象領域を検出する、請求項1乃至7のいずれか一項に記載の画像処理装置。
The medical image is a three-dimensional medical image.
The image processing device according to claim 1 , wherein the image processing unit detects a three-dimensional target region by using the trained model obtained by training using a three-dimensional medical image of a subject as training data.
前記画像処理部は、前記第1の画像を用いて、被検体の構造に基づくルールベースの処理により対象領域を検出する、請求項1乃至7のいずれか一項に記載の画像処理装置。 The image processing device according to any one of claims 1 to 7, wherein the image processing unit detects a target region using the first image by rule-based processing based on the structure of the subject. 前記画像処理は、対象領域の画素値と対象領域以外の領域の画素値との差が広がるように明るさ及びコントラストの少なくとも一方を補正する処理を含む、請求項1乃至12のいずれか一項に記載の画像処理装置。 The image processing device according to any one of claims 1 to 12, wherein the image processing includes a process of correcting at least one of brightness and contrast so as to increase the difference between pixel values of a target region and pixel values of a region other than the target region. 被検体の医用画像は、被検眼のモーションコントラスト画像であり、
前記対象領域は無灌流領域、中心窩血管領域、及び視神経乳頭領域の少なくとも1つを含む、請求項1乃至13のいずれか一項に記載の画像処理装置。
the medical image of the subject is a motion contrast image of the subject's eye;
The image processing device according to claim 1 , wherein the target region includes at least one of an aperfusion region, a foveal vascular region, and an optic disc region.
前記出力部は、被検体の医用画像を学習データとした学習により得た第1の学習済モデルを用いた高画質化処理と、被検体の医用画像の対象領域におけるブレンド処理又は明るさ及びコントラストの少なくとも一方の補正処理とが行われた被検体の医用画像を学習データとした学習により得た第2の学習済モデルを用いて、前記第1の画像に対して高画質化処理を行い、被検体の医用画像の第2の画像を出力する、請求項1乃至14のいずれか一項に記載の画像処理装置。 The image processing device according to any one of claims 1 to 14, wherein the output unit performs image quality improvement processing on the first image using a first trained model obtained by training using a medical image of the subject as training data, and a second trained model obtained by training using a medical image of the subject that has been subjected to blending processing or at least one of brightness and contrast correction processing in a target region of the medical image of the subject, and outputs a second image of the medical image of the subject. 被検体のライブ動画像を表示部に表示させる表示制御部を更に備える、請求項1乃至15のいずれか一項に記載の画像処理装置。 The image processing device according to any one of claims 1 to 15, further comprising a display control unit that causes a live video image of the subject to be displayed on a display unit. 前記表示制御部は、被検体に関する画像を含む学習データを学習して得た学習済モデルを用いて生成された高画質画像であって、前記被検体の医用画像を入力して得た高画質画像を前記表示部に表示させる、請求項16に記載の画像処理装置。 The image processing device according to claim 16, wherein the display control unit causes the display unit to display a high-quality image generated using a trained model obtained by training training data including images of a subject, the high-quality image being obtained by inputting a medical image of the subject. 前記表示制御部は、前記高画質画像として生成された前眼画像を前記ライブ動画像として前記表示部に表示させ、前記高画質画像として生成されたSLO画像であって、前記高画質画像として生成された断層画像の位置を示すラインが重畳表示されたSLO画像を前記ライブ動画像として前記表示部に表示させ、該SLO画像上の該ラインの位置に対応する該断層画像を前記ライブ動画像として前記表示部に表示させる、請求項17に記載の画像処理装置。 The image processing device according to claim 17, wherein the display control unit causes the display unit to display the anterior eye image generated as the high-quality image as the live video image, causes the display unit to display an SLO image generated as the high-quality image, in which a line indicating the position of the tomographic image generated as the high-quality image is superimposed, as the live video image, and causes the display unit to display the tomographic image corresponding to the position of the line on the SLO image as the live video image. 前記表示制御部は、前記高画質画像として生成された断層画像であって、前記ラインの位置に対応する断層画像における血管領域を示す情報を、前記ラインの位置に対応する前記断層画像に重畳表示させる、請求項18に記載の画像処理装置。 The image processing device according to claim 18, wherein the display control unit displays information indicating a vascular region in the cross-sectional image generated as the high-quality image and corresponding to the position of the line, superimposed on the cross-sectional image corresponding to the position of the line. 前記表示制御部は、被検体に関する画像を含む学習データを学習して得た解析結果生成用の学習済モデルを用いて生成された解析結果であって、被検体に関する画像を入力して得た解析結果を前記表示部に表示させる、請求項16乃至19のいずれか一項に記載の画像処理装置。 The image processing device according to any one of claims 16 to 19, wherein the display control unit causes the display unit to display analysis results obtained by inputting an image related to the subject, the analysis results being generated using a trained model for generating analysis results obtained by training training data including an image related to the subject. 前記表示制御部は、被検体に関する画像を含む学習データを学習して得た診断結果生成用の学習済モデルを用いて生成された診断結果であって、被検体に関する画像を入力して得た診断結果を前記表示部に表示させる、請求項16乃至20のいずれか一項に記載の画像処理装置。 The image processing device according to any one of claims 16 to 20, wherein the display control unit causes the display unit to display a diagnostic result obtained by inputting an image related to the subject, the diagnostic result being generated using a trained model for generating a diagnostic result obtained by training training data including an image related to the subject. 前記表示制御部は、敵対的生成ネットワーク又はオートエンコーダーを用いて生成された画像であって、被検体に関する画像を入力して得た画像と、該敵対的生成ネットワーク又はオートエンコーダーに入力された該被検体に関する画像との差に関する情報を、異常部位に関する情報として前記表示部に表示させる、請求項16乃至21のいずれか一項に記載の画像処理装置。 The image processing device according to any one of claims 16 to 21, wherein the display control unit causes the display unit to display, as information about an abnormal area, information about a difference between an image obtained by inputting an image about a subject, which is generated using a generative adversarial network or an autoencoder, and the image about the subject input to the generative adversarial network or the autoencoder. 前記表示制御部は、被検体に関する画像を含む学習データを学習して得た類似症例画像検索用の学習済モデルを用いて検索された類似症例画像であって、被検体に関する画像を入力して得た類似症例画像を前記表示部に表示させる、請求項16乃至22のいずれか一項に記載の画像処理装置。 The image processing device according to any one of claims 16 to 22, wherein the display control unit causes the display unit to display similar case images obtained by inputting an image related to the subject, the similar case images being searched for using a trained model for similar case image search obtained by training training data including an image related to the subject. 前記表示制御部は、被検体に関する画像を含む学習データを学習して得た物体認識用の学習済モデル又はセグメンテーション用の学習済モデルを用いて生成された物体認識結果又はセグメンテーション結果であって、被検体に関する画像を入力して得た物体認識結果又はセグメンテーション結果を、前記表示部に表示させる、請求項16乃至23のいずれか一項に記載の画像処理装置。 The image processing device according to any one of claims 16 to 23, wherein the display control unit causes the display unit to display an object recognition result or a segmentation result generated using a trained model for object recognition or a trained model for segmentation obtained by training training data including an image of a subject, the object recognition result or the segmentation result obtained by inputting an image of the subject. 前記第2の画像を取得するための操作者の指示は、文字認識用の学習済モデルと音声認識用の学習済モデルとジェスチャー認識用の学習済モデルとのうち少なくとも1つの学習済モデルを用いて得た情報である、請求項1乃至24のいずれか一項に記載の画像処理装置。 The image processing device according to any one of claims 1 to 24, wherein the operator's instruction to acquire the second image is information obtained using at least one of a trained model for character recognition, a trained model for voice recognition, and a trained model for gesture recognition. 第1の画像サイズを有する医用画像である入力データを含む学習データにより学習して得た学習済モデルであって、前記第1の画像サイズよりも大きい第2の画像サイズを有する医用画像である第1の画像を入力データとして前記学習済モデルに入力することにより生成された第2の画像を出力データとして出力する工程を含む、画像処理方法。 An image processing method comprising: a trained model obtained by training using training data including input data which is a medical image having a first image size; and a step of outputting as output data a second image generated by inputting as input data a first image which is a medical image having a second image size larger than the first image size into the trained model. コンピュータによって実行されると、該コンピュータに請求項26に記載の画像処理方法の各工程を実行させるプログラム。 A program that, when executed by a computer, causes the computer to execute each step of the image processing method described in claim 26.
JP2021059043A 2021-03-31 2021-03-31 Image processing device, image processing method, and program Pending JP2022155690A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021059043A JP2022155690A (en) 2021-03-31 2021-03-31 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021059043A JP2022155690A (en) 2021-03-31 2021-03-31 Image processing device, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2022155690A JP2022155690A (en) 2022-10-14
JP2022155690A5 true JP2022155690A5 (en) 2024-04-16

Family

ID=83558579

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021059043A Pending JP2022155690A (en) 2021-03-31 2021-03-31 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2022155690A (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114693694A (en) * 2020-12-25 2022-07-01 日本电气株式会社 Method, apparatus and computer-readable storage medium for image processing
CN115937423B (en) * 2022-12-13 2023-08-15 西安电子科技大学 Three-dimensional intelligent reconstruction method for liver tumor medical image
CN116128846B (en) * 2023-02-01 2023-08-22 南通大学 Visual transducer hash method for lung X-ray image retrieval
CN116958739B (en) * 2023-06-25 2024-06-21 南京矩视科技有限公司 Attention mechanism-based carbon fiber channel real-time dynamic numbering method

Similar Documents

Publication Publication Date Title
JP2022155690A5 (en)
JP2020093076A5 (en)
JP6318739B2 (en) Image processing apparatus and program
US20150262403A1 (en) Makeup support apparatus and method for supporting makeup
JP2020103880A5 (en)
JP6647584B1 (en) Information processing device and program
JP2020163100A5 (en)
JP7278724B2 (en) Information processing device, information processing method, and information processing program
JP2011189113A5 (en) Ophthalmologic apparatus, ophthalmologic apparatus control method, and program
JP6445784B2 (en) Image diagnosis support apparatus, processing method thereof, and program
WO2019169834A1 (en) Virtual reality interaction method, virtual reality interaction apparatus, virtual reality display apparatus, and computer-program product
JP2020039851A5 (en)
JP2018045608A5 (en)
JP2023077425A5 (en) Ophthalmic image processing device and ophthalmic image processing program
WO2016035312A1 (en) Assistance apparatus for assisting interpretation report creation and method for controlling the same
JP2022058770A5 (en) Image processing system, image processing method and program
WO2022026603A1 (en) Object recognition neural network training using multiple data sources
CN116368529A (en) Representation of a user based on the appearance of the current user
JP2020058629A5 (en)
JP2018000685A5 (en)
KR101817952B1 (en) See-through type head mounted display apparatus and method of controlling display depth thereof
JP2021058563A5 (en)
Hassoumi et al. Uncertainty visualization of gaze estimation to support operator-controlled calibration
JP2020195782A (en) Ophthalmologic image processing program and oct device
JP7134260B2 (en) Information processing equipment