JP2023129024A - Computer program, learning model generation method, image processing device, image processing system, and image processing method - Google Patents

Computer program, learning model generation method, image processing device, image processing system, and image processing method Download PDF

Info

Publication number
JP2023129024A
JP2023129024A JP2022033763A JP2022033763A JP2023129024A JP 2023129024 A JP2023129024 A JP 2023129024A JP 2022033763 A JP2022033763 A JP 2022033763A JP 2022033763 A JP2022033763 A JP 2022033763A JP 2023129024 A JP2023129024 A JP 2023129024A
Authority
JP
Japan
Prior art keywords
muscle
image
region
learning model
entire
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022033763A
Other languages
Japanese (ja)
Other versions
JP7361818B2 (en
Inventor
憲裕 小泉
Norihiro Koizumi
亮祐 近藤
Ryosuke Kondo
飛翔 今泉
Tsubasa Imaizumi
健太 草原
Kenta Kusahara
健介 井芹
Kensuke Iseri
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Furuno Electric Co Ltd
Original Assignee
Furuno Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Furuno Electric Co Ltd filed Critical Furuno Electric Co Ltd
Priority to JP2022033763A priority Critical patent/JP7361818B2/en
Priority to PCT/JP2023/007469 priority patent/WO2023167216A1/en
Publication of JP2023129024A publication Critical patent/JP2023129024A/en
Priority to JP2023172122A priority patent/JP2023182729A/en
Application granted granted Critical
Publication of JP7361818B2 publication Critical patent/JP7361818B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Theoretical Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Dentistry (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

To provide a computer program, a learning model generation method, an image processing device, an image processing system, and an image processing method, which can accurately identify the portion of a muscle.SOLUTION: A computer program causes a computer to execute the processing of: acquiring a medical image including a muscle part; inputting the acquired medical image into a second learning model learned to output region information for the whole muscle part when the medical image is input, and outputting the region information for the whole muscle part; generating a whole muscle part image on the basis of the output region information for the whole muscle part; and inputting the acquired medical image and the generated whole muscle part image into a first learning model learned to output region information for each muscle portion of the muscle part when the medical image and the whole muscle part image are input, and outputting the region information for each muscle portion.SELECTED DRAWING: Figure 1

Description

本発明は、コンピュータプログラム、学習モデル生成方法、画像処理装置、画像処理システム及び画像処理方法に関する。 The present invention relates to a computer program, a learning model generation method, an image processing device, an image processing system, and an image processing method.

前腕や下腿などの筋肉に比べて大腿部の筋肉は大きく、筋肉量を増やすことで基礎代謝を上げることができる。また、大腿部は、骨盤のバランスを維持し、膝関節を支えるためにも重要な部位であり、これら筋肉の状態を把握することが健康維持に不可欠である。 The muscles in your thighs are larger than those in your forearms and lower legs, and increasing muscle mass can increase your basal metabolism. Furthermore, the thigh is an important part for maintaining the balance of the pelvis and supporting the knee joint, and understanding the condition of these muscles is essential for maintaining health.

特許文献1には、測定対象筋肉に超音波を照射して得られる超音波エコー画像に対してテクスチャ解析を行って測定対象筋肉の筋力低下を導出する超音波診断装置が開示されている。 Patent Document 1 discloses an ultrasonic diagnostic apparatus that performs texture analysis on an ultrasound echo image obtained by irradiating a muscle to be measured with ultrasound to derive muscle weakness in the muscle to be measured.

特開2020-130596号公報Japanese Patent Application Publication No. 2020-130596

筋肉は複数の部位で構成され、それぞれの部位が重要な役割を有しており、各部位を精度よく特定することが望まれる。 Muscles are composed of multiple parts, each of which plays an important role, and it is desirable to identify each part with high accuracy.

本発明は、斯かる事情に鑑みてなされたものであり、筋肉の部位を精度よく特定できるコンピュータプログラム、学習モデル生成方法、画像処理装置、画像処理システム及び画像処理方法を提供することを目的とする。 The present invention was made in view of the above circumstances, and an object of the present invention is to provide a computer program, a learning model generation method, an image processing device, an image processing system, and an image processing method that can accurately identify muscle parts. do.

本願は上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、コンピュータプログラムは、コンピュータに、筋肉部を含む医用画像を取得し、医用画像を入力した場合、筋肉部全体の領域情報を出力するように学習された第2学習モデルに、取得した前記医用画像を入力して、筋肉部全体の領域情報を出力し、出力した筋肉部全体の領域情報に基づいて筋肉部全体画像を生成し、医用画像及び筋肉部全体画像を入力した場合に、前記筋肉部の各筋肉部位それぞれの領域情報を出力するように学習された第1学習モデルに、取得した前記医用画像及び生成した前記筋肉部全体画像を入力して、各筋肉部位それぞれの領域情報を出力する、処理を実行させる。 The present application includes a plurality of means for solving the above problems. To give one example, a computer program acquires a medical image including a muscle part, and when the medical image is input to a computer, the computer program acquires a medical image including a muscle part. The acquired medical image is input to the second learning model that has been trained to output region information, and region information of the entire muscle region is outputted. Based on the output region information of the entire muscle region, the second learning model is trained to output region information. When an image is generated and a medical image and a whole muscle image are input, the obtained medical image and the generated first learning model are trained to output region information for each muscle part of the muscle part. The image of the whole muscle part thus obtained is input, and a process is executed to output area information of each muscle part.

本発明によれば、筋肉の部位を精度よく特定できる。 According to the present invention, a muscle region can be identified with high accuracy.

本実施形態の画像処理装置の構成の一例を示す図である。1 is a diagram illustrating an example of the configuration of an image processing apparatus according to an embodiment. 制御部の構成の一例を示す図である。It is a figure showing an example of composition of a control part. 画像処理装置による部位検出の一例を示す図である。FIG. 3 is a diagram illustrating an example of part detection by an image processing device. 第1学習モデル及び第2学習モデルの生成方法の一例を示す図である。It is a figure which shows an example of the generation method of a 1st learning model and a 2nd learning model. 画像処理装置による大腿骨の輪郭検出の一例を示す図である。FIG. 3 is a diagram illustrating an example of femoral contour detection by the image processing device. 四頭筋全体画像の生成方法の一例を示す図である。It is a figure which shows an example of the generation method of the whole quadriceps image. 筋膜画像の生成方法の第1例を示す図である。It is a figure which shows the 1st example of the generation method of a fascia image. 筋膜画像の生成方法の第2例を示す図である。It is a figure which shows the 2nd example of the generation method of a fascia image. 各四頭筋画像(領域情報)の領域修正画面の一例を示す図である。It is a figure which shows an example of the area|region correction screen of each quadriceps image (region information). 筋膜画像(領域情報)の領域修正画面の一例を示す図である。It is a figure which shows an example of the area|region correction screen of a fascia image (region information). 異なるアルゴリズムを用いた第2学習モデルが出力した四頭筋全体の領域情報の一例を示す図である。It is a figure which shows an example of the area|region information of the whole quadriceps muscle output by the 2nd learning model using a different algorithm. 本実施形態の画像処理装置の構成の他の例を示す図である。FIG. 3 is a diagram showing another example of the configuration of the image processing device according to the present embodiment. 画像処理装置による各四頭筋の検出処理の一例を示す図である。It is a figure which shows an example of the detection process of each quadriceps muscle by an image processing device. 画像処理装置による学習モデルの生成処理の一例を示す図である。FIG. 3 is a diagram illustrating an example of learning model generation processing performed by the image processing device.

以下、本発明の実施の形態について説明する。図1は本実施形態の画像処理装置100の構成の一例を示す図である。画像処理装置100は、装置全体を制御する制御部10、通信部11、メモリ12、表示部13、操作部14、及び記憶部19を備える。記憶部19は、コンピュータプログラム20、第1学習モデル21、第2学習モデル22、及び第3学習モデル23などを記憶する。なお、画像処理装置100は、各機能部を複数の装置に分散し、当該複数の装置で構成して、画像処理システムとしてもよく、あるいは1又は複数のクラウド(サーバ)で構成してもよい。例えば、本システムは、一つのコンピュータのプロセッサに各部が実装してもよく、あるいは、各部を分散させて、複数のコンピュータやクラウド(サーバ)で実装してもよい。すなわち、本実施形態を1又は複数のプロセッサで実現してもよい。 Embodiments of the present invention will be described below. FIG. 1 is a diagram showing an example of the configuration of an image processing apparatus 100 of this embodiment. The image processing device 100 includes a control section 10 that controls the entire device, a communication section 11, a memory 12, a display section 13, an operation section 14, and a storage section 19. The storage unit 19 stores a computer program 20, a first learning model 21, a second learning model 22, a third learning model 23, and the like. Note that the image processing device 100 may be configured by distributing each functional unit to a plurality of devices and configured by the plurality of devices to form an image processing system, or may be configured by one or more clouds (servers). . For example, each part of this system may be implemented in the processor of one computer, or each part may be distributed and implemented in multiple computers or a cloud (server). That is, this embodiment may be implemented using one or more processors.

図2は制御部10の構成の一例を示す図である。制御部10は、取得部31、出力部32、縮小・拡大処理部15、輪郭抽出部16、画像生成部24、再学習処理部17、信頼性指標算出部18、及び一致度算出部33を備える。縮小・拡大処理部15は、間隔判定部151を備える。なお、本明細書では、取得部31、出力部32、縮小・拡大処理部15、輪郭抽出部16、画像生成部24、再学習処理部17、信頼性指標算出部18、及び一致度算出部33をまとめて制御部10とも称する。 FIG. 2 is a diagram showing an example of the configuration of the control section 10. As shown in FIG. The control unit 10 includes an acquisition unit 31, an output unit 32, a reduction/enlargement processing unit 15, a contour extraction unit 16, an image generation unit 24, a relearning processing unit 17, a reliability index calculation unit 18, and a matching degree calculation unit 33. Be prepared. The reduction/enlargement processing section 15 includes an interval determination section 151. Note that in this specification, the acquisition unit 31, the output unit 32, the reduction/enlargement processing unit 15, the contour extraction unit 16, the image generation unit 24, the relearning processing unit 17, the reliability index calculation unit 18, and the degree of matching calculation unit 33 are also collectively referred to as the control section 10.

制御部10は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等が所要数組み込まれて構成されている。また、制御部10は、コンピュータプログラム20を実行することにより、取得部31、出力部32、縮小・拡大処理部15、輪郭抽出部16、画像生成部24、再学習処理部17、信頼性指標算出部18、及び一致度算出部33の少なくとも1つの機能をハードウエアに代えてソフトウエアで実現することができる。制御部10は、第1学習モデル21、第2学習モデル22、及び第3学習モデル23を用いた処理を行う。また、制御部10は、コンピュータプログラム20で定められた処理を実行することができる。すなわち、制御部10による処理は、コンピュータプログラム20による処理でもある。 The control unit 10 includes a required number of CPUs (Central Processing Units), MPUs (Micro-Processing Units), GPUs (Graphics Processing Units), and the like. In addition, by executing the computer program 20, the control unit 10 also controls the acquisition unit 31, the output unit 32, the reduction/enlargement processing unit 15, the contour extraction unit 16, the image generation unit 24, the relearning processing unit 17, the reliability index At least one function of the calculating section 18 and the matching degree calculating section 33 can be realized by software instead of hardware. The control unit 10 performs processing using the first learning model 21, the second learning model 22, and the third learning model 23. Further, the control unit 10 can execute processing determined by the computer program 20. That is, the processing by the control unit 10 is also the processing by the computer program 20.

通信部11は、例えば、通信モジュールを備え、通信ネットワークを介して外部の装置との間の通信機能を有する。通信部11は、例えば、超音波診断装置、コンピュータ断層撮影装置、磁気共鳴診断装置、X線撮影装置、血管造影X線診断装置、PET検査装置又は電子顕微鏡などの装置から医用画像を取得できる。通信部11は、取得した医用画像を記憶部19に記憶し、制御部10へ出力する。なお、本明細書では、医用画像として超音波画像を例として説明する。また、筋肉部として大腿四頭筋を例とし、筋肉部位として各四頭筋を例とし、筋肉部の近傍の所定の骨として大腿骨を例として説明する。 The communication unit 11 includes, for example, a communication module and has a communication function with an external device via a communication network. The communication unit 11 can acquire medical images from a device such as an ultrasound diagnostic device, a computed tomography device, a magnetic resonance diagnostic device, an X-ray imaging device, an angiography X-ray diagnostic device, a PET examination device, or an electron microscope. The communication unit 11 stores the acquired medical image in the storage unit 19 and outputs it to the control unit 10. Note that in this specification, an ultrasound image will be described as an example of a medical image. Further, the explanation will be given by taking the quadriceps femoris muscle as an example of a muscle part, each quadriceps muscle as an example of a muscle part, and the femur as an example of a predetermined bone in the vicinity of the muscle part.

メモリ12は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の半導体メモリで構成することができる。コンピュータプログラム20をメモリ12に展開することにより、制御部10は、コンピュータプログラム20を実行することができる。 The memory 12 can be configured with a semiconductor memory such as an SRAM (Static Random Access Memory), a DRAM (Dynamic Random Access Memory), or a flash memory. By loading the computer program 20 into the memory 12, the control unit 10 can execute the computer program 20.

表示部13は、液晶パネル又は有機EL(Electro Luminescence)ディスプレイ等で構成することができる。 The display unit 13 can be configured with a liquid crystal panel, an organic EL (Electro Luminescence) display, or the like.

操作部14は、例えば、ハードウェアキーボード、マウスなどで構成され、表示部13に表示されたアイコンなどの操作、カーソルの移動や操作、文字等の入力などを行うことができる。なお、操作部14は、タッチパネルで構成してもよい。 The operation unit 14 is configured with, for example, a hardware keyboard, a mouse, etc., and is capable of operating icons displayed on the display unit 13, moving and operating a cursor, inputting characters, etc. Note that the operation unit 14 may be configured with a touch panel.

制御部10の取得部31は、大腿部を含む大腿部画像を取得する。大腿部画像は、通信部11を介して外部の装置(例えば、超音波診断装置など)から取得してもよく、記憶部19から取得してもよい。大腿部画像は、大腿四頭筋(大腿直筋、内側広筋、中間広筋、外側広筋)を含む画像である。 The acquisition unit 31 of the control unit 10 acquires a thigh image including the thigh. The thigh image may be acquired from an external device (for example, an ultrasound diagnostic device, etc.) via the communication unit 11, or may be acquired from the storage unit 19. The thigh image is an image including the quadriceps femoris (rectus femoris, vastus medialis, vastus intermedius, and vastus lateralis).

図3は画像処理装置100による部位検出の一例を示す図である。図3の例では、部位として各大腿四頭筋(大腿直筋、内側広筋、中間広筋、外側広筋)を検出する。制御部10は、大腿部画像を第2学習モデル22に入力する。第2学習モデル22は、大腿部画像を入力した場合に、四頭筋全体の領域情報を出力するように学習されている。制御部10の出力部32は、第2学習モデル22から四頭筋全体の領域情報を取得して、画像生成部24へ出力することができる。 FIG. 3 is a diagram showing an example of part detection by the image processing device 100. In the example of FIG. 3, each quadriceps femoris (rectus femoris, vastus medialis, vastus intermedius, and vastus lateralis) is detected as a region. The control unit 10 inputs the thigh image to the second learning model 22. The second learning model 22 is trained to output region information of the entire quadriceps muscle when a thigh image is input. The output unit 32 of the control unit 10 can acquire area information of the entire quadriceps muscle from the second learning model 22 and output it to the image generation unit 24.

より具体的には、第2学習モデル22は、大腿部画像が入力されると、セグメンテーションデータ(領域情報)を出力することができる。セグメンテーションデータは、大腿部画像の各ピクセルをクラスに分類したものである。第2学習モデル22は、入力された大腿部画像それぞれのピクセルを、例えば、クラス0、1の2つのクラスに分類することができる。クラス0は背景を示し、大腿四頭筋の外側の領域を示す。クラス1は大腿四頭筋を示す。 More specifically, the second learning model 22 can output segmentation data (region information) when a thigh image is input. The segmentation data is obtained by classifying each pixel of the thigh image into classes. The second learning model 22 can classify pixels of each input thigh image into two classes, eg, classes 0 and 1. Class 0 indicates the background and indicates the area outside the quadriceps muscle. Class 1 indicates the quadriceps muscle.

画像生成部24は、第2学習モデル22が出力した四頭筋全体の領域情報に基づいて四頭筋全体画像を生成する。四頭筋全体画像は、例えば、クラス0に分類された領域を黒に設定し、クラス1に分類された領域を黒以外の特定の色に設定した画像である。 The image generation unit 24 generates an image of the entire quadriceps muscle based on the region information of the entire quadriceps output by the second learning model 22. The entire quadriceps muscle image is, for example, an image in which regions classified as class 0 are set to black, and regions classified as class 1 are set to a specific color other than black.

次に、制御部10は、大腿部画像及び生成した四頭筋全体画像を第1学習モデル21に入力する。第1学習モデル21は、大腿部画像及び四頭筋全体画像を入力した場合に、四頭筋それぞれ(大腿直筋、内側広筋、中間広筋、外側広筋)の領域情報を出力するように学習されている。制御部10の出力部32は、第1学習モデル21から四頭筋それぞれの領域情報を取得して、画像生成部24へ出力することができる。 Next, the control unit 10 inputs the thigh image and the generated entire quadriceps image to the first learning model 21. The first learning model 21 outputs region information of each quadriceps muscle (rectus femoris, vastus medialis, vastus intermedius, and vastus lateralis) when inputting a thigh image and an entire quadriceps image. This is how it is learned. The output unit 32 of the control unit 10 can acquire region information for each quadriceps muscle from the first learning model 21 and output it to the image generation unit 24.

より具体的には、第1学習モデル21は、大腿部画像及び四頭筋全体画像が入力されると、セグメンテーションデータ(領域情報)を出力することができる。セグメンテーションデータは、大腿部画像の各ピクセルをクラスに分類したものである。第1学習モデル21は、入力された大腿部画像それぞれのピクセルを、四頭筋全体画像が示す四頭筋全体領域の範囲内で、例えば、クラス0、2、3、4、5の5つのクラスに分類することができる。クラス0は背景を示し、大腿四頭筋の外側の領域を示す。クラス2~5は、各部位を示す。たとえば、クラス2は大腿直筋を示し、クラス3は中間広筋を示し、クラス4は外側広筋を示し、クラス5は内側広筋を示す。 More specifically, the first learning model 21 can output segmentation data (region information) when the thigh image and the whole quadriceps image are input. The segmentation data is obtained by classifying each pixel of the thigh image into classes. The first learning model 21 calculates the pixels of each input thigh image within the range of the entire quadriceps region indicated by the entire quadriceps image, for example, in classes 0, 2, 3, 4, and 5. can be classified into two classes. Class 0 indicates the background and indicates the area outside the quadriceps muscle. Classes 2 to 5 indicate each part. For example, class 2 indicates rectus femoris, class 3 indicates vastus intermedius, class 4 indicates vastus lateralis, and class 5 indicates vastus medialis.

第1学習モデル21には、大腿部画像だけでなく、四頭筋全体画像も入力されるため、四頭筋全体画像で示す四頭筋全体領域の外側にはみ出すことなく、各四頭筋の領域情報を出力できるように学習させることができる。これにより、筋肉の部位(各四頭筋の領域)を精度よく特定できる。 Since not only the thigh image but also the whole quadriceps image is input to the first learning model 21, each quadriceps muscle is can be trained to output area information. Thereby, the muscle region (each quadriceps muscle region) can be identified with high accuracy.

画像生成部24は、第1学習モデル21が出力した各四頭筋の領域情報に基づいて各四頭筋画像を生成する。各四頭筋画像は、例えば、クラス0に分類された領域を黒に設定し、クラス2~5に分類された領域(部位)を黒以外であって、それぞれ異なる表示態様(例えば、色が異なる)に設定した画像である(図7、図8参照)。筋肉量は、各部位の大きさ等に基づいて算出すればよい。各四頭筋の領域を精度よく検出することにより、各四頭筋の大きさを正確に求めることができ、筋肉量を精度よく算出できる。 The image generation unit 24 generates each quadriceps image based on the region information of each quadriceps outputted by the first learning model 21. In each quadriceps muscle image, for example, areas classified as class 0 are set to black, areas (parts) classified as classes 2 to 5 are set to colors other than black, and each quadriceps muscle image has a different display mode (for example, color). (See FIGS. 7 and 8). Muscle mass may be calculated based on the size of each part. By accurately detecting the region of each quadriceps muscle, the size of each quadriceps muscle can be accurately determined, and the muscle mass can be calculated accurately.

第1学習モデル21、第2学習モデル22それぞれは、例えば、U-Net、Attention-Unet、SegNet等のセマンティック・セグメンテーションを用いるものでもよく、あるいは、Mask R-CNN、DeepMask、FCIS等のインスタンス・セグメンテーションを用いるものでもよく、GAN(Generative Adversarial Network:敵対的生成ネットワーク)でもよい。 Each of the first learning model 21 and the second learning model 22 may use semantic segmentation such as U-Net, Attention-Unet, or SegNet, or may use instance segmentation such as Mask R-CNN, DeepMask, or FCIS. It may use segmentation or may be a GAN (Generative Adversarial Network).

図4は第1学習モデル21及び第2学習モデル22の生成方法の一例を示す図である。第2学習モデル22の生成方法は、例えば、以下のようにすればよい。制御部10は、大腿部画像及び四頭筋全体の領域情報を含む訓練データを取得する。訓練データは、例えば、外部のサーバ等で収集して記憶しておき、当該サーバから取得すればよい。制御部10は、訓練データに含まれる大腿部画像を第2学習モデル22に入力し、第2学習モデル22が出力する四頭筋全体の領域情報と、訓練データに含まれる教師データとしての四頭筋全体の領域情報とに基づく損失関数の値が最小になるように、第2学習モデル22のパラメータを調整すればよい。 FIG. 4 is a diagram showing an example of a method for generating the first learning model 21 and the second learning model 22. The second learning model 22 may be generated, for example, as follows. The control unit 10 acquires training data including a thigh image and area information of the entire quadriceps muscle. For example, the training data may be collected and stored in an external server or the like, and then acquired from the server. The control unit 10 inputs the thigh image included in the training data to the second learning model 22, and inputs the region information of the entire quadriceps muscle outputted by the second learning model 22 and the teacher data included in the training data. The parameters of the second learning model 22 may be adjusted so that the value of the loss function based on the area information of the entire quadriceps muscle is minimized.

また、第1学習モデル21の生成方法は、例えば、以下のようにすればよい。制御部10は、大腿部画像、四頭筋全体画像及び各四頭筋の領域情報を含む訓練データを取得する。訓練データは、例えば、外部のサーバ等で収集して記憶しておき、当該サーバから取得すればよい。制御部10は、訓練データに含まれる大腿部画像及び四頭筋全体画像を第1学習モデル21に入力し、第1学習モデル21が出力する各四頭筋の領域情報と、訓練データに含まれる教師データとしての各四頭筋の領域情報とに基づく損失関数の値が最小になるように、第1学習モデル21のパラメータを調整すればよい。 Furthermore, the first learning model 21 may be generated in the following manner, for example. The control unit 10 acquires training data including a thigh image, an entire quadriceps image, and region information of each quadriceps muscle. For example, the training data may be collected and stored in an external server or the like, and then acquired from the server. The control unit 10 inputs the thigh image and the whole quadriceps image included in the training data to the first learning model 21, and inputs the area information of each quadriceps muscle output from the first learning model 21 and the training data. The parameters of the first learning model 21 may be adjusted so that the value of the loss function based on the area information of each quadriceps muscle as the included teacher data is minimized.

図5は画像処理装置100による大腿骨の輪郭検出の一例を示す図である。制御部10は、大腿部画像を第3学習モデル23に入力する。第3学習モデル23は、大腿部画像を入力した場合に、大腿骨の領域情報を出力するように学習されている。制御部10の出力部32は、第3学習モデル23から大腿骨の領域情報を取得して、画像生成部24へ出力することができる。 FIG. 5 is a diagram illustrating an example of femoral contour detection by the image processing device 100. The control unit 10 inputs the thigh image to the third learning model 23. The third learning model 23 is trained to output femoral region information when a femoral image is input. The output unit 32 of the control unit 10 can acquire region information of the femur from the third learning model 23 and output it to the image generation unit 24.

より具体的には、第3学習モデル23は、大腿部画像が入力されると、セグメンテーションデータ(領域情報)を出力することができる。セグメンテーションデータは、大腿部画像の各ピクセルをクラスに分類したものである。第3学習モデル23は、入力された大腿部画像それぞれのピクセルを、例えば、クラス10、11の2つのクラスに分類することができる。クラス10は背景を示し、大腿骨の外側の領域を示す。クラス11は大腿骨を示す。 More specifically, the third learning model 23 can output segmentation data (region information) when a thigh image is input. The segmentation data is obtained by classifying each pixel of the thigh image into classes. The third learning model 23 can classify pixels of each input thigh image into two classes, classes 10 and 11, for example. Class 10 indicates the background and indicates the lateral region of the femur. Class 11 indicates the femur.

画像生成部24は、第3学習モデル23が出力した大腿骨の領域情報に基づいて大腿骨画像を生成する。大腿骨画像は、例えば、クラス10に分類された領域を黒に設定し、クラス11に分類された領域を黒以外の特定の色に設定した画像である。 The image generation unit 24 generates a femur image based on the femur region information output by the third learning model 23. The femur image is, for example, an image in which a region classified into class 10 is set to black, and a region classified into class 11 is set to a specific color other than black.

輪郭抽出部16は、画像生成部24が生成した大腿骨画像に基づいて大腿骨の輪郭線を抽出し、大腿骨の輪郭線が描かれた輪郭画像を生成する。輪郭抽出は、例えば、以下のように行うことができる。大腿部画像を二値化画像(0:背景、1:図形画素)に変換し、二値化画像をラスタ走査して、最初に検出した図形画素を開始点(第1画素)とする。開始点の画素の周囲8近傍の画素を、例えば、反時計周りに調べて図形画素があれば第2画素とする。第2画素の周囲8近傍の画素を調べて図形画素があれば第3画素とする。以降、同様の処理を繰り返すことで輪郭線を構成する画素を抽出できる。また、輪郭抽出は、OpenCVなどのライブラリを用いてもよい。 The contour extraction section 16 extracts the contour of the femur based on the femur image generated by the image generation section 24, and generates a contour image in which the contour of the femur is drawn. Contour extraction can be performed, for example, as follows. The thigh image is converted into a binarized image (0: background, 1: figure pixel), the binarized image is raster scanned, and the first detected figure pixel is set as the starting point (first pixel). Eight neighboring pixels around the pixel at the starting point are checked, for example, in a counterclockwise direction, and if there is a graphic pixel, it is determined as the second pixel. Eight neighboring pixels around the second pixel are examined, and if there is a graphic pixel, it is determined as the third pixel. Thereafter, by repeating the same process, pixels forming the contour line can be extracted. Furthermore, a library such as OpenCV may be used for contour extraction.

第3学習モデル23の生成方法は、例えば、以下のようにすればよい。制御部10は、大腿部画像及び大腿骨の領域情報を含む訓練データを取得する。大腿骨の領域情報は、例えば、大腿骨の領域全体をラベリングすればよい。大腿骨の輪郭線をラベリングしてもよいが、輪郭線をラベリングして学習させた場合、大腿骨の輪郭を検出するときに輪郭の一部が途切れる場合がある。大腿骨全体の領域をラベリングすることにより、第3学習モデル23は、特定の領域を検出するので、検出された領域から輪郭を抽出すれば輪郭の一部が途切れることを防止できる。制御部10は、訓練データに含まれる大腿部画像を第3学習モデル23に入力し、第3学習モデル23が出力する大腿骨の領域情報と、訓練データに含まれる教師データとしての大腿骨の領域情報とに基づく損失関数の値が最小になるように、第3学習モデル23のパラメータを調整すればよい。 The third learning model 23 may be generated, for example, as follows. The control unit 10 acquires training data including a thigh image and femur region information. The region information of the femur may be obtained by labeling the entire region of the femur, for example. The outline of the femur may be labeled, but if the outline is labeled and learned, part of the outline may be interrupted when detecting the outline of the femur. By labeling the entire region of the femur, the third learning model 23 detects a specific region. Therefore, by extracting the contour from the detected region, it is possible to prevent part of the contour from being cut off. The control unit 10 inputs the thigh image included in the training data to the third learning model 23, and inputs the femur region information outputted by the third learning model 23 and the femur as teacher data included in the training data. What is necessary is to adjust the parameters of the third learning model 23 so that the value of the loss function based on the region information and the region information is minimized.

第3学習モデル23は、例えば、U-Net、Attention-Unet、SegNet等のセマンティック・セグメンテーションを用いるものでもよく、あるいは、Mask R-CNN、DeepMask、FCIS等のインスタンス・セグメンテーションを用いるものでもよく、GAN(Generative Adversarial Network:敵対的生成ネットワーク)でもよい。 The third learning model 23 may use semantic segmentation such as U-Net, Attention-Unet, or SegNet, or may use instance segmentation such as Mask R-CNN, DeepMask, or FCIS. It may also be a GAN (Generative Adversarial Network).

第1学習モデル21、第2学習モデル22、及び第3学習モデル23の生成は、画像処理装置100が行ってもよく、あるいは外部の学習処理装置が各学習モデルを生成し、画像処理装置100が、当該学習処理装置から各学習モデルを取得するようにしてもよい。 The first learning model 21, the second learning model 22, and the third learning model 23 may be generated by the image processing device 100, or an external learning processing device may generate each learning model and the image processing device 100 may generate the first learning model 21, the second learning model 22, and the third learning model 23. However, each learning model may be acquired from the learning processing device.

図6は四頭筋全体画像の生成方法の一例を示す図である。図3の場合には、画像生成部24は、四頭筋全体の領域情報に基づいて四頭筋全体画像を生成する構成であった。図6の場合は、画像生成部24は、更に大腿骨の輪郭画像を考慮して四頭筋全体画像を生成する。この場合、画像生成部24は、以下のようにして四頭筋全体画像を生成する。すなわち、第3学習モデル23が出力する大腿骨の領域情報に基づいて生成された大腿骨の輪郭画像に描かれている大腿骨の輪郭線をランドマークとして四頭筋全体画像を生成する。例えば、大腿骨の輪郭線の内側に四頭筋全体の領域の一部が含まれる場合、当該部分は四頭筋全体の領域から除去する。また、輪郭線と四頭筋全体の領域との間隔が所定の閾値(ピクセル数)より大きい場合には、輪郭線と四頭筋全体の領域との間隔が閾値以内になるように、四頭筋全体の領域のうち輪郭線に対向する部分を膨張(拡大)してもよい。四頭筋全体画像は、各四頭筋の領域情報を検出する際の基準(四頭筋全体の範囲をはみ出さないように各四頭筋それぞれを検出する)となるので、四頭筋全体の領域は適切な範囲において、広い(面積が大きい)方が好ましい。 FIG. 6 is a diagram illustrating an example of a method for generating an entire quadriceps image. In the case of FIG. 3, the image generation unit 24 is configured to generate an image of the entire quadriceps muscle based on area information of the entire quadriceps muscle. In the case of FIG. 6, the image generation unit 24 generates an entire image of the quadriceps muscle, further taking into account the outline image of the femur. In this case, the image generation unit 24 generates the entire quadriceps image as follows. That is, an entire image of the quadriceps muscle is generated using, as a landmark, the outline of the femur drawn in the outline image of the femur generated based on the region information of the femur output by the third learning model 23. For example, if a part of the entire quadriceps muscle area is included inside the femoral contour line, that part is removed from the entire quadriceps area. In addition, if the distance between the contour line and the entire area of the quadriceps muscle is larger than a predetermined threshold (number of pixels), the distance between the outline line and the area of the entire quadriceps muscle is adjusted to be within the threshold. A portion of the entire muscle region that faces the contour line may be expanded (enlarged). The entire quadriceps image serves as the standard for detecting area information for each quadriceps (detect each quadriceps individually without extending beyond the range of the entire quadriceps), so It is preferable that the region is wide (has a large area) within an appropriate range.

上述のように、制御部10は、大腿部画像を入力した場合に、大腿骨の領域情報を出力するように学習された第3学習モデル23に、取得した大腿部画像を入力して、大腿骨の領域情報を出力し、出力した大腿骨の領域情報に基づいて、大腿骨の輪郭を抽出し、出力した四頭筋全体の領域情報及び抽出した輪郭に基づいて四頭筋全体画像を生成することができる。 As described above, the control unit 10 inputs the acquired thigh image to the third learning model 23, which is trained to output femur region information when the thigh image is input. , output the region information of the femur, extract the contour of the femur based on the output region information of the femur, and extract the entire quadriceps muscle image based on the output region information of the entire quadriceps muscle and the extracted contour. can be generated.

図7は筋膜画像の生成方法の第1例を示す図である。筋膜画像は、大腿部画像又は四頭筋全体画像から各四頭筋(筋肉)を除去した画像である。各四頭筋画像の部位をA、B、C、Dとする。大腿四頭筋の場合、部位A~Dは、それぞれ大腿直筋、内側広筋、中間広筋、及び外側広筋である。図7の例では、部位Aと部位Bの間隔Gが所定範囲(所定のピクセル数)よりも狭い場合を示し、例えば、部位Aの一部と部位Bの一部が接触している。この場合には、本来、部位Aと部位Bとの間に存在する筋膜が存在しないことになってしまう。そこで、縮小・拡大処理部15は、部位Aと部位Bの少なくとも一方を縮小する処理を行うことにより、部位Aと部位Bの間隔Gが所定範囲になるようにする。縮小処理は、例えば、部位の外側のピクセルを、1~2ピクセル程度減らすことにより行える。なお、縮小処理の際に減らすピクセル数を、部位の位置に応じて所要数に設定できるようにしてもよい。 FIG. 7 is a diagram showing a first example of a method for generating a fascia image. The fascia image is an image obtained by removing each quadriceps muscle (muscle) from the thigh image or the entire quadriceps image. Let the parts of each quadriceps image be A, B, C, and D. For the quadriceps muscle, regions A to D are the rectus femoris, vastus medialis, vastus intermedius, and vastus lateralis, respectively. The example in FIG. 7 shows a case where the distance G between the region A and the region B is narrower than a predetermined range (predetermined number of pixels), and for example, a part of the region A and a part of the region B are in contact with each other. In this case, the fascia that originally exists between site A and site B does not exist. Therefore, the reduction/enlargement processing unit 15 performs a process of reducing at least one of the region A and the region B so that the distance G between the region A and the region B falls within a predetermined range. The reduction process can be performed, for example, by reducing the number of pixels outside the region by about 1 to 2 pixels. Note that the number of pixels to be reduced during the reduction process may be set to a required number depending on the position of the part.

画像生成部24は、大腿部画像又は四頭筋全体画像から縮小処理が施された各四頭筋画像を除去して筋膜画像を生成することができる。これにより、医師などのユーザが画像を見ながら適切な筋膜画像を生成できる。 The image generation unit 24 can generate a fascia image by removing each quadriceps muscle image that has been subjected to the reduction process from the thigh image or the entire quadriceps image. This allows a user such as a doctor to generate an appropriate fascia image while viewing the image.

上述のように、縮小・拡大処理部15の間隔判定部151は、四頭筋それぞれの領域情報に基づいて、各四頭筋間の間隔が所定範囲であるか否を判定する。縮小・拡大処理部15は、四頭筋間の間隔が所定範囲より狭い場合、四頭筋の少なくとも一方を縮小して領域情報を補正する。出力部32は、四頭筋全体画像及び補正した領域情報を含む四頭筋それぞれの領域情報に基づいて筋膜の領域情報を出力することができる。 As described above, the interval determination unit 151 of the reduction/enlargement processing unit 15 determines whether the interval between each quadriceps muscle is within a predetermined range based on the area information of each quadriceps muscle. When the distance between the quadriceps muscles is narrower than a predetermined range, the reduction/enlargement processing unit 15 corrects the area information by reducing at least one of the quadriceps muscles. The output unit 32 can output the fascia region information based on the quadriceps whole image and the region information of each quadriceps muscle including the corrected region information.

図8は筋膜画像の生成方法の第2例を示す図である。図8の例では、部位Aと部位Dの間隔Gが所定範囲(所定のピクセル数)よりも広い場合を示す。この場合には、部位Aと部位Dとの間に存在する筋膜の面積が大きくなってしまう。そこで、縮小・拡大処理部15は、部位Aと部位Dの少なくとも一方を拡大(膨張)する処理を行うことにより、部位Aと部位Dの間隔Gが所定範囲になるようにする。拡大処理は、例えば、部位の外側のピクセルを、1~2ピクセル程度増やすことにより行える。なお、拡大処理の際に増やすピクセル数を、部位の位置に応じて所要数に設定できるようにしてもよい。 FIG. 8 is a diagram showing a second example of a method for generating a fascia image. The example in FIG. 8 shows a case where the interval G between the region A and the region D is wider than a predetermined range (predetermined number of pixels). In this case, the area of the fascia existing between site A and site D becomes large. Therefore, the reduction/enlargement processing unit 15 performs a process of enlarging (expanding) at least one of the region A and the region D, so that the distance G between the region A and the region D falls within a predetermined range. The enlargement process can be performed, for example, by increasing the number of pixels outside the region by about 1 to 2 pixels. Note that the number of pixels to be increased during the enlargement process may be set to a required number depending on the position of the part.

画像生成部24は、大腿部画像又は四頭筋全体画像から拡大処理が施された各四頭筋画像を除去して筋膜画像を生成することができる。これにより、医師などのユーザが画像を見ながら適切な筋膜画像を生成できる。 The image generation unit 24 can generate a fascia image by removing each quadriceps image that has been subjected to the enlargement process from the thigh image or the entire quadriceps image. This allows a user such as a doctor to generate an appropriate fascia image while viewing the image.

上述のように、縮小・拡大処理部15の間隔判定部151は、四頭筋それぞれの領域情報に基づいて、各四頭筋間の間隔が所定範囲であるか否を判定する。縮小・拡大処理部15は、四頭筋間の間隔が所定範囲より広い場合、四頭筋の少なくとも一方を拡大(膨張)して領域情報を補正する。出力部32は、四頭筋全体画像及び補正した領域情報を含む四頭筋それぞれの領域情報に基づいて筋膜の領域情報を出力することができる。 As described above, the interval determination unit 151 of the reduction/enlargement processing unit 15 determines whether the interval between each quadriceps muscle is within a predetermined range based on the area information of each quadriceps muscle. When the distance between the quadriceps muscles is wider than a predetermined range, the reduction/enlargement processing unit 15 enlarges (expands) at least one of the quadriceps muscles to correct the region information. The output unit 32 can output the fascia region information based on the quadriceps whole image and the region information of each quadriceps muscle including the corrected region information.

図9は各四頭筋画像(領域情報)の領域修正画面210の一例を示す図である。表示部13に表示される領域修正画面210には、画像表示欄214、編集用ツール211、「編集」アイコン212、「保存」アイコン213が表示される。画像表示欄214には、第1学習モデル21が出力した各四頭筋の領域情報(図3参照)に基づいて、画像生成部24が生成した各四頭筋画像が表示される。各四頭筋の部位をA~Dで表している。部位A~Dは、それぞれ大腿直筋、内側広筋、中間広筋、及び外側広筋である。 FIG. 9 is a diagram showing an example of a region correction screen 210 for each quadriceps image (region information). On the area correction screen 210 displayed on the display unit 13, an image display field 214, an editing tool 211, an "edit" icon 212, and a "save" icon 213 are displayed. The image display column 214 displays each quadriceps image generated by the image generation unit 24 based on the region information of each quadriceps outputted by the first learning model 21 (see FIG. 3). The parts of each quadriceps muscle are represented by A to D. Sites A to D are rectus femoris, vastus medialis, vastus intermedius, and vastus lateralis, respectively.

医師などのユーザが「編集」アイコン212を操作し、カーソル215を所望の部位の位置に移動させ、編集用ツール211内の編集用ツールを使って、部位の領域に対する修正を行う。編集用ツールは、例えば、画像の上でドラッグして自由なラインを描くためのブラシ、画像に線、カーブ、四角、円又は矢印などを描くための図形選択アイコン、ペン先の大きさ、模様又は色を変更するためのパレットアイコン、画像の所要箇所を消去する消しゴムなどの各種ツール用のアイコンを有する。 A user such as a doctor operates the "edit" icon 212, moves the cursor 215 to the position of a desired region, and uses the editing tools in the editing tool 211 to make corrections to the region of the region. Editing tools include, for example, a brush to draw free lines by dragging on the image, shape selection icons to draw lines, curves, squares, circles, or arrows on the image, pen tip size, and patterns. It also has icons for various tools, such as a palette icon for changing colors and an eraser for erasing desired parts of an image.

図9に示すように、例えば、部位Dと部位Cの境界216が境界217になるように修正することができる。修正が終了した場合、ユーザが「保存」アイコン213を操作することにより、修正後の各四頭筋画像を保存することができる。保存先は、記憶部19でもよく、外部のデータサーバ等でもよい。修正後の各四頭筋の領域情報は、第1学習モデル21の再学習用の訓練データとして用いることができる。再学習処理部17は、修正後の各四頭筋の領域情報を取得して、第1学習モデル21を再学習することができる。 As shown in FIG. 9, for example, the boundary 216 between the region D and the region C can be modified to become a boundary 217. When the modification is completed, the user can save each modified quadriceps image by operating the "save" icon 213. The storage location may be the storage unit 19, an external data server, or the like. The region information of each quadriceps muscle after correction can be used as training data for relearning the first learning model 21. The relearning processing unit 17 can acquire the corrected region information of each quadriceps muscle and relearn the first learning model 21.

上述のように、制御部10は、表示部13に表示した四頭筋それぞれの領域情報に対する修正を受け付け、修正を受け付けた領域情報と共に大腿部画像及び四頭筋全体画像に基づいて第1学習モデル21を再学習することができる。これにより、第1学習モデル21による各四頭筋の領域の検出精度をさらに高めることができる。 As described above, the control unit 10 accepts corrections to the area information of each quadriceps displayed on the display unit 13, and based on the area information for which the correction has been accepted, the thigh image and the entire quadriceps image, the control unit 10 The learning model 21 can be retrained. Thereby, the detection accuracy of each quadriceps muscle region by the first learning model 21 can be further improved.

図10は筋膜画像(領域情報)の領域修正画面220の一例を示す図である。表示部13に表示される領域修正画面220には、画像表示欄221、編集用ツール211、「編集」アイコン212、「保存」アイコン213が表示される。画像表示欄221には、画像生成部24が生成した筋膜画像が表示される(図7、図8参照)。医師などのユーザが「編集」アイコン212を操作し、カーソル215を所望の位置に移動させ、編集用ツール211内の編集用ツールを使って、筋膜画像に対する修正を行う。 FIG. 10 is a diagram showing an example of a region correction screen 220 of a fascia image (region information). On the area correction screen 220 displayed on the display unit 13, an image display field 221, an editing tool 211, an "edit" icon 212, and a "save" icon 213 are displayed. The fascia image generated by the image generation unit 24 is displayed in the image display column 221 (see FIGS. 7 and 8). A user such as a doctor operates the "edit" icon 212, moves the cursor 215 to a desired position, and uses the editing tool in the editing tool 211 to modify the fascia image.

図10に示すように、例えば、筋膜の一部222を符号223で示すように修正することができる。これにより、筋膜の領域を修正できる。修正が終了した場合、ユーザが「保存」アイコン213を操作することにより、修正後の筋膜画像(領域情報)を保存することができる。保存先は、記憶部19でもよく、外部のデータサーバ等でもよい。修正後の筋膜の領域情報は、第1学習モデル21の再学習用の訓練データとして用いることができる。再学習処理部17は、修正後の筋膜の領域情報を取得して、筋膜の領域情報も考慮して第1学習モデル21を再学習することができる。この場合、修正後の筋膜の領域情報に基づいて各四頭筋の領域情報を更新することができる。 As shown in FIG. 10, for example, a portion of fascia 222 may be modified as indicated at 223. This allows areas of fascia to be corrected. When the modification is completed, the user can save the modified fascia image (region information) by operating the "save" icon 213. The storage location may be the storage unit 19, an external data server, or the like. The corrected fascia region information can be used as training data for relearning the first learning model 21. The relearning processing unit 17 can acquire the corrected fascia region information and relearn the first learning model 21 by also taking into consideration the fascia region information. In this case, the region information of each quadriceps muscle can be updated based on the corrected fascia region information.

上述のように、制御部10は、表示部13に表示した筋膜の領域情報に対する修正を受け付け、修正を受け付けた領域情報(更新された各四頭筋の領域情報)と共に大腿部画像及び四頭筋全体画像に基づいて第1学習モデル21を再学習することができる。これにより、第1学習モデル21による各四頭筋の領域の検出精度をさらに高めることができる。 As described above, the control unit 10 accepts corrections to the fascia area information displayed on the display unit 13, and displays the thigh image and the area information for which the correction has been accepted (the updated area information of each quadriceps muscle). The first learning model 21 can be retrained based on the whole quadriceps image. Thereby, the detection accuracy of each quadriceps muscle region by the first learning model 21 can be further improved.

次に、画像処理装置100による筋肉の部位の検出結果の信頼性指標について説明する。 Next, the reliability index of the detection results of muscle parts by the image processing device 100 will be explained.

図11は異なるアルゴリズムを用いた第2学習モデル22が出力した四頭筋全体の領域情報の一例を示す図である。異なるアルゴリズムを符号P1、P2、P3で示す。アルゴリズムは、例えば、U-Net、Attention-Unet、SegNet、Mask R-CNN、DeepMask、FCIS、GAN(Generative Adversarial Network:敵対的生成ネットワーク)等を含む。図11Aに示すように、アルゴリズムP1及びP2を用いた第2学習モデル22が出力する四頭筋全体の領域情報の一致度合い(一致率)が高い。一方、図11Bに示すように、アルゴリズムP1及びP3を用いた第2学習モデル22が出力する四頭筋全体の領域情報の一致度合い(一致率)は低い。信頼性指標算出部18は、アルゴリズムP1、P2を用いた第2学習モデル22それぞれが出力する四頭筋全体の領域を占めるピクセル数に対する、共通する四頭筋全体の領域を占めるピクセル数の割合を一致度合いとして算出できる。両方の領域が完全に一致した場合、一致度合いは100%となる。 FIG. 11 is a diagram showing an example of area information of the entire quadriceps muscle outputted by the second learning model 22 using a different algorithm. The different algorithms are designated P1, P2, P3. Examples of the algorithms include U-Net, Attention-Unet, SegNet, Mask R-CNN, DeepMask, FCIS, and GAN (Generative Adversarial Network). As shown in FIG. 11A, the degree of coincidence (concordance rate) of the region information of the whole quadriceps outputted by the second learning model 22 using algorithms P1 and P2 is high. On the other hand, as shown in FIG. 11B, the degree of matching (matching rate) of the region information of the entire quadriceps muscle outputted by the second learning model 22 using the algorithms P1 and P3 is low. The reliability index calculation unit 18 calculates the ratio of the number of pixels occupying the entire area of the common quadriceps muscle to the number of pixels occupying the area of the entire quadriceps muscle outputted by each of the second learning models 22 using algorithms P1 and P2. can be calculated as the degree of matching. When both regions completely match, the degree of match is 100%.

制御部10の一致度算出部33は、アルゴリズムが異なる複数種類の第2学習モデル22それぞれに、取得した大腿部画像を入力して、第2学習モデル22それぞれが出力する四頭筋全体の領域情報の一致度合いを算出する。画像生成部24は、算出した一致度合いが所定の閾値以上である場合、出力した四頭筋全体の領域情報に基づいて四頭筋全体画像を生成してもよい。 The coincidence calculation unit 33 of the control unit 10 inputs the acquired thigh images to each of the plurality of types of second learning models 22 with different algorithms, and calculates the total quadriceps muscle output from each of the second learning models 22. Calculate the degree of matching of area information. If the calculated degree of matching is equal to or greater than a predetermined threshold, the image generation unit 24 may generate an image of the entire quadriceps muscle based on the output region information of the entire quadriceps muscle.

また、複数種類の第2学習モデル22それぞれが出力する四頭筋全体の領域情報の一致度合いが所定の閾値(例えば、85%、90%、95%など)以上である場合、最も一致度合いの高い四頭筋全体の領域情報を用いるようにしてもよい。また、複数種類の第2学習モデル22それぞれが出力する四頭筋全体の領域情報の一致度合いのうち、最も一致度合いが低い領域情報は除外し、残りの領域情報全てを含む領域情報を用いるようにしてもよい。 In addition, if the degree of matching of the region information of the entire quadriceps muscle outputted by each of the plurality of types of second learning models 22 is equal to or higher than a predetermined threshold (for example, 85%, 90%, 95%, etc.), Area information of the entire high quadriceps muscle may be used. Furthermore, among the degree of coincidence of the region information of the whole quadriceps muscle outputted by each of the plurality of types of second learning models 22, the region information with the lowest degree of coincidence is excluded, and the region information including all the remaining region information is used. You can also do this.

また、第2学習モデル22が出力する四頭筋全体の領域情報の確信度(各ピクセルの信頼性)を平均化し、平均化した確信度が所定の閾値より低い場合には、別のアルゴリズムを用いた第2学習モデル22に切り替えて、四頭筋全体の領域情報を出力するようにしてもよい。また、複数種類の第2学習モデル22毎に各ピクセルの信頼性に重み付けを行って平均化し、平均化した確信度の高いものを用いてもよい。 In addition, the confidence level (reliability of each pixel) of the area information of the entire quadriceps muscle output by the second learning model 22 is averaged, and if the average confidence level is lower than a predetermined threshold, another algorithm is applied. It is also possible to switch to the second learning model 22 used and output area information of the entire quadriceps muscle. Alternatively, the reliability of each pixel may be weighted and averaged for each of the plurality of types of second learning models 22, and the averaged model with a high reliability may be used.

図12は本実施形態の画像処理装置50の構成の他の例を示す図である。図12に示すように、画像処理装置50は、例えば、パーソナルコンピュータ等を用いることができる。画像処理装置50は、CPU51、ROM52、RAM53、入力部54、出力部55、及び記録媒体読取部56などで構成することができる。記録媒体1(例えば、CD-ROM等の光学可読ディスク記憶媒体)に記録されたコンピュータプログラム(コンピュータプログラム製品)を記録媒体読取部56(例えば、光学ディスクドライブ)で読み取ってハードディスク(図示しない)に格納することができる。ここで、コンピュータプログラムは、後述の図13、図14に記載された処理手順を含む。コンピュータプログラムをRAM53に展開し、CPU51により実行することができる。 FIG. 12 is a diagram showing another example of the configuration of the image processing device 50 of this embodiment. As shown in FIG. 12, the image processing device 50 can be, for example, a personal computer. The image processing device 50 can include a CPU 51, a ROM 52, a RAM 53, an input section 54, an output section 55, a recording medium reading section 56, and the like. A computer program (computer program product) recorded on a recording medium 1 (for example, an optically readable disk storage medium such as a CD-ROM) is read by a recording medium reading unit 56 (for example, an optical disk drive) and is stored on a hard disk (not shown). Can be stored. Here, the computer program includes processing procedures described in FIGS. 13 and 14, which will be described later. A computer program can be loaded into the RAM 53 and executed by the CPU 51.

図13は画像処理装置100による各四頭筋の検出処理の一例を示す図である。以下では便宜上、処理の主体を制御部10として説明する。制御部10は、大腿部画像を取得し(S11)、大腿部画像を第2学習モデル22に入力して、第2学習モデル22が出力する四頭筋全体の領域情報を取得する(図3参照)(S12)。 FIG. 13 is a diagram illustrating an example of detection processing for each quadriceps muscle by the image processing device 100. For convenience, the main body of processing will be explained below as the control unit 10. The control unit 10 acquires a thigh image (S11), inputs the thigh image to the second learning model 22, and acquires area information of the entire quadriceps muscle output by the second learning model 22 (S11). (see FIG. 3) (S12).

制御部10は、大腿部画像を第3学習モデル23に入力して、第3学習モデル23が出力する大腿骨の領域情報を取得し(S13)、取得した大腿骨の領域情報に基づいて大腿骨の輪郭画像を生成する(図5参照)(S14)。 The control unit 10 inputs the thigh image to the third learning model 23, acquires the region information of the femur output from the third learning model 23 (S13), and, based on the acquired region information of the femur, A contour image of the femur is generated (see FIG. 5) (S14).

制御部10は、四頭筋全体の領域情報及び大腿骨の輪郭画像に基づいて四頭筋全体画像を生成する(図6参照)(S15)。なお、ステップS13~S15の処理は必須ではない。この場合、ステップS15の処理は、四頭筋全体の領域情報に基づいて四頭筋全体画像を生成するように変更すればよい。 The control unit 10 generates an image of the entire quadriceps muscle based on the area information of the entire quadriceps muscle and the contour image of the femur (see FIG. 6) (S15). Note that the processing in steps S13 to S15 is not essential. In this case, the process in step S15 may be changed to generate the entire quadriceps image based on the area information of the entire quadriceps.

制御部10は、大腿部画像及び四頭筋全体画像を第1学習モデル21に入力して、第1学習モデル21が出力する各四頭筋の領域情報を取得する(図3参照)(S16)。 The control unit 10 inputs the thigh image and the entire quadriceps image to the first learning model 21, and acquires the region information of each quadriceps output from the first learning model 21 (see FIG. 3). S16).

制御部10は、各四頭筋画像を生成し(S17)、各四頭筋間の間隔が所定範囲であるか否かを判定する(S18)。各四頭筋間の間隔が所定範囲である場合(S18でYES)、筋膜画像を生成し(S19)、後述のステップS21の処理を行う。 The control unit 10 generates each quadriceps image (S17), and determines whether the interval between each quadriceps falls within a predetermined range (S18). If the distance between each quadriceps muscle is within a predetermined range (YES in S18), a fascia image is generated (S19), and the process of step S21 described later is performed.

各四頭筋間の間隔が所定範囲でない場合(S18でNO)、制御部10は、隣接する四頭筋の少なくとも一方を縮小又は拡大し(図7、図8参照)(S20)、ステップS19の処理を行う。制御部10は、各四頭筋画像、筋膜画像を表示部13に表示し(S21)、処理を終了する。 If the distance between each quadriceps muscle is not within the predetermined range (NO in S18), the control unit 10 reduces or expands at least one of the adjacent quadriceps muscles (see FIGS. 7 and 8) (S20), and in step S19 Process. The control unit 10 displays each quadriceps muscle image and fascia image on the display unit 13 (S21), and ends the process.

図14は画像処理装置100による学習モデルの生成処理の一例を示す図である。図14では、第1学習モデル21及び第2学習モデル22の生成方法について説明する。制御部10は、大腿部画像、四頭筋全体の領域情報、及び各四頭筋の領域情報を含む訓練データを取得する(S31)。 FIG. 14 is a diagram illustrating an example of a learning model generation process by the image processing apparatus 100. In FIG. 14, a method of generating the first learning model 21 and the second learning model 22 will be described. The control unit 10 acquires training data including a thigh image, area information of the entire quadriceps, and area information of each quadriceps (S31).

制御部10は、大腿部画像を入力した場合、第2学習モデル22が出力する四頭筋全体の領域情報が教師データに近づくように第2学習モデル22の内部パラメータを更新する(図4参照)(S32)。制御部10は、損失関数の値が許容範囲内であるか否かを判定し(S33)、損失関数の値が許容範囲内でない場合(S33でNO)、ステップS32以降の処理を行う。 When a thigh image is input, the control unit 10 updates the internal parameters of the second learning model 22 so that the region information of the entire quadriceps muscle outputted by the second learning model 22 approaches the teacher data (Fig. 4 Reference) (S32). The control unit 10 determines whether the value of the loss function is within the allowable range (S33), and if the value of the loss function is not within the allowable range (NO in S33), performs the processing from step S32 onwards.

損失関数の値が許容範囲内である場合(S33でYES)、制御部10は、四頭筋全体の領域情報に基づいて四頭筋全体画像を生成し(S34)、大腿部画像及び四頭筋全体画像を入力した場合、第1学習モデル21が出力する各四頭筋の領域情報が教師データに近づくように第1学習モデル21の内部パラメータを更新する(図4参照)(S35)。 If the value of the loss function is within the allowable range (YES in S33), the control unit 10 generates a whole image of the quadriceps muscle based on the area information of the whole quadriceps muscle (S34), When the entire head muscle image is input, the internal parameters of the first learning model 21 are updated so that the region information of each quadriceps muscle output by the first learning model 21 approaches the teacher data (see FIG. 4) (S35). .

制御部10は、損失関数の値が許容範囲内であるか否かを判定し(S36)、損失関数の値が許容範囲内でない場合(S36でNO)、ステップS35以降の処理を行う。損失関数の値が許容範囲内である場合(S36でYES)、制御部10は、生成した第1学習モデル21、及び第2学習モデル22を記憶部19に記憶し(S37)、処理を終了する。 The control unit 10 determines whether the value of the loss function is within the allowable range (S36), and if the value of the loss function is not within the allowable range (NO in S36), performs the processing from step S35 onwards. If the value of the loss function is within the allowable range (YES in S36), the control unit 10 stores the generated first learning model 21 and second learning model 22 in the storage unit 19 (S37), and ends the process. do.

本実施形態のコンピュータプログラムは、コンピュータに、筋肉部を含む医用画像を取得し、医用画像を入力した場合、筋肉部全体の領域情報を出力するように学習された第2学習モデルに、取得した前記医用画像を入力して、筋肉部全体の領域情報を出力し、出力した筋肉部全体の領域情報に基づいて筋肉部全体画像を生成し、医用画像及び筋肉部全体画像を入力した場合に、前記筋肉部の各筋肉部位それぞれの領域情報を出力するように学習された第1学習モデルに、取得した前記医用画像及び生成した前記筋肉部全体画像を入力して、各筋肉部位それぞれの領域情報を出力する、処理を実行させる。 The computer program of this embodiment acquires a medical image including a muscle part into a computer, and when the medical image is input, the second learning model is trained to output area information of the entire muscle part. When the medical image is input, region information of the entire muscle region is outputted, and a whole muscle region image is generated based on the output region information of the entire muscle region, and the medical image and the whole muscle region image are input. The acquired medical image and the generated whole muscle image are input to a first learning model trained to output area information for each muscle part of the muscle part, and area information for each muscle part is inputted. Output or execute processing.

本実施形態のコンピュータプログラムは、コンピュータに、筋肉部を含む医用画像を入力した場合に、前記筋肉部の近傍の所定の骨の領域情報を出力するように学習された第3学習モデルに、取得した前記医用画像を入力して、所定の骨の領域情報を出力し、出力した所定の骨の領域情報に基づいて、前記骨の輪郭を抽出し、前記第2学習モデルにより出力した筋肉部全体の領域情報及び抽出した輪郭に基づいて筋肉部全体画像を生成する、処理を実行させる。 In the computer program of this embodiment, when a medical image including a muscle part is input to the computer, a third learning model trained to output area information of a predetermined bone near the muscle part is acquired. input the medical image, output predetermined bone region information, extract the outline of the bone based on the output predetermined bone region information, and extract the entire muscle part output by the second learning model. A process is executed to generate an entire muscle image based on the region information and the extracted contour.

本実施形態のコンピュータプログラムは、コンピュータに、アルゴリズムが異なる複数の前記第2学習モデルそれぞれに、取得した医用画像を入力して、前記第2学習モデルそれぞれが出力する筋肉部全体の領域情報の一致度合いを算出し、算出した一致度合いが所定の閾値以上である場合、出力した前記筋肉部全体の領域情報に基づいて前記筋肉部全体画像を生成する、処理を実行させる。 The computer program of this embodiment inputs acquired medical images into each of the plurality of second learning models with different algorithms into a computer, and matches the area information of the entire muscle part outputted by each of the second learning models. If the calculated degree of coincidence is equal to or greater than a predetermined threshold, a process of generating the entire muscle part image based on the output region information of the entire muscle part is executed.

本実施形態のコンピュータプログラムは、コンピュータに、出力した前記各筋肉部位それぞれの領域情報に対する修正を受け付け、修正を受け付けた領域情報と共に前記医用画像及び筋肉部全体画像に基づいて前記第1学習モデルを再学習する、処理を実行させる。 The computer program of the present embodiment causes the computer to receive corrections to the output region information of each muscle region, and to generate the first learning model based on the medical image and the entire muscle region image together with the region information for which the correction has been accepted. Re-learn and execute the process.

本実施形態のコンピュータプログラムは、コンピュータに、前記各筋肉部位それぞれの領域情報に基づいて、各筋肉部位の間隔が所定範囲であるか否を判定し、前記筋肉部位間の間隔が前記所定範囲以内である場合、前記筋肉部位の少なくとも一方を縮小して領域情報を補正し、前記筋肉部全体画像及び補正した領域情報を含む前記筋肉部位それぞれの領域情報に基づいて筋膜の領域情報を出力する、処理を実行させる。 The computer program of the present embodiment causes the computer to determine whether or not the interval between the muscle parts is within a predetermined range based on the area information of each muscle part, and determines whether the interval between the muscle parts is within the predetermined range. If so, at least one of the muscle parts is reduced to correct the region information, and fascia region information is output based on the region information of each of the muscle parts including the whole muscle part image and the corrected region information. , execute the process.

本実施形態のコンピュータプログラムは、コンピュータに、前記筋肉部位間の間隔が前記所定範囲より広い場合、前記筋肉部位の少なくとも一方を拡大して領域情報を補正し、前記筋肉部全体画像及び補正した領域情報を含む前記筋肉部位それぞれの領域情報に基づいて筋膜の領域情報を出力する、処理を実行させる。 The computer program of the present embodiment causes a computer to enlarge at least one of the muscle parts to correct area information, when the interval between the muscle parts is wider than the predetermined range, and to correct the area information of the whole muscle part image and the corrected area. A process is executed to output fascia region information based on the region information of each of the muscle parts including information.

本実施形態のコンピュータプログラムは、コンピュータに、出力した筋膜の領域情報に対する修正を受け付け、修正を受け付けた領域情報と共に前記医用画像及び筋肉部全体画像に基づいて前記第1学習モデルを再学習する、処理を実行させる。 The computer program of the present embodiment causes the computer to receive corrections to the output fascia region information, and re-learns the first learning model based on the medical image and the whole muscle image together with the region information for which the correction has been accepted. , execute the process.

本実施形態のコンピュータプログラムにおいて、前記筋肉部は、大腿部を含み、前記筋肉部全体は、四頭筋全体を含み、前記筋肉部位は、四頭筋を含む。 In the computer program of this embodiment, the muscle section includes the thigh, the entire muscle section includes the entire quadriceps muscle, and the muscle region includes the quadriceps muscle.

本実施形態の学習モデル生成方法は、筋肉部を含む医用画像、筋肉部全体を示す筋肉部全体画像及び前記筋肉部の各筋肉部位それぞれの領域情報を含む第1訓練データを取得し、前記第1訓練データに基づいて、医用画像及び筋肉部全体画像を入力した場合に、前記筋肉部の各筋肉部位それぞれの領域情報を出力するように第1学習モデルを生成する。 The learning model generation method of the present embodiment acquires first training data including a medical image including a muscle part, a whole muscle part image showing the whole muscle part, and region information of each muscle part of the muscle part, and Based on the first training data, a first learning model is generated so as to output region information of each muscle part of the muscle part when a medical image and a whole muscle part image are input.

本実施形態の学習モデル生成方法は、筋肉部を含む医用画像、筋肉部全体の領域情報及び前記筋肉部の各筋肉部位それぞれの領域情報を含む第1訓練データを取得し、前記第1訓練データに基づいて、医用画像を入力した場合に、筋肉部全体の領域情報を出力するように第2学習モデルを生成し、筋肉部全体の領域情報に基づいて筋肉部全体画像を生成し、前記第1訓練データに基づいて、前記医用画像及び生成した筋肉部全体画像を入力した場合に、前記筋肉部の各筋肉部位それぞれの領域情報を出力するように第1学習モデルを生成する。 The learning model generation method of the present embodiment acquires first training data including a medical image including a muscle part, area information of the entire muscle part, and area information of each muscle part of the muscle part, and acquires the first training data. , a second learning model is generated so as to output region information of the entire muscle region when a medical image is input, an image of the entire muscle region is generated based on the region information of the entire muscle region, and the second learning model is generated based on the region information of the entire muscle region. Based on the first training data, a first learning model is generated so as to output region information of each muscle part of the muscle part when the medical image and the generated whole muscle part image are input.

本実施形態の画像処理装置は、筋肉部を含む医用画像を取得する取得部と、医用画像を入力した場合、筋肉部全体の領域情報を出力するように学習された第2学習モデルに、取得した前記医用画像を入力して、筋肉部全体の領域情報を出力する第1出力部と、出力した筋肉部全体の領域情報に基づいて筋肉部全体画像を生成する画像生成部と、医用画像及び筋肉部全体画像を入力した場合に、前記筋肉部の各筋肉部位それぞれの領域情報を出力するように学習された第1学習モデルに、取得した前記医用画像及び生成した前記筋肉部全体画像を入力して、各筋肉部位それぞれの領域情報を出力する第2出力部とを備える。 The image processing device of this embodiment includes an acquisition unit that acquires a medical image including a muscle part, and a second learning model that is trained to output region information of the entire muscle part when a medical image is input. a first output section that inputs the medical image obtained and outputs region information of the entire muscle region; an image generation section that generates an image of the entire muscle region based on the output region information of the entire muscle region; Inputting the obtained medical image and the generated whole muscle image into a first learning model that is trained to output region information for each muscle part of the muscle part when the whole muscle image is input. and a second output unit that outputs area information for each muscle site.

本実施形態の画像処理システムは、筋肉部を含む医用画像を取得する取得部と、医用画像を入力した場合、筋肉部全体の領域情報を出力するように学習された第2学習モデルに、取得した前記医用画像を入力して、筋肉部全体の領域情報を出力する第1出力部と、出力した筋肉部全体の領域情報に基づいて筋肉部全体画像を生成する画像生成部と、医用画像及び筋肉部全体画像を入力した場合に、前記筋肉部の各筋肉部位それぞれの領域情報を出力するように学習された第1学習モデルに、取得した前記医用画像及び生成した前記筋肉部全体画像を入力して、各筋肉部位それぞれの領域情報を出力する第2出力部とを備える。 The image processing system of this embodiment includes an acquisition unit that acquires a medical image including a muscle part, and a second learning model that is trained to output region information of the entire muscle part when a medical image is input. a first output unit that inputs the medical image and outputs area information of the entire muscle area; an image generation unit that generates an image of the entire muscle area based on the output area information of the entire muscle area; Inputting the obtained medical image and the generated whole muscle image into a first learning model that is trained to output region information for each muscle part of the muscle part when the whole muscle image is input. and a second output unit that outputs area information for each muscle site.

本実施形態の画像処理方法は、筋肉部を含む医用画像を取得し、医用画像を入力した場合、筋肉部全体の領域情報を出力するように学習された第2学習モデルに、取得した前記医用画像を入力して、筋肉部全体の領域情報を出力し、出力した筋肉部全体の領域情報に基づいて筋肉部全体画像を生成し、医用画像及び筋肉部全体画像を入力した場合に、前記筋肉部の各筋肉部位それぞれの領域情報を出力するように学習された第1学習モデルに、取得した前記医用画像及び生成した前記筋肉部全体画像を入力して、各筋肉部位それぞれの領域情報を出力する。 In the image processing method of the present embodiment, when a medical image including a muscular part is acquired and the medical image is input, the acquired medical An image is input, area information of the entire muscle area is output, and an image of the entire muscle area is generated based on the output area information of the entire muscle area, and when a medical image and an image of the entire muscle area are input, The acquired medical image and the generated whole image of the muscle part are input to a first learning model that has been trained to output region information of each muscle part of the body, and the region information of each muscle part is outputted. do.

本実施形態では、筋肉部として大腿部の大腿四頭筋、筋肉部位として各四頭筋について説明したが、筋肉部は大腿部の筋肉に限定されるものではない。例えば、筋肉部は、上腕部、腹部、前腕又は下腿であってもよく、筋肉部位は、それぞれの筋肉部を構成する各筋肉であってもよく、筋肉部の近傍の所定の骨は、それぞれの筋肉部の近傍の骨であってもよい。 In this embodiment, the quadriceps femoris of the thigh has been described as a muscle part, and each quadriceps muscle has been described as a muscle part, but the muscle part is not limited to the muscles of the thigh. For example, the muscle part may be the upper arm, abdomen, forearm, or lower leg, the muscle part may be each muscle constituting each muscle part, and the predetermined bones near the muscle part are each It may also be a bone near the muscular part of the body.

1 記録媒体
10 制御部
11 通信部
12 メモリ
13 表示部
14 操作部
15 縮小・拡大処理部
151 間隔判定部
16 輪郭抽出部
17 再学習処理部
18 信頼性指標算出部
19 記憶部
20 コンピュータプログラム
21 第1学習モデル
22 第2学習モデル
23 第3学習モデル
24 画像生成部
31 取得部
32 出力部
33 一致度算出部
51 CPU
52 ROM
53 RAM
54 入力部
55 出力部
56 記録媒体読取部
100、50 画像処理装置
1 Recording medium 10 Control unit 11 Communication unit 12 Memory 13 Display unit 14 Operation unit 15 Reduction/enlargement processing unit 151 Interval determination unit 16 Contour extraction unit 17 Relearning processing unit 18 Reliability index calculation unit 19 Storage unit 20 Computer program 21 1 Learning model 22 2nd learning model 23 3rd learning model 24 Image generation section 31 Acquisition section 32 Output section 33 Matching degree calculation section 51 CPU
52 ROM
53 RAM
54 input section 55 output section 56 recording medium reading section 100, 50 image processing device

Claims (13)

コンピュータに、
筋肉部を含む医用画像を取得し、
医用画像を入力した場合、筋肉部全体の領域情報を出力するように学習された第2学習モデルに、取得した前記医用画像を入力して、筋肉部全体の領域情報を出力し、
出力した筋肉部全体の領域情報に基づいて筋肉部全体画像を生成し、
医用画像及び筋肉部全体画像を入力した場合に、前記筋肉部の各筋肉部位それぞれの領域情報を出力するように学習された第1学習モデルに、取得した前記医用画像及び生成した前記筋肉部全体画像を入力して、各筋肉部位それぞれの領域情報を出力する、
処理を実行させるコンピュータプログラム。
to the computer,
Obtain medical images including muscles,
When a medical image is input, inputting the acquired medical image to a second learning model trained to output area information of the entire muscle part, and outputting area information of the entire muscle part,
Generates an image of the entire muscle area based on the output area information of the entire muscle area,
When a medical image and a whole muscle part image are input, the obtained medical image and the generated whole muscle part are input to a first learning model that is trained to output region information for each muscle part of the muscle part. Inputs an image and outputs region information for each muscle region.
A computer program that performs a process.
コンピュータに、
筋肉部を含む医用画像を入力した場合に、前記筋肉部の近傍の所定の骨の領域情報を出力するように学習された第3学習モデルに、取得した前記医用画像を入力して、所定の骨の領域情報を出力し、
出力した所定の骨の領域情報に基づいて、前記骨の輪郭を抽出し、
前記第2学習モデルにより出力した筋肉部全体の領域情報及び抽出した輪郭に基づいて筋肉部全体画像を生成する、
処理を実行させる請求項1に記載のコンピュータプログラム。
to the computer,
When a medical image including a muscle part is input, the acquired medical image is input to the third learning model, which is trained to output region information of a predetermined bone near the muscle part, and Output bone area information,
Extracting the outline of the bone based on the output predetermined bone region information,
generating an image of the entire muscle region based on the region information of the entire muscle region outputted by the second learning model and the extracted contour;
The computer program according to claim 1, which causes the computer program to execute a process.
コンピュータに、
アルゴリズムが異なる複数の前記第2学習モデルそれぞれに、取得した医用画像を入力して、前記第2学習モデルそれぞれが出力する筋肉部全体の領域情報の一致度合いを算出し、
算出した一致度合いが所定の閾値以上である場合、出力した前記筋肉部全体の領域情報に基づいて前記筋肉部全体画像を生成する、
処理を実行させる請求項1又は請求項2に記載のコンピュータプログラム。
to the computer,
Inputting the acquired medical image into each of the plurality of second learning models with different algorithms, calculating the degree of matching of the area information of the entire muscle part output by each of the second learning models,
If the calculated degree of matching is greater than or equal to a predetermined threshold, generating the entire muscle part image based on the output region information of the entire muscle part;
The computer program according to claim 1 or 2, which causes the computer program to execute a process.
コンピュータに、
出力した前記各筋肉部位それぞれの領域情報に対する修正を受け付け、
修正を受け付けた領域情報と共に前記医用画像及び筋肉部全体画像に基づいて前記第1学習モデルを再学習する、
処理を実行させる請求項1から請求項3のいずれか一項に記載のコンピュータプログラム。
to the computer,
Accept corrections to the output area information of each muscle part,
relearning the first learning model based on the medical image and the whole muscle image together with the area information for which the correction has been accepted;
The computer program according to any one of claims 1 to 3, which causes the computer program to execute a process.
コンピュータに、
前記各筋肉部位それぞれの領域情報に基づいて、各筋肉部位の間隔が所定範囲であるか否を判定し、
前記筋肉部位間の間隔が前記所定範囲以内である場合、前記筋肉部位の少なくとも一方を縮小して領域情報を補正し、
前記筋肉部全体画像及び補正した領域情報を含む前記筋肉部位それぞれの領域情報に基づいて筋膜の領域情報を出力する、
処理を実行させる請求項1から請求項4のいずれか一項に記載のコンピュータプログラム。
to the computer,
Determining whether the interval between each muscle part is within a predetermined range based on the area information of each muscle part,
when the distance between the muscle parts is within the predetermined range, reducing at least one of the muscle parts to correct the area information;
outputting fascia region information based on the region information of each of the muscle parts including the whole muscle part image and corrected region information;
The computer program according to any one of claims 1 to 4, which causes the computer program to execute a process.
コンピュータに、
前記筋肉部位間の間隔が前記所定範囲より広い場合、前記筋肉部位の少なくとも一方を拡大して領域情報を補正し、
前記筋肉部全体画像及び補正した領域情報を含む前記筋肉部位それぞれの領域情報に基づいて筋膜の領域情報を出力する、
処理を実行させる請求項5に記載のコンピュータプログラム。
to the computer,
If the distance between the muscle parts is wider than the predetermined range, at least one of the muscle parts is enlarged to correct the area information;
outputting fascia region information based on the region information of each of the muscle parts including the whole muscle part image and corrected region information;
The computer program according to claim 5, which causes the computer program to execute a process.
コンピュータに、
出力した筋膜の領域情報に対する修正を受け付け、
修正を受け付けた領域情報と共に前記医用画像及び筋肉部全体画像に基づいて前記第1学習モデルを再学習する、
処理を実行させる請求項1から請求項6のいずれか一項に記載のコンピュータプログラム。
to the computer,
Accepts corrections to the output fascia area information,
relearning the first learning model based on the medical image and the whole muscle image together with the area information for which the correction has been accepted;
The computer program according to any one of claims 1 to 6, which causes the computer program to execute a process.
前記筋肉部は、大腿部を含み、
前記筋肉部全体は、四頭筋全体を含み、
前記筋肉部位は、四頭筋を含む、
請求項1から請求項7のいずれか一項に記載のコンピュータプログラム。
The muscular part includes the thigh,
The entire muscle part includes the entire quadriceps muscle,
The muscle region includes a quadriceps muscle,
A computer program according to any one of claims 1 to 7.
筋肉部を含む医用画像、筋肉部全体を示す筋肉部全体画像及び前記筋肉部の各筋肉部位それぞれの領域情報を含む第1訓練データを取得し、
前記第1訓練データに基づいて、医用画像及び筋肉部全体画像を入力した場合に、前記筋肉部の各筋肉部位それぞれの領域情報を出力するように第1学習モデルを生成する、
学習モデル生成方法。
Obtaining first training data including a medical image including a muscle part, a whole muscle part image showing the whole muscle part, and area information of each muscle part of the muscle part,
Generating a first learning model based on the first training data so as to output region information of each muscle part of the muscle part when a medical image and an entire muscle part image are input;
Learning model generation method.
筋肉部を含む医用画像、筋肉部全体の領域情報及び前記筋肉部の各筋肉部位それぞれの領域情報を含む第1訓練データを取得し、
前記第1訓練データに基づいて、医用画像を入力した場合に、筋肉部全体の領域情報を出力するように第2学習モデルを生成し、
筋肉部全体の領域情報に基づいて筋肉部全体画像を生成し、
前記第1訓練データに基づいて、前記医用画像及び生成した筋肉部全体画像を入力した場合に、前記筋肉部の各筋肉部位それぞれの領域情報を出力するように第1学習モデルを生成する、
学習モデル生成方法。
obtaining first training data including a medical image including a muscle part, area information of the entire muscle part, and area information of each muscle part of the muscle part;
Generating a second learning model based on the first training data so as to output region information of the entire muscle part when a medical image is input;
Generates an image of the entire muscle area based on area information of the entire muscle area,
Generating a first learning model based on the first training data so as to output region information for each muscle part of the muscle part when the medical image and the generated whole muscle part image are input;
Learning model generation method.
筋肉部を含む医用画像を取得する取得部と、
医用画像を入力した場合、筋肉部全体の領域情報を出力するように学習された第2学習モデルに、取得した前記医用画像を入力して、筋肉部全体の領域情報を出力する第1出力部と、
出力した筋肉部全体の領域情報に基づいて筋肉部全体画像を生成する画像生成部と、
医用画像及び筋肉部全体画像を入力した場合に、前記筋肉部の各筋肉部位それぞれの領域情報を出力するように学習された第1学習モデルに、取得した前記医用画像及び生成した前記筋肉部全体画像を入力して、各筋肉部位それぞれの領域情報を出力する第2出力部と
を備える、
画像処理装置。
an acquisition unit that acquires a medical image including a muscle part;
A first output unit that inputs the obtained medical image to a second learning model trained to output region information of the entire muscle region when a medical image is input, and outputs region information of the entire muscle region. and,
an image generation unit that generates an image of the entire muscle region based on the output region information of the entire muscle region;
When a medical image and a whole muscle part image are input, the obtained medical image and the generated whole muscle part are input to a first learning model that is trained to output region information for each muscle part of the muscle part. a second output unit that inputs an image and outputs region information of each muscle region;
Image processing device.
筋肉部を含む医用画像を取得する取得部と、
医用画像を入力した場合、筋肉部全体の領域情報を出力するように学習された第2学習モデルに、取得した前記医用画像を入力して、筋肉部全体の領域情報を出力する第1出力部と、
出力した筋肉部全体の領域情報に基づいて筋肉部全体画像を生成する画像生成部と、
医用画像及び筋肉部全体画像を入力した場合に、前記筋肉部の各筋肉部位それぞれの領域情報を出力するように学習された第1学習モデルに、取得した前記医用画像及び生成した前記筋肉部全体画像を入力して、各筋肉部位それぞれの領域情報を出力する第2出力部と
を備える、
画像処理システム。
an acquisition unit that acquires a medical image including a muscle part;
A first output unit that inputs the obtained medical image to a second learning model trained to output region information of the entire muscle region when a medical image is input, and outputs region information of the entire muscle region. and,
an image generation unit that generates an image of the entire muscle region based on the output region information of the entire muscle region;
When a medical image and a whole muscle part image are input, the obtained medical image and the generated whole muscle part are input to a first learning model that is trained to output region information for each muscle part of the muscle part. a second output unit that inputs an image and outputs region information of each muscle region;
Image processing system.
筋肉部を含む医用画像を取得し、
医用画像を入力した場合、筋肉部全体の領域情報を出力するように学習された第2学習モデルに、取得した前記医用画像を入力して、筋肉部全体の領域情報を出力し、
出力した筋肉部全体の領域情報に基づいて筋肉部全体画像を生成し、
医用画像及び筋肉部全体画像を入力した場合に、前記筋肉部の各筋肉部位それぞれの領域情報を出力するように学習された第1学習モデルに、取得した前記医用画像及び生成した前記筋肉部全体画像を入力して、各筋肉部位それぞれの領域情報を出力する、
画像処理方法。
Obtain medical images including muscles,
When a medical image is input, inputting the acquired medical image to a second learning model trained to output area information of the entire muscle part, and outputting area information of the entire muscle part,
Generates an image of the entire muscle area based on the output area information of the entire muscle area,
When a medical image and a whole muscle part image are input, the obtained medical image and the generated whole muscle part are input to a first learning model that is trained to output region information for each muscle part of the muscle part. Inputs an image and outputs region information for each muscle region.
Image processing method.
JP2022033763A 2022-03-04 2022-03-04 Computer program, learning model generation method, image processing device, image processing system, and image processing method Active JP7361818B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022033763A JP7361818B2 (en) 2022-03-04 2022-03-04 Computer program, learning model generation method, image processing device, image processing system, and image processing method
PCT/JP2023/007469 WO2023167216A1 (en) 2022-03-04 2023-03-01 Computer program, learning model generation method, image processing device, image processing system, and image processing method
JP2023172122A JP2023182729A (en) 2022-03-04 2023-10-03 Computer program, image processing device, image processing system, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022033763A JP7361818B2 (en) 2022-03-04 2022-03-04 Computer program, learning model generation method, image processing device, image processing system, and image processing method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023172122A Division JP2023182729A (en) 2022-03-04 2023-10-03 Computer program, image processing device, image processing system, and image processing method

Publications (2)

Publication Number Publication Date
JP2023129024A true JP2023129024A (en) 2023-09-14
JP7361818B2 JP7361818B2 (en) 2023-10-16

Family

ID=87883866

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022033763A Active JP7361818B2 (en) 2022-03-04 2022-03-04 Computer program, learning model generation method, image processing device, image processing system, and image processing method
JP2023172122A Pending JP2023182729A (en) 2022-03-04 2023-10-03 Computer program, image processing device, image processing system, and image processing method

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023172122A Pending JP2023182729A (en) 2022-03-04 2023-10-03 Computer program, image processing device, image processing system, and image processing method

Country Status (2)

Country Link
JP (2) JP7361818B2 (en)
WO (1) WO2023167216A1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3068813B1 (en) 2017-07-10 2021-07-02 Univ Aix Marseille METHOD AND DEVICE FOR IMAGE SEGMENTATION BY AUTOMATIC PROPAGATION IN ONE (N + 1) -TH DIMENSION OF AN IMAGE SEGMENTATION INITIALIZED IN N DIMENSION
US11836921B2 (en) 2019-10-28 2023-12-05 Ai4Medimaging—Medical Solutions, S.A. Artificial-intelligence-based global cardiac motion classification

Also Published As

Publication number Publication date
WO2023167216A1 (en) 2023-09-07
JP2023182729A (en) 2023-12-26
JP7361818B2 (en) 2023-10-16

Similar Documents

Publication Publication Date Title
JP7324268B2 (en) Systems and methods for real-time rendering of complex data
US10275884B2 (en) Methods and systems for identifying anatomical landmarks in image data
JP6824845B2 (en) Image processing systems, equipment, methods and programs
KR102228087B1 (en) Method and apparatus for segmentation of specific cartilage in medical image
EP3273409A1 (en) Image processing apparatus and image processing method
JPWO2012073769A1 (en) Image processing apparatus and image processing method
CN114092475B (en) Focal length determining method, image labeling method, device and computer equipment
CN111568451A (en) Exposure dose adjusting method and system
JP6643821B2 (en) Image processing device
JPWO2007013300A1 (en) Abnormal shadow candidate detection method and abnormal shadow candidate detection apparatus
CN107633478B (en) Image processing apparatus, image processing method, and computer readable medium
JPWO2019155628A1 (en) Image processing equipment, image processing method and image processing program
US20220108540A1 (en) Devices, systems and methods for generating and providing image information
JP7361818B2 (en) Computer program, learning model generation method, image processing device, image processing system, and image processing method
JP2022111704A (en) Image processing apparatus, medical image pick-up device, image processing method, and program
JP2022111705A (en) Leaning device, image processing apparatus, medical image pick-up device, leaning method, and program
US20230237657A1 (en) Information processing device, information processing method, program, model generating method, and training data generating method
JP2023152885A (en) Medical image processor, medical image processing method, and medical image processing program
AU2019204365B1 (en) Method and System for Image Segmentation and Identification
TW202303469A (en) Image segmentation method and electronic device, recording medium and computer program product using the same
US20220249014A1 (en) Intuitive display for rotator cuff tear diagnostics
US20230394673A1 (en) Image processing apparatus, operation method of image processing apparatus, operation program of image processing apparatus, and learning method
JP5343973B2 (en) Medical image processing apparatus and program
US20230113725A1 (en) Region correction device, method, and program
US20240127570A1 (en) Image analysis apparatus, image analysis method, and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20221216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20221216

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231003

R150 Certificate of patent or registration of utility model

Ref document number: 7361818

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150