JP7239701B2 - 人工神経網を利用する臓器の体積測定方法及びその装置 - Google Patents

人工神経網を利用する臓器の体積測定方法及びその装置 Download PDF

Info

Publication number
JP7239701B2
JP7239701B2 JP2021533353A JP2021533353A JP7239701B2 JP 7239701 B2 JP7239701 B2 JP 7239701B2 JP 2021533353 A JP2021533353 A JP 2021533353A JP 2021533353 A JP2021533353 A JP 2021533353A JP 7239701 B2 JP7239701 B2 JP 7239701B2
Authority
JP
Japan
Prior art keywords
images
organ
neural network
image
network model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021533353A
Other languages
English (en)
Other versions
JP2022511965A (ja
Inventor
テヨン シン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Synergy AI Co Ltd
Original Assignee
Synergy AI Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020180158812A external-priority patent/KR102237009B1/ko
Priority claimed from KR1020190162842A external-priority patent/KR102328198B1/ko
Application filed by Synergy AI Co Ltd filed Critical Synergy AI Co Ltd
Publication of JP2022511965A publication Critical patent/JP2022511965A/ja
Priority to JP2023031702A priority Critical patent/JP7521834B2/ja
Application granted granted Critical
Publication of JP7239701B2 publication Critical patent/JP7239701B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/20Measuring for diagnostic purposes; Identification of persons for measuring urological functions restricted to the evaluation of the urinary system
    • A61B5/201Assessing renal or kidney functions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/42Detecting, measuring or recording for evaluating the gastrointestinal, the endocrine or the exocrine systems
    • A61B5/4222Evaluating particular parts, e.g. particular organs
    • A61B5/4244Evaluating particular parts, e.g. particular organs liver
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/58Testing, adjusting or calibrating thereof
    • A61B6/582Calibration
    • A61B6/585Calibration of detector units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30056Liver; Hepatic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30084Kidney; Renal

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Artificial Intelligence (AREA)
  • Physiology (AREA)
  • Geometry (AREA)
  • Gastroenterology & Hepatology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Urology & Nephrology (AREA)
  • Quality & Reliability (AREA)
  • Endocrinology (AREA)
  • Pulmonology (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

本発明は、人工神経網を利用し、臓器の体積を測定する方法及びその装置に関する。より詳しくは、臓器を撮像した3D画像を利用し、人工神経網を介して臓器の領域を検出し、検出された臓器の領域に基づいて、臓器の体積を測定する方法及びその装置に関する。
本発明に開示される実施例は、多嚢胞腎又は多嚢胞肝疾患が進行する状況を判断する方法及びこれを実行するための医療用電子装置に対する技術に関する。
腎臓及び肝臓の体積を正確に測定することは、病態生理学、治療機序の解析、及び治療薬の効果を評価するための非常に重要なステップである。特に、多嚢胞腎疾患は、解剖学的に形態一貫性のない多様な形態を示す特性があり、専門家でなければ、臓器の形態を把握することが非常に難しく、単純作業であっても、一般労働者に任せることができない問題が存在する。数百枚からなるCT画像のスライドの全体に対して作業を実行することは、非常に長い時間の間、医師に強度の高い労働(単純労働の繰り返し)を要求する。これにより、HALT-PKD cohort、CRISP、SUISSE studyなど、グローバル単位の多機関共同研究を行い、この問題を解決するための技術開発が活発に行われているが、各機関が測定した臓器の体積そのものに対する科学的な信頼性は、現在86%程度にとどまっている。
多嚢胞腎疾患は、液体で満たされた複数の嚢胞が原因となって、腎臓が蜂の巣状に変形する遺伝性疾患である。疾患が進行するにつれて、嚢胞が徐々に正常組織を代替することで腎臓の大きさが大きくなり、機能が徐々に低下して末期腎不全に至る疾患である。いくつかの多嚢胞腎疾患は、多嚢胞肝疾患を伴うこともある。
多嚢胞腎疾患の患者は、全世界で約1250万人であり、約500人に一人の割合で発生する疾患である。多嚢胞腎疾患は、従来は不治の病であったが、最近、新薬開発が行われ、多くの関心を引いている。
本発明の実施例において、病院で取得した画像を利用して臓器の領域を正確に検出し、当該臓器の体積を正確に測定する方法及びその装置が提供される。
一方、多嚢胞腎疾患又は多嚢胞肝疾患の診断において、腎臓又は肝臓の体積を正確に測定することは病態生理学的、又は医学的に非常に重要である。例えば、腎臓及び肝臓の体積の増加により、腎機能低下(pressure effect)が発生するという病態生理学的な仮説は、「肝臓の体積を正確に測定できない」という現実的な理由により、まだ正しく評価されていない。他の例として、腎臓又は肝臓の体積がどの程度であるかによって、医師は、患者が多嚢胞腎疾患又は多嚢胞肝疾患を有しているかどうか、又は上記の疾患の進行程度などをより正確に判断することができる。
腎臓又は肝臓の体積を正確に測定することができれば、腎機能低下と関連する上記の仮説をより明確に評価することができ、今後発売される薬物の機能性評価にも重要な研究資料としての価値を認められ得る。また、医師にとって、患者が慢性腎不全に至らないように、適切な治療時期を見積もることに大きく寄与することができる。
腎臓又は肝臓の体積を測定するための半自動(semiautomatic)抽出プログラム(2D stereology)を利用する方法があるが、半自動抽出プログラムの購入費用は、数億の高価であり、分析時間も患者1人当たり1~2時間の長時間がかかるという問題がある。また、半自動抽出プログラムを利用する場合、追加の人件費が支出される問題が発生することがある。
また、2D stereologyのような領域の抽出技術は、様々な分野で試みられた技術であるが、腎臓又は肝臓の場合、解剖学的な把握が難しいため、技術的な完成度は相対的に低い場合がある。例えば、2D stereology技術を利用した腎臓の領域抽出の精度は、最大約86%程度であることが報告されている。
本願に開示される様々な実施例において、上記の問題を解決するための技術が提供され得る。
本発明の一実施例に係る臓器の体積測定方法は、前記臓器を撮像した複数の画像及び撮像メタデータを取得し、前記複数の画像を前処理して指定したサイズの複数の画像パッチ(patch)を取得するステップと、前記複数の画像パッチを3D CNN(Convolutional Neural Network)に基づく神経網モデルに入力し、前記複数の画像パッチのそれぞれに対応する臓器領域を推定するステップと、前記推定された臓器領域の面積及び前記撮像メタデータを用いて前記臓器の体積を測定するステップと、前記神経網モデルの推定結果に基づいて、神経網モデルの不確実性数値及び複数の画像の不確実性数値を測定するステップと、前記複数の画像の不確実性数値に基づいて、前記複数の画像のうちの少なくとも一つの画像を変更するステップと、前記神経網モデルの不確実性数値に基づいて、前記神経網モデルのラベリングポリシーを変更するステップとを含んでもよい。
一実施例において、前記臓器を撮像した複数の画像は、ダイコム(DICOM(Digital Imaging and Communications in Medicine))ファイルから取得したCT画像及び前記臓器に対するラベリング画像を含み、前記撮像メタデータは、前記複数の画像のそれぞれに対する画素間隔データ及び画像の深さデータを含んでもよい。
一実施例において、前記複数の画像パッチを取得するステップは、前記複数の画像に含まれている第1画像に対して、データの拡張(Data Augmentation)を実行し、前記第1画像から複数の画像を生成し、前記生成した複数の画像を前処理して複数の画像パッチを取得するステップを含み、前記データの拡張は、前記画像の空間拡大、カラー増強、騒音増強、及びトリミングのうちの一つ以上を含んでもよい。
一実施例において、前記複数の画像は、前記の臓器を撮像した複数の3D画像であり、前記複数の画像パッチを取得するステップは、前記複数の3D画像に対して深さ(depth)方向にスライドし、指定したサイズを有する前記複数の画像パッチを取得するステップを含んでもよい。
一実施例において、前記神経網モデルは、学習手順及び推論手順でドロップアウト(Dropout)を実行し、前記神経網モデルの不確実性数値は、前記神経網モデルの推論手順での結果データの確率分布に対する分散値に基づいて測定してもよい。
一実施例において、前記複数の画像の不確実性数値は、前記神経網モデルの推論手順での結果データの分散推定値に基づいて測定してもよい。
一実施例において、前記複数の画像の不確実性数値に基づいて前記複数の画像のうちの少なくとも一つの画像を変更するステップは、前記複数の画像の不確実性数値が基準値以上である一つ以上の画像を検出するステップと、前記検出した画像の前記臓器領域に対するユーザーの入力に基づいて、前記検出した画像を変更するステップとを含んでもよい。
一実施例において、前記変更されたラベリングポリシーに基づいて、複数の画像の加重値を設定し、前記変更された画像に対して変更前の画像よりも大きい加重値を付与して前記神経網モデルを学習させるステップをさらに含んでもよい。
本発明の他の実施例に係る臓器の体積測定装置は、プロセッサを含み、前記プロセッサは、臓器を撮像した複数の画像及び撮像メタデータを取得し、前記複数の画像を前処理して指定したサイズの複数の画像パッチ(patch)を取得し、前記複数の画像パッチを3D CNN(Convolutional Neural Network)に基づく神経網モデルに入力し、前記複数の画像パッチのそれぞれに対応する臓器領域を推定し、前記推定された臓器領域の面積及び前記撮像メタデータを用いて前記臓器の体積を測定し、前記神経網モデルの推定結果に基づいて、神経網モデルの不確実性数値及び複数の画像の不確実性数値を測定し、前記複数の画像の不確実性数値に基づいて、前記複数の画像のうちの少なくとも一つの画像を変更し、前記神経網モデルの不確実性数値に基づいて、前記神経網モデルのラベリングポリシーを変更してもよい。
本発明の一実施例に係る臓器の体積測定方法は、前記臓器を撮像した複数の画像及び撮像メタデータを取得し、前記複数の画像を前処理して指定したサイズの複数の画像パッチ(patch)を取得するステップと、前記複数の画像パッチを3D CNN(Convolutional Neural Network)に基づく神経網モデルに入力し、前記複数の画像パッチのそれぞれに対応する臓器領域を推定するステップと、前記推定された臓器領域の面積及び前記撮像メタデータを用いて前記臓器の体積を測定するステップと、前記神経網モデルの推定結果に基づいて、神経網モデルの不確実性数値及び複数の画像の不確実性数値を測定するステップと、前記複数の画像の不確実性数値に基づいて、前記複数の画像のうちの少なくとも一つの画像を変更するステップと、前記神経網モデルの不確実性数値に基づいて、前記神経網モデルのラベリングポリシーを変更するステップとを含んでもよい。
一実施例において、前記臓器を撮像した複数の画像は、ダイコム(DICOM(Digital Imaging and Communications in Medicine))ファイルから取得したCT画像及び前記臓器に対するラベリング画像を含み、前記撮像メタデータは、前記複数の画像のそれぞれに対する画素間隔データ及び画像の深さデータを含んでもよい。
一実施例において、前記複数の画像パッチを取得するステップは、前記複数の画像に含まれている第1画像に対して、データの拡張(Data Augmentation)を実行し、前記第1画像から複数の画像を生成し、前記生成した複数の画像を前処理して複数の画像パッチを取得するステップを含み、前記データの拡張は、前記画像の空間拡大、カラー増強、騒音増強、及びトリミングのうちの一つ以上を含んでもよい。
一実施例において、前記複数の画像は、前記の臓器を撮像した複数の3D画像であり、前記複数の画像パッチを取得するステップは、前記複数の3D画像に対して深さ(depth)方向にスライドし、指定したサイズを有する前記複数の画像パッチを取得するステップを含んでもよい。
一実施例において、前記神経網モデルは、学習手順及び推論手順でドロップアウト(Dropout)を実行し、前記神経網モデルの不確実性数値は、前記神経網モデルの推論手順での結果データの確率分布に対する分散値に基づいて測定してもよい。
一実施例において、前記複数の画像の不確実性数値は、前記神経網モデルの推論手順での結果データの分散推定値に基づいて測定してもよい。
一実施例において、前記複数の画像の不確実性数値に基づいて前記複数の画像のうちの少なくとも一つの画像を変更するステップは、前記複数の画像の不確実性数値が基準値以上である一つ以上の画像を検出するステップと、前記検出した画像の前記臓器領域に対するユーザーの入力に基づいて、前記検出した画像を変更するステップとを含んでもよい。
一実施例において、前記変更されたラベリングポリシーに基づいて、複数の画像の加重値を設定し、前記変更された画像に対して変更前の画像よりも大きい加重値を付与して前記神経網モデルを学習させるステップをさらに含んでもよい。
本発明の他の実施例に係る臓器の体積測定装置は、プロセッサを含み、前記プロセッサは、臓器を撮像した複数の画像及び撮像メタデータを取得し、前記複数の画像を前処理して指定したサイズの複数の画像パッチ(patch)を取得し、前記複数の画像パッチを3D CNN(Convolutional Neural Network)に基づく神経網モデルに入力し、前記複数の画像パッチのそれぞれに対応する臓器領域を推定し、前記推定された臓器領域の面積及び前記撮像メタデータを用いて前記臓器の体積を測定し、前記神経網モデルの推定結果に基づいて、神経網モデルの不確実性数値及び複数の画像の不確実性数値を測定し、前記複数の画像の不確実性数値に基づいて、前記複数の画像のうちの少なくとも一つの画像を変更し、前記神経網モデルの不確実性数値に基づいて、前記神経網モデルのラベリングポリシーを変更してもよい。
本発明の一実施例に係る臓器の体積測定装置を含む多嚢胞腎疾患の判別システムの例を示す図である。 本発明の一実施例に係る物体の臓器の体積を測定する臓器体積測定装置の内部構成を説明するハードウェア構成図である。 本発明の一実施例に係る臓器体積測定装置の構成及び動作を説明するハードウェアブロック図である。 本発明の一実施例に係る臓器の体積測定方法のフローチャートである。 本発明の一実施例に係る神経網入力データの例を示す図である。 本発明の一実施例に係る入力データを前処理する方法を説明する図である。 本発明の一実施例に係る入力データを前処理する方法を説明する図である。 本発明の一実施例に係る入力データを前処理する方法を説明する図である。 本発明の一実施例に係る人工神経網の構造を説明する図である。 本発明の一実施例に係る人工神経網の構造を説明する図である。 本発明の一実施例に基づいて検出した臓器領域を利用し、臓器の体積を測定する方法を説明する図である。 本発明の一実施例に基づいて入力データを更新する方法を説明する図である。 本発明の一実施例に係る医療用電子装置が、腎臓又は肝臓の体積を推定する方法を示すフローチャートである。 本発明の一実施例に係る医療用電子装置が、腎臓又は肝臓の体積を推定し、深層学習モデルを更新する方法を示すフローチャートである。 本発明の一実施例に係る医療用電子装置が、少なくとも一つのテスト画像の中で腎臓又は肝臓の領域を抽出して表示した結果を示す図である。
後述する本発明の詳細な説明は、本発明を実施することができる特定の実施例を例示として示す添付図面を参照する。これらの実施例は、当業者が本発明を十分に実施することができるように、詳細に説明される。本発明の様々な実施例は、互いに異なるが、相互に排他的である必要はないことが理解されるであろう。例えば、本明細書に記載される特定の形状、構造、及び特性は、本発明の精神及び範囲を逸脱しない限り、一実施例から他の実施例に変更して実装してもよい。また、それぞれの実施例内の個別の構成要素の位置又は配置も、本発明の精神及び範囲を逸脱しないで変更されることは理解されるであろう。したがって、後述する詳細な説明は、限定的な意味として行われるものではなく、本発明の範囲は、特許請求の範囲の請求項で請求される範囲及びそれと均等な全ての範囲を網羅するものとして受け入れられるべきである。図面において、同様の参照符号は、いくつかの側面に亘って同一又は類似の構成要素を示す。
以下、本発明が属する技術分野において通常の知識を有する者が本発明を容易に実施できるようにするために、本発明のいくつかの実施例について添付した図面を参照して詳細に説明する。
以下、図1を参照して、本発明の一実施例に係る臓器の体積測定装置を含む多嚢胞腎疾患の判別システムについて詳細に説明する。
本発明に開示される人工知能(AI(Artificial Intelligence))は、人工知能又はこれを作製することができる方法論を研究する分野を意味し、機械学習(machine learning)は、人工知能技術の一分野として、コンピューティング装置がデータを介して学習し、特定の対象や条件を理解できるようにするか、或いはデータのパターンを見つけて分類する技術方式であり、コンピュータにデータを分析させるようにするアルゴリズムである。本発明に開示される機械学習は、人工知能モデルを学習するための動作方法を含む意味として理解することができる。
以下、本発明のいくつかの実施例に係る神経網モデルは、神経網構造探索(NAS(Neural Architecture Search))アルゴリズムを介して決定され得る。神経網構造探索とは、深層学習を通じて人工神経網の構造を設計する方法であり、一例によると、循環神経網を介して得られる神経網を学習し、最適な人工神経網構造を探索することができる。より詳細には、本発明のいくつかの実施例に係る神経網モデルは、NASアルゴリズムによって、当該神経網モデルに含まれる個々のレイヤーに対するフィルターサイズ、ストライド(stride)などのメタデータが決定され得る。前述したNASアルゴリズムは、通常の技術者が変更及び設計することができる様々な形態のアルゴリズムを全て含んでおり、一例として、上記のNASアルゴリズムは、SC-NAS、C-NASなどのアルゴリズムを含むことに留意されたい。
一実施例に係る臓器体積測定装置200は、臓器を撮像して得た複数の画像110及び臓器領域を表示した複数の画像120を入力データ100として利用してもよい。臓器体積測定装置200は、ネットワーク10を介して外部サーバから入力データ100を受信してもよい。この場合、外部サーバは、例えば、病院サーバであり、臓器体積測定装置200は、病院サーバから医療用画像フォーマットの標準である入力データ100を取得してもよい。この場合、入力データ100に含まれている臓器を撮像した複数の画像を含む入力データ100は、ダイコム(DICOM(Digital Imaging and Communications in Medicine))ファイル形式であってもよく、CT画像は、患者情報、測定データ、及び撮像情報を含んでもよい。ただしこれは、一例であり、本発明のいくつかの実施例に係る入力データ100の形態は、JPG、PNG、TIFなど、様々な画像ファイル形式であってもよいことはもちろんである。一実施例において、入力データ100は、3次元画像データを含んでもよく、この場合、画像のボリュームを構成する個々のボクセルは、画素の配列形態であってもよい。また、入力データ100に含まれている臓器領域を表示した複数の画像120は、人工神経網を利用して検出する必要がある臓器領域を表示した正解データであリ得る。すなわち、臓器領域を表示した複数の画像120は、臓器領域に対する注釈データ(又は、ラベリングデータ)であってもよい。前述した入力データ100を利用し、本発明のいくつかの実施例に基づいて臓器領域を検出する人工神経網は、教師あり学習(supervised learning)を実行してもよい。
入力データ100を受信した臓器体積測定装置200は、3D CNNに基づく人工神経網を利用し、それぞれの画像に含まれている臓器領域を検出してもよい。2D CNNではなく、3D CNNに基づいて利用することにより、3次元画像の形で取得されるCTデータに対する正確な分析が可能になる。ただし、通常の技術者によって追加的な前処理プロセスを実行し、2D CNNに基づく神経網を利用して本発明のいくつかの実施例に係る臓器の体積測定方法を実行してもよいであろう。より詳しくは、臓器体積測定装置200は、臓器を撮像した複数の画像及び撮像メタデータを取得し、前記複数の画像を前処理して指定したサイズの複数の画像パッチ(patch)を取得し、複数の画像パッチを3D CNN(Convolutional Neural Network)に基づく神経網モデルに入力し、前記複数の画像パッチのそれぞれに対応する臓器領域を推定し、推定された臓器領域の面積及び前記撮像メタデータを用いて前記臓器の体積を測定し、神経網モデルの推定結果に基づいて、神経網モデルの不確実性数値及び複数の画像の不確実性数値を測定し、入力データの不確実性数値に基づいて、前記複数の画像のうちの少なくとも一つの画像を変更し、神経網モデルの不確実性数値に基づいて、前記神経網モデルのラベリングポリシーを変更してもよい。
また、一実施例において、検出された臓器領域に対するデータを利用して臓器に対応する2D画像や3Dモデル300を生成し、ディスプレイに表示してもよい。この場合、ディスプレイに表示された2D画像又は3Dモデル300に対するユーザー入力に応答して検出された臓器領域のデータを修正することができ、上記の修正されたデータを人工神経網の入力データとして再利用することができる。
以後、多嚢胞腎判別装置400は、臓器領域の体積データを利用し、多嚢胞腎を測定してもよい。ただし、これは検出された臓器領域が腎臓又は肝臓である場合の活用例であり、本発明のいくつかの実施例に基づいて検出される臓器領域によって、判別しようとする病気又は症状が変化することはもちろんである。
以下、図2を参照して、臓器体積測定装置200の内部構成について詳細に説明する。
一実施例において、臓器の体積を測定する臓器体積測定装置200は、入出力インターフェース201、メモリ202、プロセッサ203、及び通信モジュール204を含んでもよい。メモリ202は、コンピュータで読み取り可能な記録媒体として、RAM、(random access memory)、ROM(read only memory)、及びディスクドライブなどの不揮発性の大容量記録装置(permanent mass storage device)を含んでもよい。また、メモリ202には、臓器体積測定装置200を制御するためのプログラムコード及び設定、カメラ映像、物体のポーズデータが一時的又は恒久的に記憶され得る。
プロセッサ203は、基本的な算術、ロジック、及び入出力演算を実行することにより、コンピュータプログラムの命令を処理するように構成されてもよい。命令は、メモリ202又は通信モジュール204によって、プロセッサ203に提供されてもよい。例えば、プロセッサ203は、メモリ202などの記録装置に記憶されたプログラムコードに基づいて、受信される命令を実行するように構成されてもよい。
通信モジュール204は、ネットワーク10を介して外部サーバと通信するための機能を提供してもよい。上述した外部サーバは、例えば、医療画像を提供する病院サーバであってもよい。一例として、臓器体積測定装置200のプロセッサ203がメモリ202などの記録装置に記憶されたプログラムコードに基づいて生成したリクエストは、通信モジュール204の制御によって、ネットワーク10を介して外部サーバに転送されてもよい。逆に、外部サーバのプロセッサの制御によって提供される制御信号や命令、コンテンツ、ファイルなどは、ネットワーク10を経て、通信モジュール204を介して臓器体積測定装置200に受信されてもよい。例えば、通信モジュール204を介して受信された外部サーバの制御信号や命令などは、プロセッサ203やメモリ202に転送されてもよい、コンテンツやファイルなどは、臓器体積測定装置200がさらに含んでもよい記憶媒体に記憶されてもよい。また、通信モジュール204の通信方式は限定されないが、ネットワーク10は、近距離無線通信ネットワークであってもよい。例えば、ネットワーク10は、ブルートゥース(登録商標)(Bluetooth)、BLE(Bluetooth Low Energy)、Wifi通信ネットワークであってもよい。
また、入出力インターフェース201は、ユーザーの入力を受信し、出力データを表示してもよい。一実施例に係る入出力インターフェース201は、臓器に対応する2D画像や3Dモデルをディスプレイに表示してもよい。或いは、ユーザーから検出された臓器領域のフィードバック情報の入力を受けてもよい。
図示していないが、一実施例に係る臓器体積測定装置200は、カメラモジュールをさらに含んでもよい。カメラモジュールは、一つ以上の個別カメラを含むカメラモジュールであってもよい。一例として、カメラモジュールは、臓器体積測定装置200に内蔵されているカメラモジュールであってもよく、別に備えられたカメラ装置と接続されるモジュールであってもよい。この場合、カメラモジュールから取得した臓器を撮像した画像は、メモリ202又は臓器体積測定装置200がさらに含む記憶媒体に記憶されてもよい。
また、他の実施例において、臓器体積測定装置200は、図2の構成要素よりも多くの構成要素を含んでもよい。しかしながら、ほとんどの従来技術の構成要素を明確に図示する必要はない。例えば、臓器体積測定装置200は、ユーザー端末の内部構成要素に電力を供給するバッテリー及び充電装置を含んでもよく、上述した入出力装置のうちの少なくとも一部を含むように実装されたり、又はトランシーバ(transceiver )、GPS(Global Positioning System)モジュール、各種センサー、データベースなどの他の構成要素をさらに含んだりしてもよい。
図3は、本発明の一実施例に係る臓器体積測定装置の構成及び動作を説明するハードウェアブロック図である。
一実施例において、臓器体積測定装置200は、データ取得部210、データ前処理部211、人工神経網部220、不確実性測定部230、人工神経網更新部240、及び臓器体積演算部250を含んでもよい。
一実施例において、データ取得部210は、臓器を撮像した複数の画像及び撮像メタデータを取得してもよい。臓器を撮像した複数の画像は、ダイコム(DICOM(Digital Imaging and Communications in Medicine))ファイルから取得したCT画像及び前記臓器に対するラベリング画像を含んでもよい。ただしこれは、一例であり、本発明のいくつかの実施例に係る入力データ100の形態は、JPG、PNG、TIFなど、様々な画像ファイル形式であってもよいことはもちろんである。ラベリング画像は臓器領域が表示されている画像であり、人工神経網を介して推定しようとする臓器領域に対する正解データであってもよい。したがって、本発明のいくつかの実施例に基づいて臓器領域を推定する人工神経網は、前述したラベリングデータを用いて、教師あり学習(supervised learning)を実行してもよい。
一実施例において、データ前処理部211は、人工神経網の学習に必要な十分なデータを確保するためのデータの拡張(Data Augmentation)を実行してもよい。また、一実施例において、データ前処理部211は、複数の画像を前処理し、指定したサイズの複数の画像パッチ(patch)を取得してもよい。一実施例において、学習データを拡張するデータ前処理部211は、空間拡大(Spatial Augmentation)、カラー増強(Color Augmentation)、騒音増強(Noise Augmentation)、及びトリミングのうちの少なくとも一つ以上を実行してもよい。また、複数の画像パッチを生成するデータ前処理部211は、同一のサイズを有する複数の画像パッチを生成するための画像リサイズ(re-sizing)及び人工神経網に適した形態の画像パッチの抽出を実行してもよい。また、一実施例において、データ前処理部211は、3D CT画像に対して深さ(depth)方向にスライドしながら、複数の画像パッチを取得してもよい。
一実施例において、人工神経網部220は、神経網学習部221及び臓器領域推論部222を含んでもよい。一実施例において、人工神経網部220は、3D CNN(Convolutional Neural Network)に基づく人工神経網を利用し、学習手順及び推論手順を実行してもよい。一実施例において、神経網学習部221は、データ取得部210から取得した複数のCT画像及び複数のラベリング画像をもとに生成された画像パッチを利用し、前述した人工神経網の学習を実行してもよい。また、一実施例において、臓器領域推論部222は、複数のCT画像をもとに生成された複数の画像パッチを利用し、それぞれの画像パッチに対応する臓器領域を推論してもよい。
一方、本発明のいくつかの実施例に係る前述した3D CNNに基づく人工神経網は、オーバフィッティング(overfitting)の問題を防止するためにドロップアウト(Dropout)を実行してもよい。一実施例によると、上述した人工神経網は、学習手順及び推論手順で、全てドロップアウトを実行してもよい。このとき、人工神経網は、確率分布の標本をもとにランダムに推論手順を実行してもよい。
一実施例において、不確実性測定部230は、入力データ及び人工神経網モデルの不確実性数値を測定しもよい。入力データ及び人工神経網モデルの不確実性数値とは、エラーが発生した入力データ及び人工神経網モデルの特定の原因を探索することができるかを意味する数値である。したがって、一実施例に係る不確実性測定部230は、データの不足や全てのデータを分析しにくい構造などによる神経網モデルの不確実性数値を測定してもよい。この場合、不確実性測定部230は、上述した人工神経網モデルの推論手順での結果データの確率分布に対する分散値に基づいて神経網の不確実性数値を測定してもよい。また、一実施例に係る不確実性測定部230は、ランダムデータにより、同様な不確実性数値を有していても異なるラベリングが行われたことによるデータの不確実性数値を測定してもよい。この場合、不確実性測定部230は、前述した人工神経網モデルの推論手順での結果データの分散推定値に基づいて、複数の画像の不確実性数値を測定してもよい。
一実施例において、人工神経網更新部240は、臓器領域推論部222から複数の画像のそれぞれについて推定した臓器領域を修正してもよい。より詳細には、人工神経網更新部240は、人工神経網モデルの不確実性をもとに画像で検出された臓器領域を修正してもよい。この場合、臓器体積測定装置200は、入出力インターフェースを利用し、ユーザーから修正された臓器領域に対する情報を取得してもよい。
また、人工神経網更新部240は、入力データの不確実性数値に基づいて、前述した人工神経網モデルのラベリングポリシーを変更してもよい。また、人工神経網更新部240は、変更されたラベリングポリシーに基づいて、複数の画像のそれぞれに対する加重値を設定し、推定された臓器領域が修正された画像に対して他の画像よりも大きな加重値を付与し、人工神経網の学習データとして利用してもよい。
一実施例において、臓器体積演算部250は、複数の画像パッチのそれぞれについて、人工神経網部220を用いて推定した臓器領域の面積と、複数の画像に対する撮像メタデータとを利用し、臓器の体積を推定してもよい。
図4は、本発明の一実施例に係る臓器の体積測定方法のフローチャートである。
ステップS110において、臓器体積測定装置は、臓器を撮像した複数の画像及び撮像メタデータを取得してもよい。
上記の臓器を撮像した複数の画像は、ダイコム(DICOM(Digital Imaging and Communications in Medicine))ファイルから取得したCT画像及び前記臓器に対するラベリング画像を含んでもよい。ただしこれは、一例であり、本発明のいくつかの実施例に係る入力データ100の形態は、JPG、PNG、TIFなど、様々な画像ファイル形式であってもよいことはもちろんである。また、撮像メタデータは、複数の画像のそれぞれに対する画素間隔データ及び画像スライスの深さデータを含んでもよい。一実施例において、前述した複数の画像は、上記の臓器を撮像した複数の3D画像であってもよい。ラベリング画像は臓器領域が表示されている画像であり、人工神経網を介して推定しようとする臓器領域に対する正解データであってもよい。したがって、本発明のいくつかの実施例に基づいて臓器領域を推定する人工神経網は、前述したラベリングデータを用いて、教師あり学習(supervised learning)を実行してもよい。より詳細な説明は、以下の図5で後述する。
ステップS120において、臓器体積測定装置は、複数の画像を前処理し、指定したサイズの複数の画像パッチ(patch)を取得してもよい。より詳細には、臓器体積測定装置は、複数の画像のそれぞれについて、データの拡張(Data Augmentation)を実行して複数の画像を生成し、上記の生成した複数の画像を前処理することで、複数の画像パッチを取得してもよい。一実施例において、臓器体積測定装置は、学習データが不足している場合は、データの拡張を実行してもよい。この場合、臓器体積測定装置は、空間の拡大、カラー増強、騒音増強、及びトリミングのうちの一つ以上を実行してもよい。一実施例において、空間の拡大は、複数の画像のそれぞれに対するミラーリング、登録エラーシミュレーションのためのチャンネルの変換、弾性変形、回転、スケーリング、及びリサンプリングのうちの少なくとも一つを含んでもよい。ただしこれは、空間の拡大の一例であり、本発明に係る実施例は、これに限定されるものではないことに注意されたい。一実施例において、カラー増強は、明るさの加算、明るさの乗算、コントラスト調整、及びガンマ調整のうちの少なくとも一つを含んでもよい。ただしこれは、カラー増強の一例であり、本発明に係る実施例は、これに限定されるものではないことに注意されたい。一実施例において、騒音増強は、ガウス雑音(Gaussian Noise)及びRician雑音(Rician Noise)のうちの少なくとも一つを利用してもよい。ただしこれは、騒音増強の一例であり、本発明に係る実施例は、これに限定されるものではないことに注意されたい。一実施例において、トリミングは、ランダムトリミング及びセンタートリミングの一つであってもよい。ただしこれは、トリミングの一例であり、本発明に係る実施例は、これに限定されるものではないことに注意されたい。
また、臓器体積測定装置は、同一のサイズを有する複数の画像パッチを生成するための画像リサイズ(re-sizing)及び人工神経網に適した形態の画像パッチの抽出を実行してもよい。また、一実施例において、臓器体積測定装置は、3D CT画像に対して深さ(depth)方向にスライドしながら、複数の画像パッチを取得してもよい。また、臓器体積測定装置は、所定のパッチサイズに対して、指定した割合だけ重ね合わせ(overlapping)を実行し、複数の画像パッチを生成してもよい。さらに、臓器体積測定装置は、畳み込み(Convolution)演算によって、データのサイズが減少することを防止するために、指定したサイズの画像パッチを生成するパディング(padding)を追加してもよい。例えば、臓器体積測定装置は、幅及び/又は高さの対称パディング(symmetric padding)を追加してもよく、3D CNNに基づく人工神経網の入力データの形式を合わせるために、深さのゼロパディングを追加してもよい。この場合、追加されるパディングデータは、「0」データであってもよい。より詳細な説明は、以下の図6~図8で後述する。
ステップS130において、臓器体積測定装置は、複数のパッチ画像を3D CNN(Convolutional Neural Network)に基づく神経網モデルに入力してもよい。上記の神経網モデルは、オーバフィッティング問題の発生を防止するために、学習手順及び推論手順でドロップアウト(Dropout)を実行してもよい。また、一実施例に係る神経網モデルは、Reduction cellを含むエンコード(encoding)レイヤーとExpansion cellとを含むデコード(decoding)層を含んでもよい。より詳細な説明は、以下の図9~図10で後述する。
ステップS140において、臓器体積測定装置は、3D CNNに基づく神経網を利用し、複数の画像パッチのそれぞれに対応する臓器領域を推定してもよい。一実施例に基づき、臓器領域を推定する人工神経網は、複数の画像パッチのそれぞれについて、臓器領域を推定してもよい。また、臓器体積測定装置は、結果データに対して、データの後処理をさらに実行してもよい。例えば、臓器体積測定装置は、深さスプライン(Depth spline)、奥行きスティチング(Depth stitching)、及びアンパディング(Unpadding)のうちの少なくとも一つを実行してもよい。一実施例において、臓器体積測定装置は、結果データに対して深さスプラインを実行し、各画像パッチの中心から離れるほど低い推論の加重値を付与してもよい。これにより、結果データを利用し、自然なスティチング結果物を取得することができる。また、一実施例において、臓器体積測定装置は、複数の画像パッチのそれぞれに対応する結果データの奥行きスティチングを実行し、新しいボリュームを構成してもよい。さらに、一実施例において、臓器体積測定装置は、データの前処理ステップで追加したパディングを制御するアンパディング(Un-Padding)を実行してもよい。
ステップS150において、臓器体積測定装置は、推定された臓器領域の面積及び撮像メタデータを利用し、臓器の体積を測定してもよい。より詳細には、臓器体積測定装置は、撮像メタデータに含まれている画素の間隔、画像スライスの厚さ、及び画像パッチに含まれているボクセルの数を利用し、臓器の体積を演算してもよい。より詳細な説明は、以下、図11で後述する。
ステップS160において、臓器体積測定装置は、神経網モデルの推定結果に基づいて、神経網モデルの不確実性数値及び複数の画像パッチのそれぞれの不確実性数値を測定してもよい。一実施例において、神経網モデルの不確実性数値は、上記の神経網モデルの推論手順での結果データの確率分布に対する分散値に基づいて測定してもよい。また、複数の画像パッチのそれぞれの不確実性数値は、上記の神経網モデルの推論手順での結果データの分散推定値に基づいて測定してもよい。
ステップS170において、臓器体積測定装置は、人工神経網モデルの不確実性数値に基づいて、複数の画像のうちの少なくとも一つの画像を変更してもよい。臓器体積測定装置は、モデルの不確実性数値に基づいて、修正が必要なデータを選んでもよい。また、臓器体積測定装置は、データの不確実性数値に基づいて、ラベリングポリシー策定してもよい。これにより、本発明のいくつかの実施例に係る神経網は、修正されたデータを利用する神経網モデルの更新(active learning)を実行してもよい。すなわち、臓器体積測定装置は、入力データの不確実性数値が基準値以上である一つ以上の画像を検出し、前記検出した画像の前記臓器領域に対するユーザーの入力に基づいて、前記検出した画像を変更してもよい。
ステップS180において、臓器体積測定装置は、入力データの不確実性数値に基づいて、神経網モデルのラベリングポリシーを変更してもよい。一実施例に係る臓器体積測定装置は、変更されたラベリングポリシーに基づいて、入力データのそれぞれに対するラベリングを実行し、ラベルが修正された入力データに、ラベルが変更されていない入力データよりも大きな加重値を付与し、上記の神経網モデルを学習させてもよい。
図5は、本発明の一実施形態によるニューラルネットワークの入力データの例を示す図である。(a)は、臓器を撮影した画像データであり、(a)のような複数の画像データは、ダイコム(DICOM; Digital Imaging and Communications in Medicine)ファイルから取得することができる。ただしこれは、一例であり、本発明のいくつかの実施例に係る入力データ100の形態は、JPG、PNG、TIFなど、様々な画像ファイル形式であってもよいことはもちろんである。また、一実施例において、臓器体積測定装置は、ダイコムファイルから複数の画像のそれぞれに対する撮像メタデータをさらに取得してもよい。撮像メタデータは、例えば、複数の画像のそれぞれの画素の大きさ、画像の深さ(depth)情報、ボクセルの大きさ及び個数に関する情報をさらに含んでもよい。
図5の(b)は、臓器領域を表示したデータである。図5の(b)は、人工神経網を介して推論しようとする臓器領域に対する正解データであり、臓器領域が表示されているラベリングデータであってもよい。一実施例に係る神経網モデルは、図5の(b)のようなラベリングデータを利用して教師あり(supervised)学習を実行してもよい。ただし、他の実施例において、臓器領域を検出する神経網モデルは、図5の(a)のような画像だけを利用し、教師なし(un-supervised)学習を実行してもよいことはもちろんである。
図6~図9は、本発明の一実施例に係る入力データを前処理する方法を説明する図である。
図6を参照すると、一実施例において、臓器体積測定装置は、十分な量の学習データを確保するために、データの拡張を実行してもよい。臓器体積測定装置は、空間の拡大、カラー増強、騒音増強、及びトリミングのうちの一つ以上を実行してもよい。一実施例において、空間の拡大は、複数の画像のそれぞれに対するミラーリング、登録エラーシミュレーションのためのチャンネルの変換、弾性変形、回転、スケーリング、及びリサンプリングのうちの少なくとも一つを含んでもよい。一実施例において、カラー増強は、明るさの加算、明るさの乗算、コントラスト調整、及びガンマ調整のうちの少なくとも一つを含んでもよい。一実施例において、騒音増強は、ガウス雑音(Gaussian Noise)及びRician雑音のうちの少なくとも一つを利用してもよい。一実施例において、トリミングは、ランダムトリミング及びセンタートリミングの一つであってもよい。例えば、図6の(b)に示された画像は、図6の(a)に対して回転を実行した場合の例であり、図6の(c)に図示された画像は、図6の(a)の明るさを下げた場合の例であり、図6の(d)に示された画像は、センタートリミングを実行した場合の例である。このように、一実施例に係る臓器体積測定装置は、取得した画像を様々な方法で変形し、人工神経網に必要な十分な量の学習データを取得することができる。
また、図7を参照すると、一実施例において、臓器体積測定装置は、指定したサイズの画像パッチを取得するためのデータ前処理プロセスを実行してもよい。まず、臓器体積測定装置は、複数の画像のサイズを調整し、同一のスケール(scale)での画像パッチを抽出してもよい。以後、臓器体積測定装置は、3Dスライディングウインドウを介して一方向にスキャンし、指定したサイズの3D画像を抽出してもよい。一実施例において、臓器体積測定装置は、指定されたパッチサイズの指定された割合だけを重ね合わせることで、複数の画像パッチを抽出してもよい。例えば、図6の(b)及び(c)は、図6の(a)から抽出された3D画像パッチの一例である。
図8を参照すると、一実施例に係る臓器体積測定装置は、人工神経網の結果データに対するサイズを調整するために、入力データに対してパディングを追加してもよい。本発明のいくつかの実施例に基づいて臓器領域を推定する人工神経網は、3D CNNに基づくモデルであってもよい。したがって、神経網で演算が実行されることで、入力データに対して、複数の畳み込み(Convolutional)演算を実行し、その結果、データのサイズは縮小されるしかない。したがって、臓器体積測定装置は、指定したサイズの画像パッチを取得するために、幅、高さ、深さについて、それぞれパディングを追加してもよい。例えば、図8の(b)は、図8の(a)に対して深さのパディングが追加されたデータの一例である。これに限定されず、本発明のいくつかの実施例に基づいてパディングが追加された画像パッチは、特定の画像が対称形態で複製された画像であってもよい。一実施例において、指定したサイズだけのパディングが追加される場合、追加されたデータは、「0」であってもよい。例えば、3D CNNに基づく神経網の入力データとして使用されるために、2D画像に対して深さ方向へのパディングを追加してもよく、この場合、指定された深さを有するパディングは、「0」データで構成されてもよい。他の実施例において、追加されるパディングのサイズが「0」であってもよい。前述した本発明のいくつかの実施例に係る神経網モデルは、3D画像を入力データとして利用するので、入力データに対して形式上の深さ情報を追加することができ、この場合、深さは「0」であってもよい。
図9及び図10は、本発明の一実施例に係る人工神経網の構造を説明する図である。
図9を参照すると、複数の画像に基づいて生成された画像パッチ501a及び501bの入力を受けた神経網500は、それぞれの画像パッチに対応する臓器領域502a及び502bを抽出してもよい。例えば、第1画像パッチ501aに基づいて、第1画像パッチ501aに対応する臓器領域502aを検出してもよく、第2画像パッチ501bに基づいて、第2画像のパッチ501bに対応する臓器領域502bを抽出してもよい。
また、一実施例において、臓器体積測定装置は、神経網モデル及び入力データに対する不確実性数値を測定してもよい。モデルの不確実性は、データ不足又は全てのデータを表現することが難しい構造の神経網により発生する。したがって、本発明のいくつかの実施例に係る人工神経網モデルは、オーバフィッティング問題の発生を防止するために、学習手順及び推論手順でドロップアウト(Dropout)を実行してもよい。より詳細には、臓器体積測定装置は、確率分布の標本をもとにランダム予測を実行してもよく、k個のthinned neural netをサンプリングし、それぞれの予測値の平均値を利用することで、前述したランダム予測を実行してもよい。この場合、確率分布は、神経網モデルの推論手順で取得した結果データの確率分布であってもよく、このときの平均値を予測値として取得してもよく、このときの分散値を不確実性数値に見なしてもよい。
入力データの不確実性は、データの生成過程で発生するランダム性に起因する。より詳細には、確率で表現することが難しいランダムデータに含まれる第1データ及び第2データの不確実性数値が同一である場合を例として挙げると、前述した第1データ及び第2データの不確実性数値が同一であるにもかかわらず、上記の第1データ及び第2データは、指定された確率に基づいて取得したデータではないので、互いに異なるラベルが適用され得る。このように、入力データの不確実性が発生した場合、本発明のいくつかの実施例に係る臓器体積測定装置は、分散推定(Variance estimation)を介して、上述した入力データの不確実性数値を測定することができる。
図10は、本発明の一実施例に係る人工神経網モデルの構造の例示図である。
一実施例において、臓器領域を抽出する神経網モデル500は、3D CNNに基づく神経網モデルであり、Reduction cellを含むエンコードレイヤー510と、Expansion cellを含むデコードレイヤー520とを含んでもよい。しかしながら、本発明のいくつかの実施例に係る神経網モデルの構造は、図10に示されたものに限定されず、当該分野における通常の技術者が採用及び変形することができる多様な構造を有してもよいことに留意されたい。また、本発明の一実施例に係る神経網モデルは、これに限定されず、通常の技術者によって追加的な前処理プロセスを実行し、2D CNNに基づく神経網を利用して本発明のいくつかの実施例に係る臓器の体積測定方法を実行してもよいであろう。
図11は、本発明の一実施例に基づいて検出した臓器領域を利用し、臓器の体積を測定する方法を説明する図である。
一実施例に基づいて臓器領域を検出する神経網の結果データを利用し、撮像対象の臓器の体積を測定してもよい。臓器体積測定装置は、推定された臓器領域の面積及び撮像メタデータを利用し、臓器の体積を測定してもよい。より詳細には、臓器体積測定装置は、撮像メタデータに含まれている画素の間隔、画像スライスの厚さ、及び画像パッチに含まれているボクセルの数を利用し、臓器の体積を演算してもよい。図11に示されたものを参照すると、例えば、正方形の形態の画素の間隔(又はサイズ)が0.6mmであり、画像スライスの厚さが1mmであり、ボクセルの数が2,000,000である場合を想定すると、この場合、臓器の体積は、0.6x0.6x1x2,000,000=0.36mm2x2,000,000=720mlである。他の例として、ボクセルのx座標。
図12は、本発明の一実施例に基づいて入力データを更新する方法を説明する図である。
一実施例において、複数の画像パッチを利用して推定した複数の臓器領域に対するデータ502を利用し、当該臓器領域の3Dモデル602を生成してもよい。一実施例において、臓器体積測定装置は、臓器領域に対するデータ502又は上述した臓器領域の3Dモデル602を表示してもよい。以後、臓器体積測定装置は、人工神経網モデルの不確実性数値に基づいて、複数の画像のうちの少なくとも一つの画像を変更してもよい。臓器体積測定装置は、モデルの不確実性数値に基づいて、修正が必要なデータ601、602、603を選んでもよい。すなわち、臓器体積測定装置は、入力データの不確実性数値が基準値以上である一つ以上の画像を検出し、前記検出した画像の前記臓器領域に対するユーザーの入力に基づいて、前記検出した画像を変更してもよい。また、臓器体積測定装置は、入力データの不確実性数値に基づいて、神経網モデルのラベリングポリシーを変更してもよい。一実施例に係る臓器体積測定装置は、変更されたラベリングポリシーに基づいて、入力データのそれぞれに対するラベリングを実行し、ラベルが修正された入力データに、ラベルが変更されていない入力データよりも大きな加重値を付与し、上記の神経網モデルを学習させてもよい。これにより、本発明のいくつかの実施例に係る神経網は、修正されたデータ及び新しいラベリングポリシーに基づいて、神経網モデルの更新(active learning)を実行してもよい。
また、本発明の一実施例に係る臓器体積測定装置は、前述した臓器体積測定方法を利用し、薬物の効果を検証してもよい。例えば、患者の腎臓及び/又は肝臓の体積を測定し、多嚢胞腎疾患の診断を行うことができ、薬物の服用による治療効果も判別することができる。より詳細には、まず、上述した臓器領域を推定する人工神経網を利用し、患者の腎臓体積セグメンテーション(kidney volume segmentation)を実行してもよい。以後、投薬前及び投薬後の患者のデータの入力を受け、腎臓体積セグメンテーション(kidney volume segmentation)を実行した後、腎臓の体積を測定する。この場合、患者の腎臓領域のダイコムファイル内に含まれている画素のサイズ及び画像スライスの厚さを利用し、当該腎臓の体積を測定してもよいことはもちろんである。上述した方法に基づいて測定した腎臓の体積増減率に基づいて、薬効を測定してもよい。さらに、本発明の一実施例に係る臓器体積測定装置は、患者別の時間に伴う臓器の体積変化の推移を確認することができるインターフェースを提供してもよいことはもちろんである。
一例として、本発明の一実施例に係る臓器体積測定方法を利用し、海馬の体積を測定することができる。海馬の体積減少量は、アルツハイマー疾患及び認知症の精神病的症状の発症と関連するので、一実施例に基づいて海馬の体積を測定することにより、前述した精神的疾患を診断することができる。この場合、海馬の体積は、医療用画像に基づいて測定してもよく、上記の医療画像は、例えば、CT、MRI画像を含んでもよいが、医療用画像の種類は、これに限定されず、他のタイプの医療画像を利用し、前述した海馬の体積を測定してもよいことはもちろんである。
他の例として、本発明の一実施例に係る臓器の体積測定方法を利用し、肝臓の体積を測定してもよい。肝臓の体積は、肝臓を大量に切除する時、全体の肝臓の体積に対する残りの肝臓の体積の割合を演算するために必要である。肝臓移植手術において、ドナーとレシピエントとの肝機能の予測のためには、手術前にドナーの肝臓の体積を正確に測定しなければならない。したがって、本発明のいくつかの実施例に基づいて肝臓の体積を正確に測定することにより、肝臓移植手術の成功率及び患者の予後に肯定的な効果をもたらすことができる。一実施例において、肝臓の体積だけでなく、脾臓の体積もさらに測定する場合、肝臓手術の成功率及び肝臓の体積と脾臓の体積との間の体積変化をより正確に測定することができるだろう。
他の例において、本発明の一実施例に係る臓器体積測定方法を利用し、指定された癌組織の体積を測定してもよい。この場合には、抗癌剤治療の前後の時点に対して、指定された癌組織の体積変化に基づき、抗癌剤に対する反応を数値化及び客観化することができる。
以下、図13~図15を参照して、臓器体積測定方法を実行する装置の一例である多嚢胞腎疾患及び多嚢胞肝疾患の進行状況を判断する方法、及びこれを実行するための医療用電子装置について詳細に説明する。
一実施例において、医療用電子装置は、入力モジュール、メモリ、プロセッサを含んでもよい。様々な実施例によると、医療用電子装置の構成は、前述したものに限定されず、例えば、医療用電子装置は、前述した構成のうちの一部を省略してもよく、記載されていない構成をさらに含んでもよい。例えば、医療用電子装置は、少なくともプロセッサと、電気的に接続される出力モジュールをさらに含んでもよい。
入力モジュールは、少なくとも一つのテスト画像を取得してもよい。テスト画像は、例えば、人体の少なくとも一部、例えば、腎臓又は肝臓が含まれている断層画面を含んでもよい。テスト画像は、腎臓又は肝臓の領域が特定されていない画像であってもよい。例えば、テスト画像は、腎臓又は肝臓の体積測定が求められる患者に対して、腎臓又は肝臓が含まれている断層を撮像した画像であってもよい。
様々な実施例によると、テスト画像は複数であってもよく、複数のテスト画像は、少なくとも一つの対象に対して、指定された間隔を置いて撮像された複数の断層画面であってもよい。例えば、第1テスト画像は、少なくとも一つの対象に対し、第1断層を撮像した画面であってもよく、第2テスト画像は、少なくとも一つの対象に対し、第1断層に指定された間隔を置いて平行する第2断層を撮像した画面であってもよい。様々な実施例によると、入力モジュールは、少なくとも一つのテスト画像を順次又は同時に取得してもよい。例えば、入力モジュールは、第1テスト画像及び第2テスト画像を順次に取得してもよく、同時に取得してもよい。
一実施例によると、入力モジュールは、複数の学習画像及び複数の学習画像の中で腎臓に対応する領域又は肝臓に対応する領域の情報を取得してもよい。複数の学習画像は、例えば、少なくとも一つ以上の深層学習モデルを取得するための複数のサンプルデータであってもよい。一実施例において、複数の学習画像は、腎臓又は肝臓の領域の特定済みの画像であってもよい。例えば、学習画像は、少なくとも一人以上の患者に対して、腎臓又は肝臓が含まれている断層を撮像した画像の中で、腎臓又は肝臓の領域の特定や体積の測定が済んだ画像であってもよい。
一実施例によると、学習画像は、複数のオブジェクトに対する領域の特定が済んだ画像であってもよい。例えば、学習画像は、肝臓の領域及び腎臓の領域の両方の領域の特定が済んだ画像であってもよい。様々な実施例によると、複数のオブジェクトに対する領域の特定を実行した学習画像を利用して取得した深層学習モデルの精度は、より向上させることができる。例えば、複数のオブジェクト、例えば、肝臓及び腎臓に対する領域の特定を全て実行した学習画像を利用して深層学習モデルを取得する場合、テスト画像の中で、肝臓及び腎臓の領域の特定の精度は、より向上させることができる。
一実施例によると、上記の複数のオブジェクトの領域の特定は、単一の信号処理を介して実行されてもよい。例えば、学習画像に対して、肝臓の領域の特定及び腎臓の領域の特定は、単一の同じ色で表示されてもよい。他の実施例によると、上記の複数のオブジェクトに対する領域の特定は、互いに異なる信号処理を介して実行されてもよい。例えば、学習画像に対して、肝臓の領域の特定及び腎臓の領域の特定は、互いに異なる色で表示されてもよい。複数のオブジェクトの領域の特定が互いに異なる信号で行われる場合、単一の信号で行われる場合に比べ、より高い精度を有する深層学習モデルが期待される 様々な実施例によると、上記の複数のオブジェクトに対する異なる信号処理は、2以上の互いに異なる信号を利用して行うことができる。
様々な実施例によると、入力モジュールは、複数の学習画像又は複数の学習画像の中で特定の領域に対する情報を順次又は同時に取得することができる。例えば、入力モジュールは、第1グループの複数の学習画像又は第1グループの複数の学習画像の中で特定の領域に対する情報を取得してもよく、以後に第2グループの複数の学習画像又は第1グループの複数の学習画像の中で特定の領域に対する情報を追加的に取得してもよい。他の例として、入力モジュール110は、第1グループの複数の学習画像及び第2グループの複数の学習画像、及び第1グループ及び第2グループの複数の学習画像の中で特定の領域に対する情報を同時に取得してもよい。
様々な実施例によると、入力モジュールは、カメラモジュール、スキャンモジュールは、通信モジュール、及びユーザー入力モジュールのうちの少なくとも一つのモジュールを含んでもよい。例えば、入力モジュールは、カメラモジュールを含み、カメラモジュールは、テスト画像を撮像してもよい。一実施例において、撮像されたテスト画像は、プロセッサ又はメモリに転送されてもよい。他の例として、入力モジュールは、スキャンモジュールを含み、スキャンモジュールは、既に撮像されたテスト画像をスキャンして電気信号に変換してもよい。一実施例において、変換された電気信号は、プロセッサ又はメモリに転送されてもよい。他の例として、入力モジュールは、通信モジュールを含み、通信モジュールは、外部の電子装置からの無線通信又は有線通信を通してテスト画像を取得してもよい。一実施例において、取得したテスト画像は、プロセッサ又はメモリに転送されてもよい。
一実施例によると、入力モジュールは、テスト画像だけでなく、ユーザーの入力を取得してもよい。例えば、入力モジュールは、ユーザーの入力モジュールを含んでもよく、ユーザーの入力モジュールは、ユーザーからのテスト画像の処理のための様々な入力を取得してもよい。例えば、入力モジュールは、ユーザーからの複数のテスト画像について、それぞれのテスト画像に対応する断層間の間隔を取得してもよい。
メモリは、揮発性メモリ又は不揮発性メモリを含んでもよい。揮発性メモリは、例えば、RAM(random access memory)(例えば、DRAM、SRAM、又はSDRAM)で構成され得る。不揮発性メモリは、例えば、OTPROM(one time programmable read-only memory(ROM))、PROM(programmable read-only memory)、EPROM(erasable programmable read-only memory)、EEPROM(electrically erasable programmable read-only memory)、mask ROM、flash ROM、フラッシュメモリ、ハードドライブ、又はソリッド・ステート・ドライブ(SSD)で構成され得る。
様々な実施例によると、メモリは、例えば、医療用電子装置の少なくとも一つの他のソフトウェア構成要素、例えば、プログラムに関連する命令、情報、又はデータを記憶してもよい。様々な実施例において、メモリは、入力モジュールから取得した情報又はプロセッサによって処理された情報を記憶してもよい。様々な実施例において、入力モジュールから取得した情報は、例えば、テスト画像、学習画像、学習画像の中で特定の領域、例えば、腎臓又は肝臓に対応する領域の情報、又はユーザーの入力を含んでもよい。様々な実施例において、プロセッサによって処理された情報は、例えば、テスト画像の中で特定の領域、例えば、腎臓又は肝臓に対応する領域の情報は、学習画像及び学習画像の中で特定の領域に対する情報から取得した深層学習モデルなどを含んでもよい。
プロセッサは、中央処理装置(Central Processing Unit(CPU))、アプリケーションプロセッサ(Application Processor(AP))、又はコミュニケーションプロセッサ(Communication Processor(CP))の一つ、又はそれ以上を含んでもよい。様々な実施例において、プロセッサは、例えば、オペレーティングシステム、又はアプリケーションプログラムを駆動し、プロセッサに接続された医療用電子装置の少なくとも一つの他の構成要素(例えば、ハードウェア又はソフトウェア構成要素)を制御してもよく、各種のデータ処理や演算を実行してもよい。例えば、プロセッサは、他の構成要素のうちの少なくとも一つ(例えば、入力モジュール)から受信した命令又はデータに対して演算を実行し、結果をメモリに記憶してもよい。
一実施例によると、プロセッサは、メモリに記憶された複数の学習画像及び複数の学習画像の中で特定の領域、例えば、腎臓又は肝臓に対応する領域の情報に基づいて、少なくとも一つ以上の深層学習モデルを取得してもよい。一実施例において、プロセッサは、深層学習モデルを更新してもよい。例えば、プロセッサは、新しい学習画像及び新しい学習画像の中で腎臓又は肝臓に対応する領域の情報を取得し、取得した画像及び情報に基づいて、メモリに記憶されていた深層学習モデルを更新してもよい。
一実施例によると、プロセッサは、入力モジュールを介して少なくとも一つのテスト画像を取得し、メモリに記憶された深層学習モデルに基づいて、少なくとも一つのテスト画像の中で腎臓に対応する領域又は肝臓に対応する領域を検出してもよい。
一実施例によると、プロセッサは、少なくとも一つのテスト画像に含まれる腎臓又は肝臓の体積を推定することができる。例えば、プロセッサは、少なくとも一つのテスト画像の中で検出した領域の面積を取得してもよく、取得した面積に基づいて、腎臓又は肝臓の体積を推定してもよい。例えば、プロセッサは、入力モジュールを介してユーザーから少なくとも一つのテスト画像が撮像される間隔、例えば、第1テスト画像が撮像された断層と第2テスト画像が撮像された断層との間の間隔及び取得した面積に基づいて腎臓又は肝臓の体積を推定してもよい。一実施例によると、プロセッサは、推定された腎臓又は肝臓の体積に基づいて、少なくとも一つのテスト画像に対応する腎臓又は肝臓における多嚢胞腎疾患又は多嚢胞肝疾患の進行状況を判断することもできる。
様々な実施例によると、医療用電子装置は、出力モジュールをさらに含んでもよい。出力モジュールは、例えば、少なくとも一つのディスプレイを含んでもよい。出力モジュールは、プロセッサに電気的に接続され、プロセッサから転送されたデータを、ユーザーが認識することができる形態で出力してもよい。様々な実施例において、ユーザーが認識することができる形態は、文字、音声、画像、又はビデオのうちの少なくとも一つを含んでもよい。様々な実施例によると、プロセッサは、出力モジュールを利用し、テスト画像の中で腎臓又は肝臓に対応する領域を表示したり、腎臓又は肝臓の体積を表示したりしてもよい。他の実施例によると、プロセッサは、出力モジュールを利用し、腎臓又は肝臓における多嚢胞腎疾患又は多嚢胞肝疾患の進行状況を表示してもよい。
図13は、一実施例に係る医療用電子装置が、腎臓又は肝臓の体積を推定する方法を示すフローチャートである。
図13を参照すると、医療用電子装置が、腎臓又は肝臓の体積を推定する方法S200は、ステップS201~ステップS209を含んでもよい。様々な実施例によると、方法S200は、ステップS201~ステップS209のうちの少なくとも一つを省略してもよく、図13に図示されていないステップをさらに含んでもよい。一実施例によると、ステップS201~ステップS209は、前述した医療用電子装置又はプロセッサによって実行される方法で理解され得る。
ステップS201において、医療用電子装置は、少なくとも一つの深層学習モデルを取得してもよい。一実施例において、少なくとも一つの深層学習モデルは、入力モジュールを介して取得した複数の学習画像及び複数の学習画像の中で腎臓又は肝臓の領域に対する情報に基づいて取得されてもよい。
一実施例によると、少なくとも一つの深層学習モデルは腎臓又肝臓を含む画像から腎臓又は肝臓の領域を抽出するためのモデルであってもよい。例えば、少なくとも一つの深層学習モデルは、画像と領域との間の関係、例えば、画像に含まれている複数の要素についての加重値を誘導するためのモデルであってもよい。様々な実施例において、複数の要素及び加重値は、深層学習モデルのトレーニング方法又はデータに基づいて、異なってもよい。一実施例によると、トレーニング方法は、Vネット・トレーニング(v-net training)を含んでもよい。
一実施例において、複数の学習画像及び複数の学習画像の中で腎臓又は肝臓の領域に対する情報は、予め取得したデータのセットであってもよい。例えば、複数の学習画像は、医療機関などが既に蓄積していたデータから取得されてもよい。一実施例において、複数の学習画像の中で腎臓又は肝臓に対応する領域の情報は、複数の学習画像に対する前処理を行うことで取得してもよい。前処理は、例えば、複数の学習画像に対して、既に医療機関などで領域を複数の学習画像に直接に表示する動作を実行することを含んでもよい。複数の学習画像の種類や数が多いほど、少なくとも一つの深層学習モデルの精度を向上させることができる。
様々な実施例において、ステップS201は省略されてもよい。例えば、既にメモリに記憶されていた少なくとも一つの深層学習モデルがある場合、医療用電子装置は、ステップS201を省略し、ステップS203を実行してもよい。この場合、医療用電子装置は、以下のステップS203~ステップS209で、既にメモリに記憶されていた少なくとも一つの深層学習モデルを使用してもよい。
ステップS203において、医療用電子装置は、テスト画像を取得してもよい。テスト画像は、入力モジュール、例えば、カメラモジュール、スキャンモジュール、及び通信モジュールのうちの少なくとも一つを用いて取得されてもよい。一実施例において、テスト画像は、腎臓又は肝臓の体積測定が要求される患者の身体の2次元断層画像であってもよい。
ステップS205において、医療用電子装置は、ステップS203で取得したテスト画像の中で腎臓又は肝臓に対応する領域を検出してもよい。例えば、医療用電子装置は、取得したテスト画像について、ステップ201で取得した深層学習モデルを適用してもよい。一実施例において、深層学習モデルは、複数の要素に対する加重値情報を含んでもよく、加重値は、テスト画像に含まれている複数の要素に対して適用されてもよい。これにより、医療用電子装置は、テスト画像の中で深層学習モデルに対応する特定の領域、例えば、腎臓又は肝臓に対応する領域を検出してもよい。
ステップS207において、医療用電子装置は、ステップS205で検出した領域の面積を取得してもよい。例えば、医療用電子装置は、テスト画像のサイズ、テスト画像の倍率、及び/又はテスト画像の中で検出した領域の割合などに基づいて、面積を取得してもよい。
ステップS209において、医療用電子装置は、ステップS203で取得したテスト画像に含まれている腎臓又は肝臓の体積を推定してもよい。例えば、医療用電子装置は、テスト画像が一つの対象、例えば、腎臓又は肝臓を含む人体に対して指定された間隔で連続的に撮像する場合、指定された間隔に基づいて、腎臓又は肝臓の体積を推定してもよい。例えば、テスト画像は、一つの対象について指定された間隔で連続的に撮像された複数の画像を含んでもよい。医療用電子装置は、複数の画像のそれぞれについて、ステップS207を連続的に行ってもよく、ステップS207の結果及び指定された間隔に基づいて、腎臓又は肝臓の体積を推定してもよい。
様々な実施例によると、医療用電子装置は、出力モジュールをさらに含んでもよく、ステップS209で推定された腎臓又は肝臓の体積を出力モジュールに表示してもよい。これにより、ユーザーは、テスト画像に対応する患者に対して、多嚢胞腎疾患又は多嚢胞肝疾患の進行状況を確認することができる。
ステップS201~ステップS209を通して、医療用電子装置は、テスト画像に含まれている腎臓又は肝臓の体積を正確かつ迅速に推定することができる。
図14は、一実施例に係る医療用電子装置が、腎臓又は肝臓の体積を推定し、深層学習モデルを更新する方法を示すフローチャートである。
図14を参照すると、医療用電子装置が腎臓又は肝臓の体積を推定し、深層学習モデルを更新する方法S300は、ステップS301~ステップS307を含んでもよい。様々な実施例によると、方法S300は、ステップS301~ステップS307のうちの少なくとも一つを省略してもよく、図14に示されていないステップをさらに含んでもよい。一実施例によると、ステップS301~ステップS307は、前述した医療用電子装置又はプロセッサによって実行される方法で理解され得る。図14の説明において、図13の説明と重複する内容は省略される場合がある。
ステップS301において、医療用電子装置は、テスト画像を用いて、テスト画像に含まれている腎臓又は肝臓の体積を推定してもよい。例えば、医療用電子装置は、図13に示されたステップS201~ステップS209を実行することにより、テスト画像に含まれている腎臓又は肝臓の体積を推定してもよい。
ステップS303において、医療用電子装置は、ステップS301で推定された腎臓又は肝臓の体積に基づいて、多嚢胞腎疾患又は多嚢胞肝疾患の進行状況を判断してもよい。例えば、医療用電子装置は、入力モジュールを介してテスト画像に対応する患者の腎臓又は肝臓の基準体積に関する情報を取得することができる。様々な実施例によると、基準体積は、患者の正常的な腎臓又は肝臓の体積であってもよく、又は数ヶ月前に測定された患者の腎臓又は肝臓の体積であってもよい。
一実施例によると、医療用電子装置は、ステップS301で取得した腎臓又は肝臓の体積が基準体積に比べてどの程度であるか、例えば、何倍に相当するかを算出することができる。医療用電子装置は、算出された結果に基づいて、患者の多嚢胞腎疾患又は多嚢胞肝疾患の進行状況を判断してもよい。
ステップS305において、医療用電子装置は、テスト画像及びテスト画像の中で検出した領域の情報をメモリに記憶してもよい。ステップS301を通してテスト画像の中で腎臓又は肝臓に対応する領域が検出された場合、テスト画像及び検出した領域は、新しい学習画像及び新しい学習画像の中で特定の領域に対する情報として使用され得る。学習画像の数が増加するほど、深層学習モデルの精度は高くなり得るので、医療用電子装置は、新しい学習画像及び新しい学習画像の中で特定の領域に対する情報をメモリに記憶してもよい。
ステップS307において、医療用電子装置は、深層学習モデルを更新(又は再取得)してもよい。医療用電子装置は、ステップS305を通して新しい学習画像及び新しい学習画像の中で特定の領域に対する情報を取得したので、既存のメモリに記憶されていた複数の学習画像及び複数の学習画像の中で特定の領域に対する情報と共に、新しい深層学習モデルを再取得したり、既存の深層学習モデルを更新したりしてもよい。これにより、医療用電子装置は、深層学習モデルを発展させることができ、より正確にテスト画像の中で腎臓又は肝臓に対応する領域を検出することができる。
ステップS301~ステップS307を通して、医療用電子装置は、多嚢胞腎疾患又は多嚢胞肝疾患の進行状況を正確かつ迅速に把握することができ、深層学習モデルの精度を向上させることができる。
図15は、一実施例に係る医療用電子装置が、少なくとも一つのテスト画像の腎臓又は肝臓の領域を抽出して表示した結果を示した図である。
図15を参照すると、第1テスト画像410及び第2テスト画像420が示されている。第1テスト画像410及び第2テスト画像420は、身体中で、例えば、腎臓を含む部分の断層を撮像した画像であってもよい。第1テスト画像410及び第2テスト画像420を参照すると、裸眼では、腎臓と他の部分との境界を明確に判断することが困難である。
一実施例において、本発明に係る深層学習モデルをそれぞれ第1テスト画像410及び第2テスト画像420に適用すると、第1加工画像411及び第2加工画像421が取得され得る。第1加工画像411及び第2加工画像421は、各々の第1テスト画像410及び第2テスト画像420のうち、腎臓に対応する第1領域412及び第2領域422が表示される画像であってもよい。
一実施例によると、テスト画像は、例えば、第1テスト画像410又は第2テスト画像420は、少なくとも一つの識別情報を含んでもよい。例えば、上記の識別情報は、患者に対する個人情報、撮像日時、撮像時間、撮像場所、断層間隔、又は縮尺情報のうちの少なくとも一つを含んでもよい。一実施例によると、本発明に係る深層学習モデルを適用する前に、前処理プロセスは、例えば、テスト画像410又は420の中で上記の識別情報を削除するプロセスやテスト画像410又は420の中で上記の識別情報を除いた残りの領域を抽出するプロセスが行われてもよい。上記の前処理プロセスは、例えば、前述したプロセッサによって実行されてもよい。
一実施例において、テスト画像410又は420に対して前処理プロセスが実行される場合、テスト画像410又は420に対する非識別化が行われ、目的とする領域の抽出精度を向上させることができる。すなわち、上記の前処理プロセスは、深層学習モデルの領域抽出に対する精度を向上させることができる。
一実施例によると、第1領域412及び第2領域422は、第1加工画像411及び第2加工画像421から分離されて抽出されてもよい。医療用電子装置は、抽出された第1領域412及び第2領域422の面積を取得することができ、これにより、第1テスト画像410及び第2テスト画像420に含まれている腎臓の体積を推定することができる。
以上で説明した装置は、ハードウェア構成要素、ソフトウェア構成要素、及び/又はハードウェア構成要素とソフトウェア構成要素との組み合わせで実装することができる。例えば、実施例で説明した装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、又は命令(instruction)を実行して応答することができる他の任意の装置のように、一つ以上の汎用コンピュータ又は特殊目的のコンピュータを利用して実装することができる。処理装置は、オペレーティングシステム(OS)及びオペレーティングシステム上で実行される一つ以上のソフトウェアアプリケーションを実行してもよい。また、処理装置は、ソフトウェアの実行に応答し、データをアクセス、記憶、操作、処理、及び生成してもよい。理解の便宜のために、一つの処理装置を使用することが説明される場合もあるが、当該技術分野における通常の知識を有する者であれば、処理装置が複数の処理要素(processing element)及び/又は複数の種類の処理要素を含み得ることがわかるであろう。例えば、処理装置は、複数のプロセッサ又は一つのプロセッサ及び一つのコントローラを含んでもよい。また、並列プロセッサ(parallel processor)などの他の処理構成(processing configuration)も可能である。
ソフトウェアは、コンピュータプログラム(computer program)、コード(code)、命令(instruction)、又はこれらのいずれか一つ以上又は複数の組み合わせを含んでもよく、必要に応じて動作するように処理装置を構成したり、独立又は結合して(collectively)処理装置に命令したりしてもよい。ソフトウェア及び/又はデータは、処理装置によって解釈したり、処理装置に命令又はデータを提供するために、いずれのタイプの機械、構成要素(component)、物理装置、仮想装置(virtual equipment)、コンピュータ記憶媒体又は装置、又は伝送される信号波(signal wave)に恒久的又は一時的に具体化(embody)されてもよい。ソフトウェアは、ネットワークに接続されたコンピュータシステム上に分散され、分散された方法で記憶されるか、又は実行されてもよい。ソフトウェア及びデータは、一つ以上のコンピュータ読み取り可能な記録媒体に記憶されてもよい。
実施例に係る方法は、様々なコンピュータ手段を介して実行されてもよいプログラム命令形式で実装され、コンピュータ読み取り可能な媒体に記録されてもよい。また、コンピュータ読み取り可能な媒体は、プログラム命令、データファイル、データ構造などを単独又は組み合わせで記憶してもよい。媒体に記録されるプログラム命令は、実施例のために特別に設計されて構成されたものであるか、又はコンピュータソフトウェア当業者に公知されて使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピーディスク、及び磁気テープなどの磁気媒体(magnetic media)、CD-ROM、DVDなどの光記録媒体(optical media)、フロップティカルディスク(floptical disk)などの磁気-光媒体(magneto-optical media)、及びROM、RAM、フラッシュメモリなどのプログラム命令を記憶し、実行するように特別に構成されたハードウェア装置が挙げられる。プログラム命令の例として、コンパイラによって作られるような機械語コードだけでなく、インタプリタなどを使用し、コンピュータによって実行されることができる高級言語コードが含まれる。上述したハードウェア装置は、実施例の動作を実行するための一つ以上のソフトウェアモジュールとして動作するように構成されてもよく、その逆の場合も同様である。
以上のように、限定された実施例及び図面によって実施例を説明したが、当該技術分野における通常の知識を有する者であれば、上記の記載から、様々な修正及び変形が可能であるだろう。例えば、説明された技術が説明された方法とは異なる順序で実行されたり、及び/又は説明されたシステム、構造、装置、回路などの構成要素を説明した方法とは異なる形式で結合又は組み合わせたり、他の構成要素又は均等物によって代替されるか置換されたりしても、適切な結果を達成することができる。
したがって、他の実装、他の実施例、及び特許請求の範囲と均等なものも、後述する「特許請求の範囲」の範囲に属する。

Claims (9)

  1. コンピューティング装置によって実行される臓器の体積測定方法であって、前記臓器を撮像した複数の画像及び撮像メタデータを取得し、前記複数の画像を前処理して指定したサイズの複数の画像パッチ(patch)を取得するステップと、前記複数の画像パッチを3D CNN(Convolutional Neural Network)に基づく神経網モデルに入力し、前記複数の画像パッチのそれぞれに対応する臓器領域を推定するステップと、前記推定された臓器領域の面積及び前記撮像メタデータを用いて前記臓器の体積を測定するステップと、前記神経網モデルの推定結果に基づいて、神経網モデルの不確実性数値及び複数の画像の不確実性数値を測定するステップと、前記複数の画像の不確実性数値に基づいて、前記複数の画像のうちの少なくとも一つの画像を変更するステップと、前記神経網モデルの不確実性数値に基づいて、前記神経網モデルのラベリングポリシーを変更するステップとを含む、臓器の体積測定方法。
  2. 前記臓器を撮像した複数の画像は、ダイコム(DICOM(Digital Imaging and Communications in Medicine))ファイルから取得したCT画像及び前記臓器に対するラベリング画像を含み、前記撮像メタデータは、前記複数の画像のそれぞれに対する画素間隔データ及び画像の深さデータを含む、請求項1に記載の臓器の体積測定方法。
  3. 前記複数の画像パッチを取得するステップは、前記複数の画像に含まれている第1画像に対して、データの拡張(Data Augmentation)を実行し、前記第1画像から複数の画像を生成し、前記生成した複数の画像を前処理して複数の画像パッチを取得するステップを含み、前記データの拡張は、前記画像の空間拡大、カラー増強、騒音増強、及びトリミングのうちの一つ以上を含む、請求項1に記載の臓器の体積測定方法。
  4. 前記複数の画像は、前記の臓器を撮像した複数の3D画像であり、前記複数の画像パッチを取得するステップは、前記複数の3D画像に対して深さ(depth)方向にスライドし、指定したサイズを有する前記複数の画像パッチを取得するステップを含む、請求項1に記載の臓器の体積測定方法。
  5. 前記神経網モデルは、学習手順及び推論手順でドロップアウト(Dropout)を実行し、前記神経網モデルの不確実性数値は、前記神経網モデルの推論手順での結果データの確率分布に対する分散値に基づいて測定される、請求項1に記載の臓器の体積測定方法。
  6. 前記複数の画像の不確実性数値は、前記神経網モデルの推論手順での結果データの分散推定値に基づいて測定される、請求項5に記載の臓器の体積測定方法。
  7. 前記複数の画像の不確実性数値に基づいて前記複数の画像のうちの少なくとも一つの画像を変更するステップは、前記複数の画像の不確実性数値が基準値以上である一つ以上の画像を検出するステップと、前記検出した画像の前記臓器領域に対するユーザーの入力に基づいて、前記検出した画像を変更するステップとを含む、請求項1に記載の臓器の体積測定方法。
  8. 前記変更されたラベリングポリシーに基づいて、複数の画像の加重値を設定し、前記変更された画像に対して変更前の画像よりも大きい加重値を付与して前記神経網モデルを学習させるステップをさらに含む、請求項7に記載の臓器の体積測定方法。
  9. なくとも一つのプロセッサ含む臓器体積測定装置であって、
    前記少なくとも一つのプロセッサは、
    前記臓器を撮像した複数の画像及び撮像メタデータを取得し、前記複数の画像を前処理して指定したサイズの複数の画像パッチ(patch)を取得し、
    前記複数の画像パッチを3D CNN(Convolutional Neural Network)に基づく神経網モデルに入力し、前記複数の画像パッチのそれぞれに対応する臓器領域を推定し、
    前記推定された臓器領域の面積及び前記撮像メタデータを用いて前記臓器の体積を測定し、
    前記神経網モデルの推定結果に基づいて、神経網モデルの不確実性数値及び複数の画像の不確実性数値を測定し、
    前記複数の画像の不確実性数値に基づいて、前記複数の画像のうちの少なくとも一つの画像を変更し、
    前記神経網モデルの不確実性数値に基づいて、前記神経網モデルのラベリングポリシーを変更するように構成される臓器体積測定装置。
JP2021533353A 2018-12-11 2019-12-11 人工神経網を利用する臓器の体積測定方法及びその装置 Active JP7239701B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023031702A JP7521834B2 (ja) 2018-12-11 2023-03-02 人工神経網を利用する臓器の体積測定方法及びその装置

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR1020180158812A KR102237009B1 (ko) 2018-12-11 2018-12-11 다낭 신 또는 다낭 간의 진행 상태를 판단하는 방법 및 이를 수행하기 위한 의료용 전자 장치
KR10-2018-0158812 2018-12-11
KR10-2019-0162842 2019-12-09
KR1020190162842A KR102328198B1 (ko) 2019-12-09 2019-12-09 인공신경망을 이용한 장기의 부피 측정 방법 및 그 장치
PCT/KR2019/017514 WO2020122606A1 (ko) 2018-12-11 2019-12-11 인공신경망을 이용한 장기의 부피 측정 방법 및 그 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023031702A Division JP7521834B2 (ja) 2018-12-11 2023-03-02 人工神経網を利用する臓器の体積測定方法及びその装置

Publications (2)

Publication Number Publication Date
JP2022511965A JP2022511965A (ja) 2022-02-01
JP7239701B2 true JP7239701B2 (ja) 2023-03-14

Family

ID=71077346

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021533353A Active JP7239701B2 (ja) 2018-12-11 2019-12-11 人工神経網を利用する臓器の体積測定方法及びその装置
JP2023031702A Active JP7521834B2 (ja) 2018-12-11 2023-03-02 人工神経網を利用する臓器の体積測定方法及びその装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023031702A Active JP7521834B2 (ja) 2018-12-11 2023-03-02 人工神経網を利用する臓器の体積測定方法及びその装置

Country Status (5)

Country Link
US (1) US12056890B2 (ja)
EP (1) EP3895600A4 (ja)
JP (2) JP7239701B2 (ja)
CN (1) CN113412082A (ja)
WO (1) WO2020122606A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11763934B1 (en) * 2018-02-09 2023-09-19 Robert Edwin Douglas Method and apparatus for a simulated physiologic change for CT and MRI examinations
KR102241724B1 (ko) * 2020-05-22 2021-04-19 주식회사 루닛 레이블 정보를 보정하는 방법 및 시스템
US11842485B2 (en) * 2021-03-04 2023-12-12 GE Precision Healthcare LLC System and methods for inferring thickness of anatomical classes of interest in two-dimensional medical images using deep neural networks
KR102682936B1 (ko) * 2022-10-27 2024-07-09 주식회사 아이도트 요로위치 추정 시스템
CN116311086B (zh) * 2023-05-23 2023-08-22 苏州浪潮智能科技有限公司 植物监测方法、植物监测模型的训练方法、装置及设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002230518A (ja) 2000-11-29 2002-08-16 Fujitsu Ltd 診断支援プログラム、診断支援プログラムを記録したコンピュータ読取可能な記録媒体、診断支援装置及び診断支援方法
JP2015205164A (ja) 2014-04-10 2015-11-19 株式会社東芝 医用画像表示装置および医用画像表示システム
JP2017202031A (ja) 2016-05-09 2017-11-16 東芝メディカルシステムズ株式会社 医用情報処理装置
US20180099152A1 (en) 2016-10-07 2018-04-12 Siemens Healthcare Gmbh Method for supporting radiation treatment planning for a patient
US20180330518A1 (en) 2017-05-11 2018-11-15 Verathon Inc. Probability map-based ultrasound scanning

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100332072B1 (ko) * 1999-02-18 2002-04-10 박종원 단층촬영 영상으로부터의 장기 추출 및 체적산출방법
JP5133505B2 (ja) 2005-06-24 2013-01-30 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 画像判定装置およびx線ct装置
EP2194504A1 (en) * 2008-12-02 2010-06-09 Koninklijke Philips Electronics N.V. Generation of a depth map
US10339648B2 (en) 2013-01-18 2019-07-02 H. Lee Moffitt Cancer Center And Research Institute, Inc. Quantitative predictors of tumor severity
KR20150049585A (ko) * 2013-10-30 2015-05-08 삼성전자주식회사 용종 검출 장치 및 그 동작방법
AU2015246630A1 (en) * 2014-04-15 2016-10-13 4DMedical Limited Method of imaging
KR101659578B1 (ko) * 2015-09-01 2016-09-23 삼성전자주식회사 자기 공명 영상 처리 방법 및 장치
CN108882896B (zh) 2015-09-23 2022-05-27 史赛克欧洲运营有限公司 用于评定组织的治愈的方法和系统
US10517678B2 (en) 2015-10-02 2019-12-31 Heartflow, Inc. System and method for diagnosis and assessment of cardiovascular disease by comparing arterial supply capacity to end-organ demand
KR102510760B1 (ko) 2016-02-15 2023-03-16 삼성전자주식회사 영상처리장치, 영상처리방법 및 이를 기록한 기록매체
EP3471623B1 (en) * 2016-06-20 2023-01-25 Butterfly Network, Inc. Automated image acquisition for assisting a user to operate an ultrasound device
US10304198B2 (en) * 2016-09-26 2019-05-28 Siemens Healthcare Gmbh Automatic medical image retrieval
US10096109B1 (en) * 2017-03-31 2018-10-09 The Board Of Trustees Of The Leland Stanford Junior University Quality of medical images using multi-contrast and deep learning
EP3629898A4 (en) * 2017-05-30 2021-01-20 Arterys Inc. AUTOMATED LESION DETECTION, SEGMENTATION AND LONGITUDINAL IDENTIFICATION
US10478134B2 (en) * 2017-09-26 2019-11-19 General Electric Company Systems and methods for improved diagnostics for nuclear medicine imaging
KR101864380B1 (ko) 2017-12-28 2018-06-04 (주)휴톰 수술영상데이터 학습시스템
KR102215805B1 (ko) 2018-01-30 2021-02-17 연세대학교 원주산학협력단 딥러닝 기술을 통한 흉부 물질 분리 영상 획득 방법 및 시스템
KR102683757B1 (ko) * 2018-02-20 2024-07-10 삼성전자주식회사 심층 신경망의 학습을 수행시키는 방법 및 그에 대한 장치
EP3660741B1 (en) * 2018-11-29 2022-05-04 Koninklijke Philips N.V. Feature identification in medical imaging
US11275976B2 (en) * 2019-04-05 2022-03-15 Siemens Healthcare Gmbh Medical image assessment with classification uncertainty

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002230518A (ja) 2000-11-29 2002-08-16 Fujitsu Ltd 診断支援プログラム、診断支援プログラムを記録したコンピュータ読取可能な記録媒体、診断支援装置及び診断支援方法
JP2015205164A (ja) 2014-04-10 2015-11-19 株式会社東芝 医用画像表示装置および医用画像表示システム
JP2017202031A (ja) 2016-05-09 2017-11-16 東芝メディカルシステムズ株式会社 医用情報処理装置
US20180099152A1 (en) 2016-10-07 2018-04-12 Siemens Healthcare Gmbh Method for supporting radiation treatment planning for a patient
US20180330518A1 (en) 2017-05-11 2018-11-15 Verathon Inc. Probability map-based ultrasound scanning

Also Published As

Publication number Publication date
EP3895600A4 (en) 2022-03-02
US20220036575A1 (en) 2022-02-03
EP3895600A1 (en) 2021-10-20
US12056890B2 (en) 2024-08-06
WO2020122606A1 (ko) 2020-06-18
JP7521834B2 (ja) 2024-07-24
JP2023078193A (ja) 2023-06-06
CN113412082A (zh) 2021-09-17
JP2022511965A (ja) 2022-02-01

Similar Documents

Publication Publication Date Title
JP7239701B2 (ja) 人工神経網を利用する臓器の体積測定方法及びその装置
JP7134962B2 (ja) 解剖学的画像処理における確率的セグメンテーションのためのシステム及び方法
US10810512B1 (en) Validating a machine learning model prior to deployment
JP7170145B2 (ja) 情報処理装置、プログラム、学習済みモデル、診断支援装置、学習装置及び予測モデルの生成方法
EP3791316A1 (en) Localization and classification of abnormalities in medical images
EP3861560A1 (en) Method for detecting adverse cardiac events
WO2019051356A1 (en) SYSTEM AND METHOD FOR AUTOMATICALLY LABELING AND ANNOUNTING NON-STRUCTURED MEDICAL DATA SETS
KR102328198B1 (ko) 인공신경망을 이용한 장기의 부피 측정 방법 및 그 장치
CN110866909A (zh) 图像生成网络的训练方法、图像预测方法和计算机设备
CN110751187B (zh) 异常区域图像生成网络的训练方法和相关产品
Babarenda Gamage et al. An automated computational biomechanics workflow for improving breast cancer diagnosis and treatment
KR102043829B1 (ko) 병변 발생 시점 추정 방법, 장치 및 프로그램
CN112750110A (zh) 基于神经网络对肺部病灶区进行评估的评估系统和相关产品
US20230126877A1 (en) Synthetic data generation and annotation for tumor diagnostics and treatment
CN114092427B (zh) 一种基于多序列mri图像的克罗病与肠结核分类方法
CN115841476A (zh) 肝癌患者生存期预测方法、装置、设备及介质
Wijerathna et al. Brain Tumor Detection Using Image Processing
KR20210145359A (ko) 신부전증의 진단에 대한 정보 제공 방법 및 이를 이용한 디바이스
KR102671699B1 (ko) 신장암의 진단에 필요한 정보를 제공하는 방법 및 장치
CN114450752A (zh) 用于利用深度学习模型的计算机辅助诊断的方法和系统
Anima et al. On the Automated unruptured Intracranial Aneurysm segmentation from TOF-MRA using Deep Learning Techniques.
US20240268699A1 (en) Automated quantitative joint and tissue analysis and diagnosis
US20240186022A1 (en) Progression profile prediction
US20240203039A1 (en) Interpretable task-specific dimensionality reduction
US20230274424A1 (en) Appartus and method for quantifying lesion in biometric image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230302

R150 Certificate of patent or registration of utility model

Ref document number: 7239701

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150