JPWO2020184257A1 - 医用画像処理装置及び方法 - Google Patents

医用画像処理装置及び方法 Download PDF

Info

Publication number
JPWO2020184257A1
JPWO2020184257A1 JP2021504938A JP2021504938A JPWO2020184257A1 JP WO2020184257 A1 JPWO2020184257 A1 JP WO2020184257A1 JP 2021504938 A JP2021504938 A JP 2021504938A JP 2021504938 A JP2021504938 A JP 2021504938A JP WO2020184257 A1 JPWO2020184257 A1 JP WO2020184257A1
Authority
JP
Japan
Prior art keywords
notification information
medical image
display
image
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021504938A
Other languages
English (en)
Other versions
JP7216187B2 (ja
Inventor
星矢 竹之内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2020184257A1 publication Critical patent/JPWO2020184257A1/ja
Application granted granted Critical
Publication of JP7216187B2 publication Critical patent/JP7216187B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/373Details of the operation on graphic patterns for modifying the size of the graphic pattern
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0442Handling or displaying different aspect ratios, or changing the aspect ratio
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • G09G2340/145Solving problems related to the presentation of information to be displayed related to small screens
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/04Display device controller operating with a plurality of display units
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/08Biomedical applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Epidemiology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Primary Health Care (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Computer Hardware Design (AREA)
  • Quality & Reliability (AREA)
  • Software Systems (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Business, Economics & Management (AREA)
  • Optics & Photonics (AREA)
  • Evolutionary Biology (AREA)
  • General Business, Economics & Management (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

医用画像による検査が阻害されず、かつ報知情報による支援結果の利活用を十分に機能させることができる医用画像処理装置及び方法を提供する。医用画像を取得する画像取得部(40)と、画像取得部(40)により取得した医用画像に基づいて医用画像又は医用画像に含まれる注目領域を分類する分類部(42)と、分類された分類結果に応じて表示用の第1報知情報と、第1報知情報と異なる保存用の第2報知情報とを生成する報知情報生成部(43)と、医用画像及び第2報知情報を保存する記録部(48)と、を備える。ここで、表示用の第1報知情報と保存用の第2報知情報とを異ならせることで、表示用の第1報知情報は、ユーザ(医師)のみが認識できる報知形式(患者等が認識できない形式)の第1報知情報とすることができ、一方、保存用の第2報知情報は、ユーザ以外も理解できる報知形式とすることができる。

Description

本発明は医用画像処理装置及び方法に係り、特に医用画像に基づいて病変等を自動的に分類した分類結果を医師や患者に報知する技術に関する。
特許文献1には、医師に提供する分類結果と患者に提供する分類結果とを異ならせる画像処理装置が記載されている。
特許文献1に記載の画像処理装置は、時系列で撮影された画像群に含まれる画像毎に、各画像内の病変候補領域を異なる基準(病変候補としての信頼度の高さ)により分類する。そして、信頼度の低い基準以上の病変候補領域と他の領域とを識別可能な第1映像信号を生成し、医師用の第1表示装置に出力し、信頼度の高い基準以上の病変候補領域と他の領域とを識別可能な第2映像信号を生成し、患者用の第2表示装置に出力する。
これにより、患者に提供する必要のない情報(信頼度の低い病変候補領域の情報)を患者に提供しないようにし、患者に対しては余計な不安を煽ることがないようにしている。
特開2017−213058号公報
医用画像から病変が癌性であるか、非癌性であるかを分類し、その分類結果をユーザに報知する支援システムが期待されている。
分類結果を報知する際、文言や形式、位置などユーザの診断を阻害しない形でされることが望ましい。また、明確に癌性であると認識できる形で報知すると、ユーザ以外、特に患者にとっては余計に不安を煽ることになる。しかし、検査するユーザのみが認識できる形式だと学会などで専門家の理解を得ることが難しくなる可能性もある。
特許文献1に記載の画像処理装置は、画像内の病変候補領域を異なる信頼度の基準で分類し、その分類結果が視認可能な医師用の第1映像信号と患者用の第2映像信号とを生成し、それぞれ医師用の第1表示装置及び患者用の第2表示装置に表示させるため、医師と患者に同じ情報(同一の医用画像と分類結果)を報知することは想定されていない。また、特許文献1には、医用画像と分類結果とを関連付けて保存する記録部に関する記載はない。
本発明はこのような事情に鑑みてなされたもので、医用画像の分類結果に応じて表示用と保存用の複数の形式で報知情報を生成することで、医用画像による検査が阻害されず、かつ報知情報による支援結果の利活用を十分に機能させることができる医用画像処理装置及び方法を提供することを目的とする。
上記目的を達成するために本発明の一の態様に係る医用画像処理装置は、医用画像を取得する画像取得部と、画像取得部により取得した医用画像に基づいて医用画像又は医用画像に含まれる注目領域を分類する分類部と、分類された分類結果に応じて表示用の第1報知情報と、第1報知情報と異なる保存用の第2報知情報とを生成する報知情報生成部と、医用画像及び第2報知情報を保存する記録部と、を備える。
本発明の一の態様によれば、取得した医用画像に基づいて医用画像又は医用画像に含まれる注目領域を分類し、分類した分類結果に応じて表示用の第1報知情報と、第1報知情報と異なる保存用の第2報知情報とを生成する。生成された保存用の第2報知情報は、医用画像とともに記録部に保存される。ここで、表示用の第1報知情報と保存用の第2報知情報とを異ならせることで、表示用の第1報知情報は、ユーザ(医師)のみが認識できる報知形式(患者等が認識できない形式)の第1報知情報とすることができ、一方、保存用の第2報知情報は、ユーザ以外も理解できる報知形式とすることができる。
本発明の他の態様に係る医用画像処理装置において、記録部は、医用画像と第2報知情報とが合成された合成画像を保存することが好ましい。
本発明の更に他の態様に係る医用画像処理装置において、記録部は、医用画像と第2報知情報とを関連付けて保存することが好ましい。
本発明の更に他の態様に係る医用画像処理装置において、記録部は、複数の記録部からなり、報知情報生成部は、複数の記録部の総数を上限として複数の第2報知情報を生成し、複数の記録部は、医用画像及び複数の第2報知情報のうちの各記録部に対応する第2報知情報を保存することが好ましい。
本発明の更に他の態様に係る医用画像処理装置において、医用画像及び第1報知情報を表示部に表示させる表示制御部を備えることが好ましい。
本発明の更に他の態様に係る医用画像処理装置において、報知情報生成部は、複数の表示部の総数を上限として複数の第1報知情報を生成し、表示制御部は、医用画像及び複数の第1報知情報をそれぞれ複数の表示部に対応して表示させることが好ましい。例えば、ユーザ用の表示部に表示させる第1報知情報と、患者用の表示部に表示させる第1報知情報とを異ならせることができる。
本発明の更に他の態様に係る医用画像処理装置において、報知情報生成部は、分類結果の詳細が患者に伝わらない報知形式の第1報知情報と分類結果の詳細を示す第2報知情報とを生成することが好ましい。
本発明の更に他の態様に係る医用画像処理装置において、分類結果は、分類される病変の確信度の情報を含み、報知情報生成部は、確信度の情報が省略された第1報知情報と確信度の情報を含む第2報知情報とを生成することが好ましい。
本発明の更に他の態様に係る医用画像処理装置において、報知情報生成部は、表示部の解像度情報から分類結果の表示領域を取得し、表示領域の大きさに対応して分類結果の詳細が簡略化された第1報知情報と分類結果の詳細を示す第2報知情報とを生成することが好ましい。表示部の解像度により分類結果を表示する表示領域を十分に確保できない場合がある。この場合、表示領域の大きさに収まるように第1報知情報を簡略化して表示することが好ましい。
本発明の更に他の態様に係る医用画像処理装置において、画像取得部は、時系列の医用画像を取得し、記録部は、時系列の医用画像及び第2報知情報、又は時系列の医用画像に含まれる静止画撮影された医用画像及び第2報知情報を保存することが好ましい。
本発明の更に他の態様に係る医用画像処理方法は、医用画像を取得するステップと、取得した医用画像に基づいて医用画像又は医用画像に含まれる注目領域を分類するステップと、分類された分類結果に応じて表示用の第1報知情報と、第1報知情報と異なる保存用の第2報知情報とを生成するステップと、医用画像及び第1報知情報を表示部に表示させるステップと、医用画像及び第2報知情報を保存するステップと、を含む。
本発明によれば、医用画像の分類結果に応じて表示用と保存用の複数の形式で報知情報を生成することで、医用画像による検査が阻害されず、かつ報知情報による支援結果の利活用を十分に機能させることができる。
図1は、本発明に係る医用画像処理装置を含む内視鏡システム9の全体構成を示す概略図である。 図2は、医用画像処理装置14の実施形態を示すブロック図である。 図3は、本例の分類部42に適用されるCNNの代表的な構成例を示す模式図である。 図4は、分類結果と表示用の第1報知情報、保存用の第2報知情報との関係を示す図表である。 図5Aは、表示用の第1合成画像の報知形式の第1実施形態を示す図である。 図5Bは、保存用の第2合成画像の報知形式の第1実施形態を示す図である。 図6Aは、表示用の第1合成画像の報知形式の第1実施形態の変形例を示す図である。 図6Bは、保存用の第2合成画像の報知形式の第1実施形態の変形例を示す図である。 図7Aは、表示用の第1合成画像の報知形式の第2実施形態を示す図である。 図7Bは、保存用の第2合成画像の報知形式の第2実施形態を示す図である。 図8Aは、表示用の第1合成画像の報知形式の第3実施形態を示す図である。 図8Bは、保存用の第2合成画像の報知形式の第3実施形態を示す図である。 図9は、表示器と記録部の数に応じた分類結果と表示用の第1報知情報、保存用の第2報知情報との関係を示す図表である。 図10Aは、保存用1の第2報知情報が合成された保存用1の合成画像を示す図である。 図10Bは、保存用2の第2報知情報が合成された保存用2の合成画像を示す図である。 図11Aは、表示用1の第1報知情報が合成された表示用1の合成画像を示す図である。 図11Bは、表示用2の第1報知情報が合成された表示用2の合成画像を示す図である。 図12は、本発明に係る医用画像処理方法の実施形態を示すフローチャートである。
以下、添付図面に従って本発明に係る医用画像処理装置及び方法の好ましい実施形態について説明する。
[医用画像処理装置を含む内視鏡システムの全体構成]
図1は、本発明に係る医用画像処理装置を含む内視鏡システム9の全体構成を示す概略図である。
図1に示すように、内視鏡システム9は、電子内視鏡である内視鏡スコープ10と、光源装置11と、内視鏡プロセッサ装置12と、表示装置13と、医用画像処理装置14と、操作部15と、表示器16と、を備える。
内視鏡スコープ10は、被写体像を含む時系列の医用画像を撮影するものであり、例えば軟性内視鏡である。この内視鏡スコープ10は、被検体内に挿入され且つ先端と基端とを有する挿入部20と、挿入部20の基端側に連設され且つ術者が把持して各種操作を行う手元操作部21と、手元操作部21に連設されたユニバーサルコード22と、を有する。
挿入部20は、全体が細径で長尺状に形成されている。挿入部20は、その基端側から先端側に向けて順に可撓性を有する軟性部25と、手元操作部21の操作により湾曲可能な湾曲部26と、不図示の撮像光学系(対物レンズ)及び撮像素子28等が内蔵される先端部27と、が連設されて構成される。
撮像素子28は、CMOS(complementary metal oxide semiconductor)型又はCCD(charge coupled device)型の撮像素子である。撮像素子28の撮像面には、先端部27の先端面に開口された不図示の観察窓、及びこの観察窓の後方に配置された不図示の対物レンズを介して、被観察部位の像光が入射する。撮像素子28は、その撮像面に入射した被観察部位の像光を撮像(電気信号に変換)して、撮像信号を出力する。
手元操作部21には、術者によって操作される各種操作部材が設けられている。具体的に、手元操作部21には、湾曲部26の湾曲操作に用いられる2種類の湾曲操作ノブ29と、送気送水操作用の送気送水ボタン30と、吸引操作用の吸引ボタン31と、が設けられている。また、手元操作部21には、被観察部位の静止画39の撮影指示を行うための静止画撮影指示部32と、挿入部20内を挿通している処置具挿通路(不図示)内に処置具(不図示)を挿入する処置具導入口33と、が設けられている。
ユニバーサルコード22は、内視鏡スコープ10を光源装置11に接続するための接続コードである。このユニバーサルコード22は、挿入部20内を挿通しているライトガイド35、信号ケーブル36、及び流体チューブ(不図示)を内包している。また、ユニバーサルコード22の端部には、光源装置11に接続されるコネクタ37aと、このコネクタ37aから分岐され且つ内視鏡プロセッサ装置12に接続されるコネクタ37bと、が設けられている。
コネクタ37aを光源装置11に接続することで、ライトガイド35及び流体チューブ(不図示)が光源装置11に挿入される。これにより、ライトガイド35及び流体チューブ(不図示)を介して、光源装置11から内視鏡スコープ10に対して必要な照明光と水と気体とが供給される。その結果、先端部27の先端面の照明窓(不図示)から被観察部位に向けて照明光が照射される。また、前述の送気送水ボタン30の押下操作に応じて、先端部27の先端面の送気送水ノズル(不図示)から先端面の観察窓(不図示)に向けて気体又は水が噴射される。
コネクタ37bを内視鏡プロセッサ装置12に接続することで、信号ケーブル36と内視鏡プロセッサ装置12とが電気的に接続される。これにより、信号ケーブル36を介して、内視鏡スコープ10の撮像素子28から内視鏡プロセッサ装置12へ被観察部位の撮像信号が出力されると共に、内視鏡プロセッサ装置12から内視鏡スコープ10へ制御信号が出力される。
光源装置11は、コネクタ37aを介して、内視鏡スコープ10のライトガイド35へ照明光を供給する。照明光は、白色光(白色の波長帯域の光又は複数の波長帯域の光)、或いは1又は複数の特定の波長帯域の光、或いはこれらの組み合わせなど観察目的に応じた各種波長帯域の特殊光が選択される。尚、特定の波長帯域は、白色の波長帯域よりも狭い帯域である。
各種波長帯域の特殊光は、特殊光画像(BLI(Blue Light Imaging or Blue LASER Imaging)、LCI(Linked Color Imaging)、又はNBI(Narrow Band Imaging))用の特殊光を含む。
BLI用の照明光は、表層血管での吸収率が高い紫色光の比率が高く、中層血管での吸収率が高い緑色光の比率を抑えた照明光であり、被検体の粘膜表層の血管や構造の強調に適した画像(BLI)の生成に適している。
LCI用の照明光は、紫色光の比率が白色光に比べて高く、白色光と比べて微細な色調変化を捉えるのに適した照明光であり、赤色成分の信号も利用して粘膜付近の色を中心に、赤味を帯びている色はより赤く、白っぽい色はより白くなるような色強調処理が行われた画像(LCI)の生成に適している。
また、NBIの照明光は、照射する照明光の波長の範囲を狭くすることで、照射される面の細かな変化を強調した画像(NBI)の生成に適している。
特定の波長帯域の第1例は、例えば可視域の青色帯域又は緑色帯域である。この第1例の波長帯域は、390nm以上450nm以下又は530nm以上550nm以下の波長帯域を含み、且つ第1例の光は、390nm以上450nm以下又は530nm以上550nm以下の波長帯域内にピーク波長を有する。
特定の波長帯域の第2例は、例えば可視域の赤色帯域である。この第2例の波長帯域は、585nm以上615nm以下又は610nm以上730nm以下の波長帯域を含み、且つ第2例の光は、585nm以上615nm以下又は610nm以上730nm以下の波長帯域内にピーク波長を有する。
特定の波長帯域の第3例は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、且つ第3例の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有する。この第3例の波長帯域は、400±10nm、440±10nm、470±10nm、又は600nm以上750nm以下の波長帯域を含み、且つ第3例の光は、上記400±10nm、440±10nm、470±10nm、又は600nm以上750nm以下の波長帯域にピーク波長を有する。
特定の波長帯域の第4例は、生体内の蛍光物質が発する蛍光の観察(蛍光観察)に用いられ且つこの蛍光物質を励起させる励起光の波長帯域(390nmから470nm)である。
特定の波長帯域の第5例は、赤外光の波長帯域である。この第5例の波長帯域は、790nm以上820nm以下又は905nm以上970nm以下の波長帯域を含み、且つ第5例の光は、790nm以上820nm以下又は905nm以上970nm以下の波長帯域にピーク波長を有する。
内視鏡プロセッサ装置12は、コネクタ37b及び信号ケーブル36を介して、内視鏡スコープ10の動作を制御する。また、内視鏡プロセッサ装置12は、コネクタ37b及び信号ケーブル36を介して内視鏡スコープ10の撮像素子28から取得した撮像信号に基づき、被写体像を含む時系列のフレーム画像38aからなる画像(「動画38」ともいう)を生成する。更に、内視鏡プロセッサ装置12は、内視鏡スコープ10の手元操作部21にて静止画撮影指示部32が操作された場合、動画38の生成と並行して、動画38中の1枚のフレーム画像を撮影指示のタイミングに応じた静止画39とする。
動画38及び静止画39は、被検体内、即ち生体内を撮像した医用画像である。更に動画38及び静止画39が、上述の特定の波長帯域の光(特殊光)により得られた画像である場合、両者は特殊光画像である。そして、内視鏡プロセッサ装置12は、生成した動画38及び静止画39を、表示装置13と医用画像処理装置14とにそれぞれ出力する。
尚、内視鏡プロセッサ装置12は、上述の白色光により得られた通常光画像に基づいて、上述の特定の波長帯域の情報を有する特殊光画像を生成(取得)してもよい。この場合、内視鏡プロセッサ装置12は、特殊光画像取得部として機能する。そして、内視鏡プロセッサ装置12は、特定の波長帯域の信号を、通常光画像に含まれる赤、緑、及び青[RGB(Red,Green,Blue)]あるいはシアン、マゼンタ、及びイエロー[CMY(Cyan,Magenta,Yellow)]の色情報に基づく演算を行うことで得る。
また、内視鏡プロセッサ装置12は、例えば、上述の白色光により得られた通常光画像と、上述の特定の波長帯域の光(特殊光)により得られた特殊光画像との少なくとも一方に基づいて、公知の酸素飽和度画像等の特徴量画像を生成してもよい。この場合、内視鏡プロセッサ装置12は、特徴量画像生成部として機能する。尚、上記の生体内画像、通常光画像、特殊光画像、及び特徴量画像を含む動画38又は静止画39は、いずれも画像による診断、検査の目的でヒトの人体を撮像し、又は計測した結果を画像化した医用画像である。
表示装置13は、内視鏡プロセッサ装置12に接続されており、この内視鏡プロセッサ装置12から入力された動画38及び静止画39を表示する表示部として機能する。ユーザ(医師)は、表示装置13に表示される動画38を確認しながら、挿入部20の進退操作等を行い、被観察部位に病変等を発見した場合には静止画撮影指示部32を操作して被観察部位の静止画撮像を実行し、また、診断、生検等を行う。
[医用画像処理装置]
医用画像処理装置14は、主として時系列の医用画像に基づいて撮影中の医用画像又は医用画像に含まれる注目領域を2以上のクラスのうちのいずれかに分類し、分類結果をユーザに報知するものであり、本実施形態では、例えばパーソナルコンピュータが用いられる。また、操作部15は、パーソナルコンピュータに有線接続又は無線接続されるキーボード及びマウス等が用いられ、表示器(表示部)16はパーソナルコンピュータに接続可能な液晶モニタ等の各種モニタが用いられる。
図2は、医用画像処理装置14の実施形態を示すブロック図である。
図2に示す医用画像処理装置14は、主として画像取得部40、CPU(Central Processing Unit)41、分類部42、報知情報生成部43、合成画像生成部44、表示制御部46、記憶部47、及び記録部48から構成されている。
CPU41は、記憶部47に記憶されたプログラムに基づいて動作し、画像取得部40、分類部42、報知情報生成部43、合成画像生成部44、表示制御部46及び記録部48を統括制御し、また、これらの各部の一部として機能する。
画像取得部40は、内視鏡プロセッサ装置12(図1)に有線接続又は無線接続された不図示の画像入出力インターフェースを用いて、内視鏡プロセッサ装置12から被写体像を含む時系列のフレーム画像38aからなる画像(本例では、内視鏡スコープ10により撮影される動画38)を取得する。また、内視鏡スコープ10にて動画38の撮影途中に既述の静止画39の撮像が行われた場合、画像取得部40は、内視鏡プロセッサ装置12から動画38及び静止画39を取得する。
分類部42は、画像取得部40により取得された時系列のフレーム画像38aに基づいてフレーム画像38aの特徴量を取得し、取得した特徴量に基づいて各フレーム画像38a、又は各フレーム画像38aに含まれる注目領域を2以上のクラスのうちのいずれかに分類する。
本例では、後述するように2以上のクラスとして、「非腫瘍性」、「腫瘍性」、「その他」の3つのクラスのうちの1つのクラスに分類する。
報知情報生成部43は、分類部42により分類されたフレーム画像38a又は注目領域の分類結果に応じて表示用の第1報知情報と、第1報知情報と異なる保存用の第2報知情報とを生成する部分である。尚、報知情報生成部43の詳細については後述する。
合成画像生成部44は、フレーム画像38aとそのフレーム画像38aの分類結果に応じて生成された表示用の第1報知情報とを合成した合成画像(表示用の第1合成画像)と、フレーム画像38aとそのフレーム画像38aの分類結果に応じて生成された保存用の第2報知情報とを合成した合成画像(保存用の第2合成画像)とを生成する。
表示制御部46は、画像取得部40が取得した医用画像(動画38、静止画39)に基づいて表示用の画像データを生成して表示器16に出力するが、合成画像生成部44により表示用の第1合成画像が生成された場合には、表示用の第1合成画像の画像データを優先して表示器16に出力する。
これにより、表示器16には医用画像が表示され、また、病変等の注目領域を有する医用画像に対しては、その医用画像又は注目領域の分類結果を示す表示用の第1報知情報(即ち、表示用の第1合成画像)が表示される。
記憶部47は、CPU41の作業領域として機能したり、オペレーティングシステム、医用画像処理プログラム等の各種のプログラム、医用画像の分類結果とその分類結果に対応する第1報知情報、第2報知情報との関係を示すテーブル等を記憶する記憶部として機能する。
記録部48は、撮影された動画38や静止画39を保存するが、合成画像生成部44により保存用の第2合成画像が生成された場合には、保存用の第2合成画像を優先して保存する。
<分類部>
次に、分類部42の一実施形態について説明する。
本例の分類部42は、画像(フレーム画像38a)から特徴量を算出し、画像の認識処理を行う畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を含み、画像内の色情報、画素値の勾配等で特徴量を算出する。分類部42は、算出した特徴量に基づいて画像(医用画像)又は画像に含まれる注目領域を、本例では「非腫瘍性」、「腫瘍性」、「その他」といった複数のクラスのうちのいずれかに分類する。
図3は、本例の分類部42に適用されるCNNの代表的な構成例を示す模式図である。
図3に示すように、分類部(CNN)42は、入力層42Aと、畳み込み層とプーリング層から構成された複数セット、及び全結合層を有する中間層42Bと、出力層42Cとを備え、各層は複数の「ノード」が「エッジ」で結ばれる構造となっている。
入力層42Aには、動画38の各フレーム画像38aが順次入力される。
中間層42Bは、畳み込み層とプーリング層とを1セットとする複数セットと、全結合層とを有し、入力層から入力したフレーム画像38aから特徴量を抽出する。畳み込み層は、前の層で近くにあるノードにフィルタ処理し(フィルタを使用した畳み込み演算を行い)、「特徴マップ」を取得する。プーリング層は、畳み込み層から出力された特徴マップを縮小して新たな特徴マップとする。「畳み込み層」は、画像からのエッジ抽出等の特徴抽出の役割を担い、「プーリング層」は抽出された特徴が、平行移動などによる影響を受けないようにロバスト性を与える役割を担う。
尚、中間層42Bには、畳み込み層とプーリング層とを1セットとする場合に限らず、畳み込み層が連続する場合や正規化層も含まれる。
全結合層は、前の層の全てのノードと重み付き結合し、活性化関数によって変換された値(特徴変数)を出力する部分であり、本例では、フレーム画像38a又はフレーム画像38aに含まれる病変等の注目領域に対する分類ごとの特徴変数を出力する。
推論部として機能する出力層42Cは、全結合層からの出力(特徴変数)を元に、ソフトマックス関数を用いて確率に変換し、分類する各クラスに対するスコア(確率)を算出する。本例では、フレーム画像38a又は注目領域を「非腫瘍性」、「腫瘍性」、「その他」の3つのクラスのいずれかに分類するため、出力層42Cは、3つのクラスのスコア(3つのスコアの合計は100%)のうちのスコアが最大となるクラスと、そのクラスのスコアを分類結果として出力する。
尚、中間層42Bの各畳み込み層にて使用されるフィルタのパラメータや全結合層の重み係数等は、予め多数の学習データにより最適化されている。
図4は、分類結果と表示用の第1報知情報、保存用の第2報知情報との関係を示す図表である。
図4に示す例では、医用画像又は医用画像に含まれる注目領域の分類結果が「非腫瘍性」の場合、表示用の第1報知情報は「NN」の文字情報であり、保存用の第2報知情報は「nonneoplastic」の文字情報である。
また、分類結果が「腫瘍性」の場合、表示用の第1報知情報は「N」の文字情報であり、保存用の第2報知情報は「neoplastic」の文字情報であり、分類結果が「その他」の場合、表示用の第1報知情報は「O」の文字情報であり、保存用の第2報知情報は「other」の文字情報である。
図4に示す例では、表示用の第1報知情報は、保存用の第2報知情報の頭文字となっており、異なる分類結果の頭文字が共通する場合には、少なくとも区別できる簡略化した文字情報としている。
第1報知情報は、ユーザが任意に設定できるようにしてもよいし、予め設定されたルールにしたがって第2報知情報から自動的に生成してもよい。また、図4に示すような分類結果と表示用の第1報知情報、保存用の第2報知情報との関係を示すテーブルを用意し、ユーザが操作部15を使用して、テーブル上の第1報知情報及び第2報知情報をそれぞれユーザが任意に設定できるようにしてよい。
<報知形式の第1実施形態>
図5A及び図5Bは、それぞれ表示用の第1合成画像及び保存用の第2合成画像の報知形式の第1実施形態を示す図である。
前述したように合成画像生成部44は、フレーム画像38aとそのフレーム画像38aの分類結果に応じて生成された表示用の第1報知情報とを合成した表示用の第1合成画像(図5A参照)と、フレーム画像38aとそのフレーム画像38aの分類結果に応じて生成された保存用の第2報知情報とを合成した保存用の第2合成画像(図5B参照)とを生成する。
図5A及び図5Bは、分類部42により「腫瘍性」の分類結果が得られた場合の表示用の第1合成画像及び保存用の第2合成画像の一例を示している。
「腫瘍性」の分類結果が得られた場合の表示用の第1報知情報は、図4に示したように「N」の文字情報であるため、図5Aに示す第1合成画像は、医用画像と分類結果(result)を示す「N」の文字情報とが合成されたものとなる。
一方、「腫瘍性」の分類結果が得られた場合の保存用の第1報知情報は、図4に示したように「neoplastic」の文字情報であるため、図5Bに示すように第2合成画像は、医用画像と分類結果(result)を示す「neoplastic」の文字情報とが合成されたものとなる。尚、本例の保存用の第2合成画像には、図5Bに示すように病変として分類された「腫瘍性」の確信度(スコア)の情報(「70%」)が合成されているが、表示用の第1合成画像には「腫瘍性」の確信度の情報は合成されていない。
表示用の第1合成画像は、内視鏡診断中に表示器16に表示され、ユーザ(医師)及び患者により観察可能である。この表示用の第1合成画像は、リアルタイムに表示されるが、保存されることはない。
ユーザは、表示器16に表示される第1合成画像に含まれる医用画像により内視鏡検査を行うことができ、また、第1合成画像に含まれる第1報知情報(分類結果を示す「N」の文字情報)を内視鏡検査に利活用することできる。
尚、ユーザは、第1報知情報の「N」から分類部42による医用画像又は注目領域に対する分類結果を認識することができるが、ユーザ以外(患者)は、第1報知情報の「N」が何を意味しているか認識することができない。即ち、第1報知情報の「N」は、分類結果が患者に直接伝わらない報知形式の情報であり、患者の不安を煽るような情報としては認識されない。
また、図4に示した例では、分類結果が「その他」の場合、表示用の第1報知情報は「O」の文字情報であり、保存用の第2報知情報は「other」の文字情報であるが、表示用の第1報知情報も「other」の文字情報としてもよい。分類結果が「その他」の場合、これを患者が認識しても余計な不安を煽ることにはならないからである。即ち、分類結果に応じて、表示用の第1報知情報と保存用の第2報知情報とは異なるようにしてもよいし、同一にしてもよい。
一方、第1報知情報の「N」のように、検査するユーザのみが認識できる形式だと学会などで専門家や他の医師の理解を得ることは難しくなる可能性がある。そこで、保存用の第2報知情報は、この種の専門家等が理解できる報知形式の情報(本例では、「neoplastic」の文字情報)としており、図5Bに示す例では、更に分類結果に対する確信度の情報(「70%」)も付加されている。
保存用の第2報知情報を含む保存用の第2合成画像は、記録部48に保存される。保存される第2合成画像は、第2報知情報がフレーム毎に合成された動画であるが、記録部48には、内視鏡検査中に静止画撮影指示されたフレーム及びそのフレームに対する第2報知情報が合成された静止画の合成画像のみを保存するようにしてもよい。
分類部42による医用画像又は注目領域の分類は、上記実施形態の「非腫瘍性」、「腫瘍性」及び「その他」のうちのいずれかのクラスに分類するが、分類するクラスはこれらに限定されない。例えば、内視鏡所見分類であるNICE(NBI International Colorectal Endoscopic)分類、JNET(The Japan NBI Expert Team)分類などがある。また、病種による分類(例えば、過形成性ポリープ、線種、粘膜内癌、高度浸潤癌、炎症性ポリープなど)や、病変の形状、大きさ、位置等による分類、病変部の分類結果の確信度、重傷度による分類、及びこれらを組み合せた分類を含む。
内視鏡画像がNBI用の特殊光下で撮影された画像の場合、分類部42は、NICE分類やJNET分類にしたがって内視鏡画像を分類することができる。また、分類結果に応じた表示用の第1報知情報及び保存用の第2報知情報は、分類方法に応じて異なることは言うまでもない。
また、報知情報の形式要素は、上記のように文言、数値に限らず、図形、色、位置等を含む。
<報知形式の第1実施形態の変形例>
図6A及び図6Bは、第1報知情報及び第2報知情報の報知形式の第1実施形態の変形例を示す図であり、分類部42が医用画像又は注目領域をNICE分類の「Type 2」と分類した場合の表示用の第1合成画像及び保存用の第2合成画像を示している。
NICE分類の「Type 2」は、線種「adenoma」が最も可能性の高い病理であるため、表示用の第1報知情報は、「adenoma」の頭文字である「A」の文字情報とする。したがって、図6Aに示すように表示用の第1合成画像は、医用画像と「A」の文字情報とを合成したものとしている。
一方、NICE分類の「Type 2」の分類結果が得られた場合の保存用の第2報知情報は、「adenoma」の文字情報とする。したがって、図6Bに示すように保存用の第2合成画像は、医用画像と「adenoma」の文字情報とを合成したものとしている。
このように、報知形式の第1実施形態の変形例は、報知形式の第1実施形態と同様に、表示用の第1報知情報は、分類結果が患者に直接伝わらない報知形式の情報とし、保存用の第2報知情報は、専門家等が理解できる報知形式の情報とする。
<報知形式の第2実施形態>
図7A及び図7Bは、第1報知情報及び第2報知情報の報知形式の第2実施形態を示す図であり、分類部42が医用画像又は注目領域をNICE分類の「Type 2」と分類した場合の表示用の第1合成画像及び保存用の第2合成画像を示している。
NICE分類の「Type 2」と分類された場合であって、線種「adenoma」の確信度が高いもの(癌性が高いもの)として分類結果が得られた場合、表示用の第1報知情報は、注意を喚起させない色(例えば、無彩色)の「adenoma」の文字情報とする。したがって、図7Aに示すように表示用の第1合成画像は、医用画像と表示用の第1報知情報(注意を喚起させない色の「adenoma」の文字情報)とを合成したものとしている。
一方、NICE分類の「Type 2」の分類結果が得られた場合の保存用の第2報知情報は、例えば、赤色等の注意を喚起させる色の「adenoma」の文字情報としている。したがって、図7Bに示すように保存用の第2合成画像は、医用画像と注意を喚起させる色の「adenoma」の文字情報とを合成したものとしている。
このように、報知形式の第2実施形態の表示用の第1報知情報は、病変の確信度が高い(癌性が高い)分類結果が得られた場合、注意を喚起させない色の文字情報とし、一方、保存用の第2報知情報は、注意を喚起させる色の文字情報とする。
これにより、患者が表示器16に表示される第1合成画像を見ても、病変の癌性等が患者に伝わないようにすることができ、患者に対して不安を煽ることがないようにすることができる。
ユーザに注意を喚起させるための情報は、文字情報の色に限らず、病変の確信度の数値情報の付加、文字情報の大きさ及び位置などが考えられる。
<報知形式の第3実施形態>
図8A及び図8Bは、第1報知情報及び第2報知情報の報知形式の第3実施形態を示す図であり、分類部42が医用画像又は注目領域をNICE分類の「Type 2」と分類した場合の表示用の第1合成画像及び保存用の第2合成画像を示している。
報知情報生成部43は、表示用の第1合成画像の出力先の表示器の解像度情報を取得する。
表示器の解像度が低い場合、医用画像の画像サイズを小さくすると、診断に悪影響が生じるため、医用画像は、撮影時の画像サイズで表示することが好ましい。したがって、表示器の解像度が低い場合、医用画像は表示器の画面一杯に表示される結果、分類結果に応じた表示用の第1報知情報を十分に表示する表示領域を確保できない場合がある。
そこで、報知情報生成部43は、表示器から取得した表示器の解像度情報から分類結果の表示領域を取得し、表示領域の大きさに対応して分類結果の詳細が簡略化された表示用の第1報知情報を生成する。
図8Aに示す報知形式の第3実施形態では、NICE分類の「Type 2」と分類した場合の表示用の第1報知情報は、「adenoma」をその頭文字の「A」のみに簡略化している。
また、合成画像生成部44は、表示器の画面の右下の領域を分類結果の表示領域とし、この表示領域に「A」を合成した表示用の第1合成画像を生成する。
一方、図8Bに示す報知形式の第3実施形態では、NICE分類の「Type 2」の分類結果が得られた場合の保存用の第2報知情報は、表示器の解像度に影響されないため、分類結果の詳細を示す第2報知情報(簡略化されていない「adenoma」の文字情報)としている。
また、合成画像生成部44は、医用画像の右側の領域の略中央に「adenoma」の文字情報合成した表示用の第2合成画像を生成する。
即ち、表示用の第1報知情報のサイズは、表示器の解像度により制限を受ける場合があり、この場合には表示用の第1報知情報自体を簡略化することで、第1表示情報のサイズを小さくする。一方、保存用の第2報知情報は、表示器のサイズに合わせる必要がないため、分類結果に応じた第2報知情報のサイズは小さくせず、分類結果の詳細を示す第2報知情報としている。
尚、図8A及び図8Bに示す例では、第1報知情報は、「adenoma」をその頭文字の「A」に簡略化されているが、文字情報の簡略化に限らず、分類結果として複数の情報が含まれている場合には、複数の情報から必要な情報のみに絞り込むことで表示用の情報量を簡略化するようにしてもよい。
<表示器と記録部の数に応じた報知形式>
図9は、表示器と記録部の数に応じた分類結果と表示用の第1報知情報、保存用の第2報知情報との関係を示す図表であり、表示器及び記録部がそれぞれ2つずつ設けられている場合に関して示している。
施設により表示器が患者用とユーザ用とで分かれている場合や、同じ表示器を見ながら検査をする場合がある。また、記録時も施設用と学会用などで保存する情報を分けたい場合がある。
図9に示す2つの表示用の第1報知情報、及び2つの保存用の第2報知情報は、分類部42が医用画像又は注目領域を、分類結果「1」、「2」、「3」、「4」、…と分類した場合である。
分類結果「1」、「2」、「3」は、それぞれNICE分類の「Type 1」、「Type 2」、「Type 3」と分類した場合を示し、分類結果「4」は、「Adenoma」、確信度「70%」と分類した場合に関して示している。
分類結果「1」、「2」、「3」、「4」に応じた保存用1の第2報知情報は、NICE分類の「Type 1」、「Type 2」.「Type 3」が示す最も可能性の高い病理である「Hyperplastic」、「adenoma」、「Malignancy」、及び赤文字の「Adenoma」であり、これに対応する表示用1の第1報知情報は、これらの文字情報の頭文字「H」、「A」、「M」、「A」である。
また、分類結果「1」、「2」、「3」、「4」に応じた保存用2の第2報知情報は、「NICE分類Type 1」、「NICE分類Type 2」、「NICE分類Type 3」及び「Adenoma 70%」であり、これに対応する表示用2の第2報知情報は、「Type A」、「Type B」、「Type C」及び無彩色の「Adenoma」である。
ここで、分類結果「1」、「2」、「3」に応じた保存用2の第2報知情報に対応する表示用2の第1報知情報は、「Type A」、「Type B」、「Type C」であるが、これらの第1報知情報は、分類方法や「Type A」、「Type B」、「Type C」の意味が不明であるため、ユーザ以外(患者)は、分類結果を認識することができない。分類結果「4」に応じた保存用2の第2報知情報に対応する表示用2の第1報知情報は、無彩色の「Adenoma」であり、かつ確信度の数値が省略されており、患者に対して不安を煽ることがないようにしている。
図9に示す例では、表示器及び記録部がそれぞれ2つずつ設けられている場合に関して示しているが、表示器及び記録部の少なくとも一方が2以上の場合でもよい。また、報知情報生成部43は、複数の表示器が設けられている場合、複数の表示器の総数を上限として複数の第1報知情報を生成し、複数の記録部が設けられている場合、複数の記録部の総数を上限として複数の第2報知情報を生成する。
図10A及び図10Bは、それぞれ保存用1、2の第2報知情報が合成された保存用1、2の合成画像を示しており、保存用1の合成画像は、記録部48Aに保存され、保存用2の合成画像は、記録部48Bに保存される。尚、記録部48A及び48Bは、物理的に異なる記録部でもよいし、記録部48(図2)における異なる保存領域でもよい。
図11A及び図11Bは、それぞれ表示用1、2の第1報知情報が合成された表示用1、2の合成画像を示しており、表示用1の合成画像は、表示器16Aに表示され、表示用2の合成画像は、表示器16Bに表示される。
[医用画像処理方法]
図12は、本発明に係る医用画像処理方法の実施形態を示すフローチャートであり、図2に示した医用画像処理装置14の各部の処理手順に関して示している。
図12において、画像取得部40は、内視鏡プロセッサ装置12から処理対象である時系列の医用画像のうちの1フレームの医用画像を取得する(ステップS10)。
分類部42は、ステップS10で取得した医用画像から医用画像の特徴量を求め、その特徴量に基づいて医用画像又は医用画像に含まれる注目領域を2以上のクラスのうちのいずれかに分類する(ステップS12)。例えば、図4に示す例では、医用画像又は注目領域を、「非腫瘍性」、「腫瘍性」、「その他」といった複数のクラスのうちのいずれかに分類する。
報知情報生成部43は、分類部42による医用画像又は注目領域の分類結果に応じて表示用の第1報知情報と保存用の第2報知情報を生成する(ステップS14)。保存用の第2報知情報は、図4に示すように「非腫瘍性」、「腫瘍性」、「その他」の分類結果に応じた「nonneoplastic」、「neoplastic」、「other」の文字情報であるが、表示用の第1報知情報は、これらの第2報知情報を略した「NN」、「N」、「O」であり、ユーザ以外(患者)は、表示用の第1報知情報が示す分類結果を認識できないようになっている。
合成画像生成部44は、医用画像と第1報知情報とを合成した表示用の第1合成画像と、医用画像と第2報知情報とを合成した保存用の第2合成画像を生成する(ステップS16)。
表示制御部46は、表示用の第1合成画像を表示器16に表示させ(ステップS18)、記録部48は、保存用の第2合成画像を保存する(ステップS20)。
続いて、CPU41は、操作部15から内視鏡画像による診断終了(又は撮影終了)の指示があったか否かを判別する(ステップS22)。CPU41は、診断終了の指示がない場合(「No」の場合)には、ステップS10に遷移させ、ステップS10からステップS22により次のフレームの医用画像に対する処理を実行させ、診断終了の指示がある場合(「Yes」の場合)には、本処理を終了させる。
[その他]
本発明に係る分類器は、CNN等の学習器により医用画像又は医用画像に含まれる注目領域を分類するものに限らず、医用画像内の色、画素値の勾配、形状、大きさ等の特徴量を画像処理により解析して注目領域を検出し、検出した注目領域の特徴量により医用画像又は医用画像に含まれる注目領域を2以上のクラスのうちのいずれかに分類するものでもよいし、これと学習器とを併用したものでもよい。
また、医用画像処理装置14は、表示制御部46を設けずに、表示用の合成画像を内視鏡プロセッサ装置12に出力し、内視鏡プロセッサ装置12に含まれる表示制御部(図示せず)が、表示用の合成画像を表示装置13に表示させるようにしてもよい。
上記実施形態では、内視鏡プロセッサ装置12と医用画像処理装置14とが別体に設けられているが、内視鏡プロセッサ装置12と医用画像処理装置14とが一体化されていてもよい。即ち、内視鏡プロセッサ装置12に、医用画像処理装置14としての機能を設けてもよい。
また、上記実施形態では、合成画像生成部44は、医用画像と保存用の第2報知情報とを合成した第2合成画像を生成するが、これに限らず、医用画像と第2報知情報とを関連付けて保存するようにしてもよい。この場合、第2報知情報は、第2報知情報を示す画像情報ではなく、例えば、テキスト情報とすることが可能であり、医用画像に対する付属情報として付加することができる。第2報知情報をテキスト情報とすることで、第2報知情報は編集可能である。また、医用画像が動画の場合、動画のフレーム番号、又はフレームのタイプスタンプを、各フレームに対応する第2報知情報に付与することで、動画の各フレームと第2報知情報とを関連付けて記録することが可能である。
更に、上記実施形態の医用画像処理装置14の各種制御を実行するハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の制御部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の制御部を1つのプロセッサで構成してもよい。複数の制御部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の制御部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の制御部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の制御部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
また、上記実施形態では、内視鏡スコープ10により撮影された時系列の画像又は静止画を、処理対象の医用画像としたが、これに限らず、例えば超音波診断装置、X線撮影装置等の他のモダリティで撮影された医用画像であってもよい。
更にまた、本発明は上述した実施形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
9 内視鏡システム
10 内視鏡スコープ
11 光源装置
12 内視鏡プロセッサ装置
13 表示装置
14 医用画像処理装置
15 操作部
16、16A、16B 表示器
20 挿入部
21 手元操作部
22 ユニバーサルコード
25 軟性部
26 湾曲部
27 先端部
28 撮像素子
29 湾曲操作ノブ
30 送気送水ボタン
31 吸引ボタン
32 静止画撮影指示部
33 処置具導入口
35 ライトガイド
36 信号ケーブル
37a コネクタ
37b コネクタ
38 動画
38a フレーム画像
39 静止画
40 画像取得部
41 CPU
42 分類部
42A 入力層
42B 中間層
42C 出力層
43 報知情報生成部
44 合成画像生成部
46 表示制御部
47 記憶部
48、48A、48B 記録部
S10〜S22 ステップ
また、NBIの照明光は、照射する照明光の波長の範囲を狭くすることで、照射される面の細かな変化を強調した画像(NBI)の生成に適している。
一方、「腫瘍性」の分類結果が得られた場合の保存用の第報知情報は、図4に示したように「neoplastic」の文字情報であるため、図5Bに示すように第2合成画像は、医用画像と分類結果(result)を示す「neoplastic」の文字情報とが合成されたものとなる。尚、本例の保存用の第2合成画像には、図5Bに示すように病変として分類された「腫瘍性」の確信度(スコア)の情報(「70%」)が合成されているが、表示用の第1合成画像には「腫瘍性」の確信度の情報は合成されていない。
分類部42による医用画像又は注目領域の分類は、上記実施形態の「非腫瘍性」、「腫瘍性」及び「その他」のうちのいずれかのクラスに分類するが、分類するクラスはこれらに限定されない。例えば、内視鏡所見分類であるNICE(NBI International Colorectal Endoscopic)分類、JNET(The Japan NBI Expert Team)分類などがある。また、病種による分類(例えば、過形成性ポリープ、腺腫、粘膜内癌、高度浸潤癌、炎症性ポリープなど)や、病変の形状、大きさ、位置等による分類、病変部の分類結果の確信度、重傷度による分類、及びこれらを組み合せた分類を含む。
NICE分類の「Type 2」は、腺腫「adenoma」が最も可能性の高い病理であるため、表示用の第1報知情報は、「adenoma」の頭文字である「A」の文字情報とする。したがって、図6Aに示すように表示用の第1合成画像は、医用画像と「A」の文字情報とを合成したものとしている。
NICE分類の「Type 2」と分類された場合であって、腺腫「adenoma」の確信度が高いもの(癌性が高いもの)として分類結果が得られた場合、表示用の第1報知情報は、注意を喚起させない色(例えば、無彩色)の「adenoma」の文字情報とする。したがって、図7Aに示すように表示用の第1合成画像は、医用画像と表示用の第1報知情報(注意を喚起させない色の「adenoma」の文字情報)とを合成したものとしている。
即ち、表示用の第1報知情報のサイズは、表示器の解像度により制限を受ける場合があり、この場合には表示用の第1報知情報自体を簡略化することで、第1報知情報のサイズを小さくする。一方、保存用の第2報知情報は、表示器のサイズに合わせる必要がないため、分類結果に応じた第2報知情報のサイズは小さくせず、分類結果の詳細を示す第2報知情報としている。
分類結果「1」、「2」、「3」、「4」に応じた保存用1の第2報知情報は、NICE分類の「Type 1」、「Type 2」.「Type 3」が示す最も可能性の高い病理である「Hyperplastic」、「Adenoma」、「Malignancy」、及び赤文字の「Adenoma」であり、これに対応する表示用1の第1報知情報は、これらの文字情報の頭文字「H」、「A」、「M」、「A」である。
また、分類結果「1」、「2」、「3」、「4」に応じた保存用2の第2報知情報は、「NICE分類Type 1」、「NICE分類Type 2」、「NICE分類Type 3」及び「Adenoma 70%」であり、これに対応する表示用2の第報知情報は、「Type A」、「Type B」、「Type C」及び無彩色の「Adenoma」である。
[その他]
本発明に係る分類は、CNN等の学習器により医用画像又は医用画像に含まれる注目領域を分類するものに限らず、医用画像内の色、画素値の勾配、形状、大きさ等の特徴量を画像処理により解析して注目領域を検出し、検出した注目領域の特徴量により医用画像又は医用画像に含まれる注目領域を2以上のクラスのうちのいずれかに分類するものでもよいし、これと学習器とを併用したものでもよい。
また、上記実施形態では、合成画像生成部44は、医用画像と保存用の第2報知情報とを合成した第2合成画像を生成するが、これに限らず、医用画像と第2報知情報とを関連付けて保存するようにしてもよい。この場合、第2報知情報は、第2報知情報を示す画像情報ではなく、例えば、テキスト情報とすることが可能であり、医用画像に対する付属情報として付加することができる。第2報知情報をテキスト情報とすることで、第2報知情報は編集可能である。また、医用画像が動画の場合、動画のフレーム番号、又はフレームのタイスタンプを、各フレームに対応する第2報知情報に付与することで、動画の各フレームと第2報知情報とを関連付けて記録することが可能である。

Claims (11)

  1. 医用画像を取得する画像取得部と、
    前記画像取得部により取得した前記医用画像に基づいて前記医用画像又は前記医用画像に含まれる注目領域を分類する分類部と、
    前記分類された分類結果に応じて表示用の第1報知情報と前記第1報知情報と異なる保存用の第2報知情報とを生成する報知情報生成部と、
    前記医用画像及び前記第2報知情報を保存する記録部と、
    を備える医用画像処理装置。
  2. 前記記録部は、前記医用画像と前記第2報知情報とが合成された合成画像を保存する請求項1に記載の医用画像処理装置。
  3. 前記記録部は、前記医用画像と前記第2報知情報とを関連付けて保存する請求項1に記載の医用画像処理装置。
  4. 前記記録部は、複数の記録部からなり、
    前記報知情報生成部は、前記複数の前記記録部の総数を上限として複数の前記第2報知情報を生成し、
    前記複数の前記記録部は、前記医用画像及び前記複数の前記第2報知情報のうちの各記録部に対応する前記第2報知情報を保存する請求項1から3のいずれか1項に記載の医用画像処理装置。
  5. 前記医用画像及び前記第1報知情報を表示部に表示させる表示制御部を備える請求項1から4のいずれか1項に記載の医用画像処理装置。
  6. 前記報知情報生成部は、複数の前記表示部の総数を上限として複数の前記第1報知情報を生成し、
    前記表示制御部は、前記医用画像及び前記複数の前記第1報知情報をそれぞれ前記複数の表示部に対応して表示させる請求項5に記載の医用画像処理装置。
  7. 前記報知情報生成部は、前記分類結果の詳細が患者に伝わらない報知形式の前記第1報知情報と前記分類結果の詳細を示す前記第2報知情報とを生成する請求項1から6のいずれか1項に記載の医用画像処理装置。
  8. 前記分類結果は、前記分類される病変の確信度の情報を含み、
    前記報知情報生成部は、前記確信度の情報が省略された前記第1報知情報と前記確信度の情報を含む前記第2報知情報とを生成する請求項1から7のいずれか1項に記載の医用画像処理装置。
  9. 前記報知情報生成部は、表示部の解像度情報から前記分類結果の表示領域を取得し、前記表示領域の大きさに対応して前記分類結果の詳細が簡略化された前記第1報知情報と前記分類結果の詳細を示す前記第2報知情報とを生成する請求項1から8のいずれか1項に記載の医用画像処理装置。
  10. 前記画像取得部は、時系列の前記医用画像を取得し、
    前記記録部は、前記時系列の前記医用画像及び前記第2報知情報、又は前記時系列の前記医用画像に含まれる静止画撮影された前記医用画像及び前記第2報知情報を保存する請求項1から9のいずれか1項に記載の医用画像処理装置。
  11. 医用画像を取得するステップと、
    前記取得した前記医用画像に基づいて前記医用画像又は前記医用画像に含まれる注目領域を分類するステップと、
    前記分類された分類結果に応じて表示用の第1報知情報と前記第1報知情報と異なる保存用の第2報知情報とを生成するステップと、
    前記医用画像及び前記第1報知情報を表示部に表示させるステップと、
    前記医用画像及び前記第2報知情報を保存するステップと、
    を含む医用画像処理方法。
JP2021504938A 2019-03-08 2020-03-02 医用画像処理装置及び医用画像処理装置の作動方法 Active JP7216187B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019042742 2019-03-08
JP2019042742 2019-03-08
PCT/JP2020/008729 WO2020184257A1 (ja) 2019-03-08 2020-03-02 医用画像処理装置及び方法

Publications (2)

Publication Number Publication Date
JPWO2020184257A1 true JPWO2020184257A1 (ja) 2021-12-16
JP7216187B2 JP7216187B2 (ja) 2023-01-31

Family

ID=72427447

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021504938A Active JP7216187B2 (ja) 2019-03-08 2020-03-02 医用画像処理装置及び医用画像処理装置の作動方法

Country Status (5)

Country Link
US (1) US20210366593A1 (ja)
EP (1) EP3936027A4 (ja)
JP (1) JP7216187B2 (ja)
CN (1) CN113453607B (ja)
WO (1) WO2020184257A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112686867A (zh) * 2020-12-31 2021-04-20 上海商汤智能科技有限公司 医学图像的识别方法及装置、电子设备和存储介质
US20230043645A1 (en) * 2021-08-04 2023-02-09 Magentiq Eye Ltd Systems and methods for detection and analysis of polyps in colon images
WO2023090091A1 (ja) * 2021-11-19 2023-05-25 富士フイルム株式会社 画像処理装置及び内視鏡システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002312472A (ja) * 2001-01-24 2002-10-25 Siemens Medical Solutions Usa Inc 医療情報システム及び医療情報システムによって使用される方法
JP2013103023A (ja) * 2011-11-15 2013-05-30 Otoichi:Kk 画像診断支援装置および画像診断支援方法
JP2017213058A (ja) * 2016-05-30 2017-12-07 オリンパス株式会社 画像処理装置、内視鏡装置、画像処理方法、及び画像処理プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7783094B2 (en) * 2005-06-02 2010-08-24 The Medipattern Corporation System and method of computer-aided detection
JP6058282B2 (ja) * 2011-05-19 2017-01-11 東芝メディカルシステムズ株式会社 医用画像診断装置及び画像処理装置
WO2013111684A1 (ja) * 2012-01-26 2013-08-01 オリンパスメディカルシステムズ株式会社 医療情報記録装置
CN111278349B (zh) * 2017-10-26 2023-03-24 富士胶片株式会社 医疗图像处理装置
US20210183055A1 (en) * 2019-12-13 2021-06-17 GE Precision Healthcare LLC Methods and systems for analyzing diagnostic images
JP2022190622A (ja) * 2021-06-14 2022-12-26 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像処理システム、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002312472A (ja) * 2001-01-24 2002-10-25 Siemens Medical Solutions Usa Inc 医療情報システム及び医療情報システムによって使用される方法
JP2013103023A (ja) * 2011-11-15 2013-05-30 Otoichi:Kk 画像診断支援装置および画像診断支援方法
JP2017213058A (ja) * 2016-05-30 2017-12-07 オリンパス株式会社 画像処理装置、内視鏡装置、画像処理方法、及び画像処理プログラム

Also Published As

Publication number Publication date
CN113453607B (zh) 2024-02-13
EP3936027A1 (en) 2022-01-12
US20210366593A1 (en) 2021-11-25
EP3936027A4 (en) 2022-04-27
JP7216187B2 (ja) 2023-01-31
CN113453607A (zh) 2021-09-28
WO2020184257A1 (ja) 2020-09-17

Similar Documents

Publication Publication Date Title
JP6890184B2 (ja) 医療画像処理装置及び医療画像処理プログラム
JP7346285B2 (ja) 医療画像処理装置、内視鏡システム、医療画像処理装置の作動方法及びプログラム
JP7383105B2 (ja) 医療画像処理装置及び内視鏡システム
JP7308258B2 (ja) 医療画像処理装置及び医療画像処理装置の作動方法
US11607109B2 (en) Endoscopic image processing device, endoscopic image processing method, endoscopic image processing program, and endoscope system
US20210366593A1 (en) Medical image processing apparatus and medical image processing method
CN111936032B (zh) 图像处理装置、内窥镜系统及图像处理方法
JP7326308B2 (ja) 医療画像処理装置及び医療画像処理装置の作動方法、内視鏡システム、プロセッサ装置、診断支援装置並びにプログラム
JP7289373B2 (ja) 医療画像処理装置、内視鏡システム、診断支援方法及びプログラム
JP7374280B2 (ja) 内視鏡装置、内視鏡プロセッサ、及び内視鏡装置の作動方法
JP7289241B2 (ja) ファイリング装置、ファイリング方法及びプログラム
JP7387859B2 (ja) 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理装置の作動方法及びプログラム
WO2019039252A1 (ja) 医療画像処理装置及び医療画像処理方法
US20210201080A1 (en) Learning data creation apparatus, method, program, and medical image recognition apparatus
CN116724334A (zh) 计算机程序、学习模型的生成方法、以及手术辅助装置
US20230206445A1 (en) Learning apparatus, learning method, program, trained model, and endoscope system
US20230410304A1 (en) Medical image processing apparatus, medical image processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210817

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230119

R150 Certificate of patent or registration of utility model

Ref document number: 7216187

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150