JP6808557B2 - 情報処理装置、その制御方法及びプログラム - Google Patents

情報処理装置、その制御方法及びプログラム Download PDF

Info

Publication number
JP6808557B2
JP6808557B2 JP2017068691A JP2017068691A JP6808557B2 JP 6808557 B2 JP6808557 B2 JP 6808557B2 JP 2017068691 A JP2017068691 A JP 2017068691A JP 2017068691 A JP2017068691 A JP 2017068691A JP 6808557 B2 JP6808557 B2 JP 6808557B2
Authority
JP
Japan
Prior art keywords
inference
image
information
medical image
findings
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017068691A
Other languages
English (en)
Other versions
JP2018166961A (ja
Inventor
将実 川岸
将実 川岸
山本 裕之
裕之 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017068691A priority Critical patent/JP6808557B2/ja
Priority to PCT/JP2018/009404 priority patent/WO2018180407A1/ja
Priority to EP18776363.6A priority patent/EP3582178A4/en
Publication of JP2018166961A publication Critical patent/JP2018166961A/ja
Priority to US16/570,463 priority patent/US11424033B2/en
Application granted granted Critical
Publication of JP6808557B2 publication Critical patent/JP6808557B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Primary Health Care (AREA)
  • Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Pathology (AREA)
  • Quality & Reliability (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Physiology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Description

本発明は、情報処理装置、その制御方法及びプログラムに関する。
計算機で医用画像を解析し、医師の読影の助けとなる情報を提示するコンピュータ支援診断(Computer Aided Diagnosis:CAD)システムが知られている。特許文献1には、客観評価値である画像処理結果を主観評価値である画像所見へと変換することで医用画像から画像所見を導出して医師に提示する技術が記載されている。
特開2009−207585号公報
しかしながら、従来の技術では、医用画像の画像処理結果である画像特徴量から画像所見を導出しているため、導出された画像所見と医師が医用画像から想起する画像所見とが合致しない場合があった。
本発明は、医師の読影を適切に支援可能な画像所見に関する情報を導出することを目的とする。
上記の目的を達成するために本発明の情報処理装置は、医用画像データを用いて第1の推論を行い、前記医用画像データから特定される診断名に関する情報を第1の推論結果として導出する第1の推論手段と、前記医用画像データと前記診断名に関する情報とを用いて第2の推論を行い、画像所見に関する情報を第2の推論結果として導出する第2の推論手段と、を備えることを特徴とする。また、本発明の情報処理装置は、医用画像データを用いて第1の推論を行い、前記医用画像データから特定される疾患の悪性の尤度に関する情報を第1の推論結果として導出する第1の推論手段と、前記医用画像データと前記疾患の悪性の尤度に関する情報とを用いて第2の推論を行い、画像所見に関する情報を第2の推論結果として導出する第2の推論手段と、を備えることを特徴とする。
本発明によれば、医師の読影を適切に支援可能な画像所見に関する情報を導出することが可能となる。
情報処理装置の機能構成の一例を示す図である。 情報処理装置のハードウェア構成の一例を示す図である。 情報処理装置の処理の一例を示すフローチャートである。 第1の推論手段の一例を示す図である。 3次元畳み込みニューラルネットワークの例である。 情報処理装置のハードウェア構成の他の一例を示す図である。 情報処理装置の処理の他の一例を示すフローチャートである。 情報処理装置のハードウェア構成のさらに他の一例を示す図である。 情報処理装置の処理のさらに他の一例を示すフローチャートである。 第2の画像処理部の処理の一例を示す図である。 実施形態1の概要を示す図である。
以下、本発明を実施するための形態について図面を用いて説明する。
<実施形態1>
実施形態1における情報処理装置は、医療診断(読影)の対象となる医用画像の画像所見を導出する。
なお、以下では、医用画像(医用画像データと同義。以下、同じ。)は胸部X線CT画像とし、情報処理装置は、肺の異常陰影の読影に係る医用画像を基に診断名(第1の推論結果)を導出するものとする。そして、医用画像と診断名を用いて肺の異常陰影に関する画像所見(第2の推論結果)を導出する場合を例として説明する。もちろん対象はこれに限定されるものではなく、以下に示す診断名や画像特徴量、画像所見等は、何れも情報処理装置の処理の工程を説明するための一例に過ぎない。
まず、図11を用いて実施形態1の概要を説明する。情報処理装置は、情報処理装置が備える第1の推論部102に医用画像1101を用いた第1の推論を実行させる。これにより第1の推論部102は、第1の推論結果として診断名1102を導出する。すなわち、第1の推論部102は、医用画像1101の画像特徴量等を用いて、医用画像1101に写る異常陰影に関する診断名1102を推論する。
次に、情報処理装置は、情報処理装置が備える第2の推論部104に医用画像1101と診断名1102とを用いた第2の推論を実行させる。これにより第2の推論部104は、第2の推論結果として画像所見1103を導出する。すなわち、第2の推論部104は、医用画像1101の画像特徴量等と、更に第1の推論部102により導出された診断名1102とを用いて、医用画像1101に写る異常陰影に関する画像所見1103を導出する。
以上のように情報処理装置を動作させることで、第2の推論部104は、医師が医用画像から想起する画像所見により合致する画像所見を導出することができる。また、第1の推論結果である診断名を医用画像と共に第2の推論で用いるため、医師が診断名を想定して読影した場合に読影レポートに付与するであろう画像所見と一致する可能性が高い画像所見を導出することが可能となる。以下、この詳細を説明する。
図1は、実施形態1における情報処理装置100の機能構成の一例を示す図である。本実施形態における情報処理装置100は、症例情報端末200に接続されている。症例情報端末200は、診断対象である症例に関して、医用画像を不図示のサーバから取得する。或いは、例えばHDDやDVDドライブ等の外部記憶装置を接続し、症例情報端末200は、それらの外部記憶装置から医用画像を取得するようにしてもよい。
そして、症例情報端末200は、ユーザからの操作入力に従い、医用画像を、LAN等を介して情報処理装置100へと送信する。
情報処理装置100は、第1の推論部102と、第2の推論部104とを備える。第1の推論部102は、医用画像を用いて第1の推論を行い、診断名を導出する。第2の推論部104は、医用画像と診断名を用いて第2の推論を行い、画像所見を導出する。
なお、図1に示した情報処理装置100の各部の少なくとも一部は独立した装置として実現してもよい。すなわち、第1の推論部102を有する情報処理装置と第2の推論部を有する情報処理装置とが協働することにより情報処理システムとして実現してもよい。または、仮想化技術により仮想サーバとして実現してもよい。本発明の情報処理装置は、このような複数の装置によって実現される形態もその範疇に含む。また、夫々の機能を実現するソフトウェアとして実現してもよい。本実施形態では、各部はそれぞれソフトウェアにより実現されているものとする。
図2は、情報処理装置100のハードウェア構成の一例を示す図である。本実施形態の情報処理装置100は、汎用的なコンピュータ(例えば、PCやサーバ)を例に説明するが、これに限らない。CPU1001は、主として各構成要素の動作を制御する。主メモリ1002は、CPU1001が実行する制御プログラムを格納したり、CPU1001によるプログラム実行時の作業領域を提供したりする。磁気ディスク1003は、オペレーティングシステム(OS)、周辺機器のデバイスドライバ、後述する処理等を行うためのプログラムを含む各種アプリケーションソフトを実現するためのプログラムを格納する。CPU1001が主メモリ1002、磁気ディスク1003に格納されているプログラムを実行することにより、図1に示した情報処理装置100の機能(ソフトウェア)及び後述するフローチャートにおける処理が実現される。
表示メモリ1004は、表示用データを一時記憶する。モニタ1005は、例えばCRTモニタや液晶モニタ等であり、表示メモリ1004からのデータに基づいて画像やテキスト等の表示を行う。マウス1006及びキーボード1007は、ユーザによるポインティング入力及び文字等の入力を夫々行う。上記各構成要素は、共通バス1008により互いに通信可能に接続されている。
次に、図3のフローチャートを用いて、情報処理装置100が行う全体の処理を説明する。図3は、情報処理装置100が行う処理の一例を示すフローチャートである。本実施形態では、CPU1001が主メモリ1002に格納されている各部の機能を実現するプログラムを実行することにより図3に示す処理が実現される。
ステップS20において、第1の推論部102は、症例情報端末200を介して送信された医用画像を用いて第1の推論を行い、医用画像中の異常陰影の診断名(推論診断名)を導出する。すなわち、医用画像データを用いて第1の推論を行い、画像所見とは異なる第1の推論結果に関する情報(例えば、医用画像データから特定される診断名に関する情報)を導出する第1の推論手段に相当する。本実施形態では、第1の推論部102として学習済みのConvolutional Neural Network(CNN)を用いて診断名を推論する。なお、第1の推論結果に関する情報(診断名に関する情報)は、第1の推論結果(診断名)そのものを示す文字列であってもよいし、第1の推論結果(診断名)を表す記号やコード、該文字列を略した文字列であってもよい。
図4にCNNの例を示す。CNNは一般に、入力層、中間層、全結合層、出力層から構成される。入力層では、一定のサイズに正規化された画像を入力する。中間層は、複数の畳み込み層(図4(a))とプーリング層(図4(b))から構成される。畳み込み層は、入力に対してフィルタをかけて畳み込みを行う層であり、各フィルタに対応する出力値が得られる。プーリング層は、複数の出力値を入力値として一つの値を出力する層であり、例えば複数の入力値の最大値を出力とする。なお、畳み込み層の出力やプーリング層の出力は特徴マップと呼ばれることがある。全結合層は、中間層の出力を結合する層であり、特徴マップからある個数の出力値へと変換する。出力層は対象となるラベル(ここでは診断名)の数のノードで構成され、全結合層の出力から最終的な値を出力する。この時、一般には各ラベルに対応するノードの出力値の和が1となるように構成される。そして、最大となる出力値をとるノードに対応するラベルを推論結果として出力する。各フィルタや、中間層と全結合層、全結合層と出力層の結合重みは、画像と正解ラベルをセットとした学習データから誤差が最少となるように学習される。
本実施形態におけるCNNの例を図5に示す。以下では、医用画像と3値の診断名(原発性肺癌、癌の肺転移、良性結節)、及び、N個の画像所見の項目に対して夫々値が付与された学習データがあるものとして、事前に実施されるCNNの学習について説明する。なお、画像所見の利用についてはステップS30で後述する。
ここでは、入力は3次元のまま用い、サイズを64×64×64に正規化した医用画像と診断名のセットからCNNを学習する。中間層は夫々2層の畳み込み層とプーリング層を用い、8×8×8の16個の特徴マップに変換する。そして、8×8×8の16個の特徴マップから、活性化関数にReLU(Rectified Linear Unit)を用いたネットワーク層により1024個のノード値へと変換する。最後に1024個のノード値から活性化関数にSoftmax関数を用いたネットワーク層により診断名の3値へと分類(推論)を行う。一般に、CNNは学習データ数が多いほど精度が高くなる傾向があるため、医用画像に回転、拡大・縮小、移動などを加えて新たな医用画像を生成し、学習データを増やすようにする。なお、例示した、正規化の画素(ボクセル)数、中間層の段数、全結合層、出力層の個数、学習データの拡張は一例に過ぎず、異なる条件を用いても当然構わない。
ステップS20の実施時には、送信された医用画像を当該CNNの入力と同一になるようサイズを正規化し、正規化した画像を学習されたCNNに入力して診断名(推論診断名)を導出する。例えば、医用画像中の異常陰影が原発性肺癌か、癌の肺転移か、良性結節の何れであるかを推論する。
ステップS30において、第2の推論部104は、症例情報端末200を介して送信された医用画像と、ステップS20で導出した診断名(推論診断名)を用いて第2の推論を行い、当該医用画像の画像所見を導出する。すなわち、医用画像データと第1の推論結果に関する情報(例えば、診断名に関する情報)とを用いて第2の推論を行い、第2の推論結果として画像所見に関する情報を導出する第2の推論手段に相当する。なお、画像所見に関する情報は、画像所見そのものを示す文字列であってもよいし、画像所見を表す記号やコード、該文字列を略した文字列であってもよい。
本実施形態では、ステップS20と同様にCNNを用いて第2の推論を行う。より具体的には、診断名・画像所見の項目の組毎に学習されたCNNを用いて第2の推論を行い、画像所見を導出する。
ここでは、画像所見の項目を鋸葉状辺縁とし、鋸葉状辺縁の値が「多い」「中程度」「少ない」「なし」の4値である場合を例として、事前に実施されるCNNの学習を説明する。まず、診断名ごとに学習データを分割する。すなわち、診断名が原発性肺癌であるデータ群、癌の肺転移であるデータ群、良性結節であるデータ群に分割する。次に、分割されたデータに対して、画像所見の項目の値を正解ラベルとし、正規化された医用画像を入力、画像所見の項目の値を出力とするCNNを学習する。ここでCNNの入力層、中間層、全結合層は図5で示したCNNと同様とし、出力は4値(すなわち、1024個のノードから4値に分類(推論))であるものとする。こうすることにより、鋸葉状辺縁の値(4値)を推論する3つのCNNが学習される。この時学習は診断名に応じて独立に行われるため、同一の画像所見であっても、診断名(第1の推論結果)に応じて異なるパラメータが学習される。同様に他の画像所見の項目においてもCNNの学習を行うことで、診断名(本実施例では3種)と画像所見の項目(本実施例ではN種)の組み合わせ毎に異なるパラメータで学習された3×N個のCNNが生成される。
ステップS30の実施時には、第2の推論部104は、ステップS20で導出した推論診断名に対応するN個のCNNを用いて各画像所見の値を導出する。すなわち、第1の推論結果に応じたパラメータおよび/または推論手法で第2の推論を行い、医用画像を入力情報として画像所見に関する情報を導出する。具体的には、第2の推論手段は、診断名と画像所見の項目の組み合わせごとに、医用画像データから画像所見に関する情報を導出する識別器をさらに備える。そして、第2の推論手段は、第1の推論結果としての診断名を含む組み合わせに対応する識別器を用いて、画像所見に関する情報を導出する。例えば、ステップS20で導出された推論診断名が原発性肺癌である場合、原発性肺癌に対応するN個の学習済みのCNNを選択し、各画像所見の値を導出する。
本実施形態によれば、情報処理装置100は、医用画像から推論診断名を導出し、医用画像と導出した推論診断名を用いて画像所見を導出する。これにより、医師が医用画像から想起する画像所見により合致する画像所見を導出することができる。また、第1の推論結果である推論診断名を医用画像と共に第2の推論で用いるため、医師が該推論診断名を想定して読影した場合に読影レポートに付与するであろう画像所見と一致する可能性が高い画像所見を導出することが可能となる。
(実施形態1の変形例1)
本実施形態では、ステップS20及びステップS30において医用画像をCNNの入力として用いていたが、医用画像の関心領域(すなわち、病変を含む病変近傍の領域)を取得し、取得した関心領域をCNNの入力として用いてもよい。なお、関心領域の取得方法に関しては実施形態2で後述する。
(実施形態1の変形例2)
本実施形態では、ステップS30において診断名毎に異なるCNNを用いていたが、全ての診断名に必ず異なるCNNを用いなくてもよい。例えば、複数の診断名で共通のCNNがあってもよい。例えば、原発性肺癌と癌の肺転移は共通のCNNを用いて、良性結節は良性結節用のCNNを用いるようにしてもよい。これによると、異常陰影の特性に応じたCNNを用いることができるため、医師が医用画像から想起する画像所見により合致する画像所見を導出することができる。
(実施形態1の変形例3)
本実施形態では、ステップS30において、ステップS20で導出した推論診断名を用いて第2の推論を行い、画像所見を導出していたが、その他の手法で取得した診断名を用いて第2の推論を行い、画像所見を導出するようにしてもよい。例えば、医師により、症例情報端末200を介して入力された診断名を取得し、用いるようにしてもよい。これによると、医師の考える診断名を利用して第2の推論を行うことができるため、医師が医用画像から想起する画像所見により合致する画像所見を導出することができる。
<実施形態2>
本実施形態に係る情報処理装置100は、医用画像から関心領域を取得して画像処理を行い、画像処理の結果得られた第1の画像特徴量を利用して関心領域内の異常陰影の推論診断名および画像所見を導出し、提示する。
図6は、本実施形態における情報処理装置100の機能構成の一例を示す図である。なお、図1と同一の符号が付与された構成部については、実施形態1との差異部分のみ説明する。
情報処理装置100は、関心領域取得部106と、第1の画像処理部108と、第1の推論部102と、第2の推論部104と、提示部110とを有する。関心領域取得部106は、医用画像から画像処理の対象となる関心領域を取得する。第1の画像処理部108は、関心領域に対して画像処理を行い、第1の画像特徴量を算出する。第1の推論部102は、第1の画像特徴量を用いて関心領域内の異常陰影の推論診断名を導出する。第2の推論部104は、第1の画像特徴量と推論診断名を用いて関心領域内の画像所見を導出する。提示部110は、導出した画像所見を提示する。
情報処理装置100のハードウェア構成は実施形態1における図2と同様である。
次に、図7のフローチャートを用いて、情報処理装置100が行う全体の処理を説明する。なお、図3と同一の符号が付与された処理については実施形態1との差異部分のみ説明する。
ステップS10において、関心領域取得部106は、症例情報端末200を介して送信された医用画像から関心領域を取得する。本実施形態では、ユーザが症例情報端末200上のViewerを用いて設定した直方体領域が更に症例情報端末200から送信されるものとし、送信された直方体領域を関心領域として取得するものとする。なお、他の例については実施形態3、4で後述する。
ステップS15において、第1の画像処理部108は、ステップS10で取得した関心領域から第1の画像特徴量を算出する。すなわち、医用画像データに対して画像処理を行い第1の画像特徴量を取得する第1の画像処理手段に相当する。ここで算出する画像特徴量はどのような特徴量であってもよいが、本実施形態では、以下のように画像特徴量を取得する。まず、公知のセグメンテーション技術(しきい値処理、領域拡張法、Level−set法、Graph−cut法等)を用いて関心領域から異常陰影領域をさらに抽出する。そして、抽出した異常陰影領域の輝度(濃度)の平均値、分散、尖度、歪度など一般統計量を画像特徴量として算出する。
もちろん他の方法により算出した画像特徴量を利用してもよい。例えば、正規化した関心領域を入力、正解ラベルを診断名とするCNNを学習し、全結合層の出力値を画像特徴量として用いるようにしてもよい。
ステップS20において、第1の推論部102は、ステップS15で算出した第1の画像特徴量を用いて第1の推論を行い、関心領域内の異常陰影の推論診断名を導出する。本実施形態では、第1の推論部102として、学習済みのサポートベクターマシン(SVM)を用いて推論診断名を導出する。
ここで第1の推論部102の学習は、事前に、以下のように行われる。なお、学習データは実施形態1で説明したものを用いるが、さらに医用画像に対して手作業により関心領域が付与されているものとする。まず、付与された関心領域に対してステップS15の方法と同一の方法で画像特徴量を抽出する。そして、抽出した画像特徴量と診断名の組から診断名を導出するサポートベクターマシンを学習する。
ここではSVMを用いるものとして説明をしたが、もちろんニューラルネットワークやベイジアンネットワークなど他の推論手法を学習し、学習した推論手法を用いて診断名を導出するようにしてもよい。
ステップS30において、第2の推論部104は、ステップS15で算出した第1の画像特徴量とステップS20で導出した推論診断名を用いて第2の推論を行い、関心領域内の画像所見を導出する。
本実施形態では、診断名・画像所見の項目毎に同一の推論手法、具体的には学習済みのRandom Forest識別器を用いて画像所見の値を導出する。もちろん推論手法としてニューラルネットワーク、サポートベクターマシン、ベイジアンネットワーク等、他の公知の手法を用いてもよい。
この時、第2の推論部104の学習は、事前に、以下のように行われる。なお、学習データにはステップS20での説明と同様に、医用画像には関心領域が付与されており、ステップS15と同一の方法で画像特徴量が算出されているものとする。ここではまず、学習データの中から同一のラベル(例えば原発性肺癌)を有するデータ群を抽出する。次に、各データの画像特徴量と、データに付与された画像所見(例えば鋸歯状辺縁)の値のセットを学習データとして、Random Forest識別器を学習する。第1実施例と同様に、学習は診断名に応じて独立に行われるため、同一の画像所見項目であっても、診断名(第1の推論結果)に応じて異なるパラメータが学習される。最終的に、3×N個のRandom Forest識別器が学習される。
ステップS30の実施時には、第2の推論部104は、ステップS20で導出した診断名に対応するN個のRandom Forest識別器を用いて、ステップS15で得た関心領域の第1の画像特徴量を入力情報として、各画像所見の値を導出する。すなわち、第1の推論結果に応じたパラメータおよび/または推論手法で、医用画像を入力情報として画像所見を導出する。例えば、ステップS20で導出された診断名が原発性肺癌である場合、原発性肺癌に対応するN個の学習済みのRandom Forest識別器を選択し、各画像所見の値を導出する。
ステップS35において、提示部110は、ステップS20において導出した診断名と、ステップS30において導出した画像所見を、支援情報としてユーザに提示する。
本実施形態によれば、情報処理装置100は医用画像から関心領域を取得し、関心領域に対して画像処理を行い、第1の画像特徴量を算出する。そして、算出した第1の画像特徴量を用いて推論診断名を導出し、導出した推論診断名と第1の画像特徴量を基に画像所見を導出する。したがって、医用画像の関心領域に関する特徴から想起する画像所見により合致する画像所見を、支援情報として提示することができる。
(実施形態2の変形例1)
本実施形態では、ステップS30において、推論診断名(第1の推論結果)に対して同一の推論手法を用いて画像所見の導出をしていた。しかし、必ずしも同一の推論手法を用いなくてもよい。例えば、原発性肺癌の場合はRandom Forest識別器、癌の肺転移の場合はサポートベクターマシンといったように、診断名に応じて異なる推論手法を用いてもよい。また、画像所見項目に応じて異なる推論手法を用いてもよい。さらに、診断名と画像所見の組に応じて異なる推論手法を用いてもよい。
また、本実施形態では全ての診断名・画像所見項目毎に画像特徴量を入力として画像所見の導出を行っていたが、必ずしもそうでなくてもよい。具体的には、一部の診断名・画像所見項目では実施形態1と同様に医用画像を用いてCNNにより導出を行い、他の診断名・画像所見では画像特徴量を用いた導出を行うようにしてもよい。
さらに、ステップS20ではCNNで推論診断名を導出し、ステップS30では画像特徴量を用いて画像所見を導出するようにしてもよい。もちろんこの場合もステップS30では前述した様々な組み合わせで画像所見を導出するようにしてよい。
以上の方法によれば、推論診断名、あるいは、推論診断名と画像所見項目の組み合わせ毎に最も適切な推論手法を適用できるため、より適切な画像所見を導出することができる。
<実施形態3>
本実施形態に係る情報処理装置100は、関心領域に画像処理を施すことで得た第1の画像特徴量に基づき、医用画像に描出された対象疾患の悪性の尤度を第1の推論結果として導出する。すなわち、第1の推論結果に関する情報は、医用画像データから特定される疾患の悪性の尤度に関する情報である。そして、導出した悪性の尤度と第1の画像特徴量を第2の推論部の入力として関心領域内の画像所見を導出する。なお、疾患の悪性の尤度に関する情報は、疾患の悪性の尤度そのものを示す文字列であってもよいし、疾患の悪性の尤度を表す記号やコード、該文字列を略した文字列であってもよい。
本実施形態における情報処理装置100は、実施形態2における図6と同様の機能構成から成る。また、情報処理装置100が行う全体の処理を説明するフローチャートは図7と同様である。但し、処理の一部が実施形態2とは異なっている。以下、図7のフローチャートを参照して、本実施形態における情報処理装置100が行う全体の処理について、実施形態2との相違部分についてのみ説明する。
ステップS10、S15の処理は実施形態2における処理と同様である。
ステップS20において、第1の推論部102は、ステップS15で算出した第1の画像特徴量を用いて描出された対象疾患の悪性の尤度を導出する。第1の推論部102は尤度を導出できる手法(回帰式等)であれば何でもよいが、ここではベイジアンネットワークを用いて対象疾患の悪性の尤度を導出するものとする。
なお、学習時には、原発性肺癌と癌の肺転移を悪性、良性結節を良性として2値のカテゴリ値に変換して学習し、導出時には悪性に対する推論確率を尤度として出力すればよい。
ステップS30において、第2の推論部104は、ステップS15で算出した第1の画像特徴量とステップS20で推論した悪性の尤度を用いて画像所見を導出する。
本実施形態では、第1の画像特徴量と尤度を第2の推論部への入力とし、画像所見の項目ごとに学習された推論手法で、各画像所見の値を導出する。ここで画像所見の導出は、ニューラルネットワークやサポートベクターマシンなど種々の公知の手法を用いることができる。
なお、学習時には、原発性肺癌と癌の肺転移の場合には尤度を1.0、良性結節の場合には尤度を0として学習すればよい。
本実施形態によれば、情報処理装置100は、関心領域内の異常陰影に対する悪性の尤度を第2の推論部の入力の一つとして利用し、第2の推論部により悪性の尤度を考慮して画像所見を導出する。したがって、医用画像の関心領域に関する特徴から想起する画像所見により合致する画像所見を、支援情報として提示することができる。
(実施形態3の変形例1)
本実施形態では、ステップS30において学習により推論手法のパラメータを決定していた。しかし、必ずしも学習のみでパラメータを設定しなくてもよい。例えば、悪性の尤度が導出結果(すなわち、画像所見の値)に与える影響が大きくなるよう、人手でパラメータを調整してもよい。
以上の方法によれば、関心領域から得られる特徴が導出結果に与える影響を、より大きく設定できるため、医用画像の関心領域に関する特徴から想起する画像所見により合致する画像所見を、支援情報として提示することができる。
(実施形態3の変形例2)
本実施形態では、ステップS20において悪性の尤度を導出し、ステップS30においてステップS20で推論した悪性の尤度を用いて画像所見を導出していた。しかし、ステップS20で推論する尤度は必ずしも悪性の尤度でなくてもよい。例えば、良性の尤度であってもよいし、その他の尤度であってもよい。
<実施形態4>
本実施形態に係る情報処理装置100は、関心領域に対して第1の推論結果(悪性の尤度)に応じた更なる画像処理を施すことで、第2の画像特徴量(輪郭線の形状や輪郭線の直線の長さ等の形状特徴量)を算出する。そして、算出した第2の画像特徴量に基づいて画像所見を導出する。
図8は、本実施形態における情報処理装置100の機能構成の一例を示す図である。なお、図6と同一の符号が付与された構成部については、実施形態2及び3との差異部分のみ説明する。
情報処理装置100は、関心領域取得部106と、第1の画像処理部108と、第1の推論部102と、第2の画像処理部112と、第2の推論部104と、提示部110を有する。
関心領域取得部106、第1の画像処理部108、第1の推論部102、提示部110は実施形態2及び3と同じ機能のため説明を省略する。
第2の画像処理部108は、第1の推論結果(悪性の尤度)に応じた画像処理を行う。
第2の推論部104は、第2の画像特徴量(輪郭線の形状や輪郭線の直線の長さ)を用いて画像所見を導出する。
情報処理装置100のハードウェア構成は、実施形態1乃至3における図2と同様である。
次に、図9のフローチャートを用いて、情報処理装置100が行う全体の処理を説明する。なお、図7と同一の符号が付与された処理については実施形態3との差異部分のみ説明する。
ステップS10乃至S20の処理は実施形態3の処理と同様である。
ステップS25において、第2の画像処理部108はステップS20で導出した悪性の尤度に応じた画像処理を行い、第2の画像特徴量を算出する。すなわち、医用画像データに対して第1の推論結果に応じた画像処理を行い第2の画像特徴量を取得する第2の画像処理手段に相当する。具体的には、輪郭線の形状や、輪郭線の直線の長さ等の形状特徴量を算出する。
算出の一例を、図10を用いて説明する。ステップS15の画像処理において図10(a)(b)のような輪郭線が抽出されたとする。この例では各ピクセル(ボクセル)における曲率を計算し、曲率に応じて輪郭線が直線であるかどうかを判定し、直線の長さを計測するものとする。
ステップS20で計算された悪性の尤度が所定値(例えば0.3)より大きい場合、曲率が閾値を超えた場合は線が曲がったと判定する。結果として、(a)の太線のような輪郭線に変換され、これを基に直線の長さを計測し、特徴量とする。一方、悪性の尤度が所定値以下の場合は、曲率に対する閾値を大きくし、曲率が多少大きくても輪郭線は直線のままであると見なす。結果として、(b)の太線のような輪郭線に変換され、これを基に直線の長さを計測し、特徴量とする。これは医師が、一般に良性の可能性が強い(つまり、悪性の尤度が低い)場合は同じ輪郭線の概形でも直線とみなす傾向があることを模擬したものである。
このように、ステップS25では、悪性の尤度(すなわち第1の推論結果)に応じた画像処理を行い、第2の画像特徴量を算出する。
ステップS30において、第2の推論部104は、ステップS25で算出した第2の画像特徴量を入力として画像所見を導出する。ここでの画像所見の推論は、実施形態3と同様にニューラルネットワークやサポートベクターマシンなど種々の公知の手法を用いるとことができる。
ステップS35の処理は実施形態3の処理と同様である。
本実施形態によれば、情報処理装置100は悪性の尤度(第1の推論結果)に応じた第2の画像特徴量を算出し、第2の画像特徴量を入力として画像所見を導出する。すなわち、医師の思考プロセスを考慮した画像特徴量を基に推論した画像所見を提示する。したがって、医用画像の関心領域に関する特徴から想起する画像所見により合致する画像所見を、支援情報として提示することができる。
(実施形態4の変形例1)
本実施形態では、ステップS30において、算出した第2の画像特徴量のみを入力として画像所見を導出していた。しかし、第1の画像特徴量を併用して画像所見を導出してもよい。さらに、実施形態3と同様に悪性の尤度を特徴量として加えて画像所見を導出してもよい。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
なお、前述した実施形態は、本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。また、各実施形態の組み合わせも本発明の技術的範囲に含まれる。
100 情報処理装置
102 第1の推論部
104 第2の推論部
108 第1の画像処理部
112 第2の画像処理部

Claims (10)

  1. 医用画像データを用いて第1の推論を行い、前記医用画像データから特定される診断名に関する情報を第1の推論結果として導出する第1の推論手段と、
    前記医用画像データと前記診断名に関する情報とを用いて第2の推論を行い、画像所見に関する情報を第2の推論結果として導出する第2の推論手段と、
    を備えることを特徴とする情報処理装置。
  2. 医用画像データを用いて第1の推論を行い、前記医用画像データから特定される疾患の悪性の尤度に関する情報を第1の推論結果として導出する第1の推論手段と、
    前記医用画像データと前記疾患の悪性の尤度に関する情報とを用いて第2の推論を行い、画像所見に関する情報を第2の推論結果として導出する第2の推論手段と、
    を備えることを特徴とする情報処理装置。
  3. 前記第2の推論手段は、前記第1の推論結果に応じたパラメータおよび/または推論手法で前記第2の推論を行い、前記画像所見に関する情報を導出することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記第2の推論手段は、前記診断名と前記画像所見の項目の組み合わせごとに、前記画像所見に関する情報を導出する識別器をさらに備え、前記第1の推論結果としての前記診断名を含む組み合わせに対応する前記識別器を用いて、前記画像所見に関する情報を導出することを特徴とする請求項1に記載の情報処理装置。
  5. 前記情報処理装置は、
    前記医用画像データに対して画像処理を行い第1の画像特徴量を取得する第1の画像処理手段
    をさらに備え、
    前記第1の推論手段は、前記第1の画像特徴量を用いて前記第1の推論を行い、
    前記第2の推論手段は、前記第1の画像特徴量と前記第1の推論結果を用いて前記第2の推論を行うことを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 前記情報処理装置は、
    前記医用画像データに対して前記第1の推論結果に応じた画像処理を行い第2の画像特徴量を取得する第2の画像処理手段
    をさらに備え、
    前記第2の推論手段は、前記第2の画像特徴量を用いて前記第2の推論を行うことを特徴とする請求項2に記載の情報処理装置。
  7. 医用画像データを用いて第1の推論を行い、前記医用画像データから特定される診断名に関する情報を第1の推論結果として導出する第1の推論ステップと、
    前記医用画像データと前記診断名に関する情報とを用いて第2の推論を行い、画像所見に関する情報を第2の推論結果として導出する第2の推論ステップと、
    を備えることを特徴とする情報処理装置の作動方法。
  8. 情報処理装置を、
    医用画像データを用いて第1の推論を行い、前記医用画像データから特定される診断名に関する情報を第1の推論結果として導出する第1の推論手段と、
    前記医用画像データと前記診断名に関する情報とを用いて第2の推論を行い、画像所見に関する情報を第2の推論結果として導出する第2の推論手段、
    として機能させることを特徴とするプログラム。
  9. 医用画像データを用いて第1の推論を行い、前記医用画像データから特定される疾患の悪性の尤度に関する情報を第1の推論結果として導出する第1の推論ステップと、
    前記医用画像データと前記疾患の悪性の尤度に関する情報とを用いて第2の推論を行い、画像所見に関する情報を第2の推論結果として導出する第2の推論ステップと、
    を備えることを特徴とする情報処理装置の作動方法。
  10. 情報処理装置を、
    医用画像データを用いて第1の推論を行い、前記医用画像データから特定される疾患の悪性の尤度に関する情報を第1の推論結果として導出する第1の推論手段と、
    前記医用画像データと前記疾患の悪性の尤度に関する情報とを用いて第2の推論を行い、画像所見に関する情報を第2の推論結果として導出する第2の推論手段、
    として機能させることを特徴とするプログラム。
JP2017068691A 2017-03-30 2017-03-30 情報処理装置、その制御方法及びプログラム Active JP6808557B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017068691A JP6808557B2 (ja) 2017-03-30 2017-03-30 情報処理装置、その制御方法及びプログラム
PCT/JP2018/009404 WO2018180407A1 (ja) 2017-03-30 2018-03-12 情報処理装置、その制御方法及びプログラム
EP18776363.6A EP3582178A4 (en) 2017-03-30 2018-03-12 INFORMATION PROCESSING DEVICE, ASSOCIATED ORDERING PROCESS AND PROGRAM
US16/570,463 US11424033B2 (en) 2017-03-30 2019-09-13 Information processing apparatus, control method therefor, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017068691A JP6808557B2 (ja) 2017-03-30 2017-03-30 情報処理装置、その制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2018166961A JP2018166961A (ja) 2018-11-01
JP6808557B2 true JP6808557B2 (ja) 2021-01-06

Family

ID=63675779

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017068691A Active JP6808557B2 (ja) 2017-03-30 2017-03-30 情報処理装置、その制御方法及びプログラム

Country Status (4)

Country Link
US (1) US11424033B2 (ja)
EP (1) EP3582178A4 (ja)
JP (1) JP6808557B2 (ja)
WO (1) WO2018180407A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6818424B2 (ja) * 2016-04-13 2021-01-20 キヤノン株式会社 診断支援装置、情報処理方法、診断支援システム及びプログラム
CN110235146A (zh) * 2017-02-03 2019-09-13 西门子股份公司 用于检测图像中的感兴趣对象的方法和装置
JP6862310B2 (ja) * 2017-08-10 2021-04-21 株式会社日立製作所 パラメータ推定方法及びx線ctシステム
JP7058988B2 (ja) 2017-11-30 2022-04-25 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JPWO2020209382A1 (ja) * 2019-04-11 2020-10-15
JP7358120B2 (ja) * 2019-08-30 2023-10-10 キヤノン株式会社 情報処理装置、断層撮影装置、情報処理方法およびプログラム
JP7238705B2 (ja) * 2019-09-05 2023-03-14 株式会社島津製作所 診療支援方法、診療支援システム、学習モデルの生成方法、および、診療支援プログラム
JP7436636B2 (ja) 2020-03-23 2024-02-21 富士フイルム株式会社 文書作成支援装置、方法およびプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6058322A (en) * 1997-07-25 2000-05-02 Arch Development Corporation Methods for improving the accuracy in differential diagnosis on radiologic examinations
WO2005117693A1 (en) * 2004-05-27 2005-12-15 Children's Medical Center Corporation Patient-specific seizure onset detection system
US7965736B2 (en) 2005-08-24 2011-06-21 Qualcomm Incorporated Transmission of multiplex protocol data units in physical layer packets
JP2009205410A (ja) 2008-02-27 2009-09-10 Toshiba Corp メモリコントローラおよびメモリシステム
JP2009207585A (ja) 2008-03-03 2009-09-17 Fuji Xerox Co Ltd 医用画像解析システム、コンピュータプログラム及び医用画像解析方法
JP5581574B2 (ja) 2008-07-09 2014-09-03 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
JP5398518B2 (ja) * 2009-12-25 2014-01-29 キヤノン株式会社 医療診断支援装置
EP2506173B1 (en) 2011-03-28 2020-01-01 Canon Kabushiki Kaisha Medical diagnosis support apparatus and medical diagnosis support method
JP5864942B2 (ja) * 2011-07-29 2016-02-17 キヤノン株式会社 画像処理装置及び画像処理方法
US10049445B2 (en) 2011-07-29 2018-08-14 Canon Kabushiki Kaisha Image processing apparatus and image processing method of a three-dimensional medical image
JP6021346B2 (ja) * 2012-02-14 2016-11-09 キヤノン株式会社 診断支援装置及びその制御方法
JP5972609B2 (ja) * 2012-03-05 2016-08-17 東芝メディカルシステムズ株式会社 管理オブジェクト生成装置および画像表示システム
JP2017011392A (ja) 2015-06-18 2017-01-12 株式会社リコー 復号回路、これを用いた通信装置、及び通信システム
JP6531601B2 (ja) 2015-09-30 2019-06-19 富士通株式会社 診断プログラム、診断方法および診断装置

Also Published As

Publication number Publication date
EP3582178A1 (en) 2019-12-18
US11424033B2 (en) 2022-08-23
EP3582178A4 (en) 2020-12-30
US20200005942A1 (en) 2020-01-02
WO2018180407A1 (ja) 2018-10-04
JP2018166961A (ja) 2018-11-01

Similar Documents

Publication Publication Date Title
JP6808557B2 (ja) 情報処理装置、その制御方法及びプログラム
WO2020224403A1 (zh) 分类任务模型的训练方法、装置、设备及存储介质
US10388018B2 (en) Image processing apparatus, image processing method, and storage medium
EP3675130A1 (en) Systems and methods to determine disease progression from artificial intelligence detection output
JP6532287B2 (ja) 医療診断支援装置、情報処理方法及びプログラム
US10748282B2 (en) Image processing system, apparatus, method and storage medium
JP6818424B2 (ja) 診断支援装置、情報処理方法、診断支援システム及びプログラム
JP7066385B2 (ja) 情報処理方法、情報処理装置、情報処理システム及びプログラム
US10692215B2 (en) Image processing apparatus, image processing method, and storage medium
JP7058988B2 (ja) 情報処理装置、情報処理方法およびプログラム
US9734299B2 (en) Diagnosis support system, method of controlling the same, and storage medium
US20220285024A1 (en) Facilitating interpretability of classification model
WO2018088055A1 (ja) 画像処理装置、画像処理方法、画像処理システム及びプログラム
JPWO2007013300A1 (ja) 異常陰影候補検出方法及び異常陰影候補検出装置
CN112382360A (zh) 一种诊断报告自动生成系统、存储介质及电子设备
JP6220435B2 (ja) 診断支援装置及びその制御方法
JP2017189394A (ja) 情報処理装置および情報処理システム
EP4235566A1 (en) Method and system for determining a change of an anatomical abnormality depicted in medical image data
Jangam et al. Segmentation of lungs from chest X rays using firefly optimized fuzzy C-means and level set algorithm
US20230023972A1 (en) Apparatus, method and computer-readable storage medium for detecting objects in a video signal based on visual evidence using an output of a machine learning model
JP7321671B2 (ja) 情報処理装置、情報処理方法、情報処理システムおよびプログラム
Chedid et al. Synthesis of fracture radiographs with deep neural networks
JP5954846B2 (ja) 形状データ生成プログラム、形状データ生成方法及び形状データ生成装置
JP6530841B2 (ja) 診断支援システム、その作動方法、診断支援装置、およびプログラム
US20240087304A1 (en) System for medical data analysis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201209

R151 Written notification of patent or utility model registration

Ref document number: 6808557

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151