JP2022507002A - リアルタイムに取得される胃内視鏡イメージに基づいて胃病変を診断する内視鏡装置及び方法 - Google Patents

リアルタイムに取得される胃内視鏡イメージに基づいて胃病変を診断する内視鏡装置及び方法 Download PDF

Info

Publication number
JP2022507002A
JP2022507002A JP2021516766A JP2021516766A JP2022507002A JP 2022507002 A JP2022507002 A JP 2022507002A JP 2021516766 A JP2021516766 A JP 2021516766A JP 2021516766 A JP2021516766 A JP 2021516766A JP 2022507002 A JP2022507002 A JP 2022507002A
Authority
JP
Japan
Prior art keywords
unit
gastric
lesion
image
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021516766A
Other languages
English (en)
Other versions
JP7218432B2 (ja
Inventor
ボムジュ チョ
チャンソク バン
セウ パク
ジェジュン イ
ジェホ チェ
Original Assignee
インダストリー アカデミック コオペレーション ファウンデーション、ハルリム ユニヴァーシティ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インダストリー アカデミック コオペレーション ファウンデーション、ハルリム ユニヴァーシティ filed Critical インダストリー アカデミック コオペレーション ファウンデーション、ハルリム ユニヴァーシティ
Publication of JP2022507002A publication Critical patent/JP2022507002A/ja
Application granted granted Critical
Publication of JP7218432B2 publication Critical patent/JP7218432B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00101Insertion part of the endoscope body characterised by distal tip features the distal tip features being detachable
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00315Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body for treatment of particular body parts
    • A61B2018/00482Digestive system

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Optics & Photonics (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Endoscopes (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

リアルタイムに取得される胃内視鏡イメージを用いて病変を診断する内視鏡装置に関するものであり、被検者の体内に挿入される本体部と、前記本体部の後端に設けられて、ユーザの入力情報に基づいて前記本体部を操作する操作部と、複数の胃病変イメージを入力とし、胃病変診断結果に関する項目を出力とする学習を介して人工神経網システムを構築し、胃内視鏡イメージを患者情報と連係して新規データセットを生成し、構築された前記人工神経網を介して胃病変診断を行う病変診断部と、前記病変診断部の診断結果及び胃内視鏡イメージを表示するディスプレイ部とを備えることができる。【選択図】図1

Description

本願は、2018年10月2日付に出願された韓国特許出願第10-2018-0117824号に対する優先権主張出願であって、当該出願の明細書及び図面に開示された全ての内容は、引用によって本出願に援用される。
本願は、リアルタイムに取得される胃内視鏡イメージに基づいて胃病変を診断する内視鏡装置及び方法に関する。
人間の体を構成している最も小さい単位である細胞は、正常であるとき、細胞内の調節機能により分裂・成長し、死んでなくなりながら、細胞数の均衡を維持する。ある原因により細胞が損傷を受ける場合、治療を受けて回復し、正常な細胞として役割をするようになるが、回復されなかった場合は、自ら死ぬようになる。しかしながら、種々の理由により、このような増殖と抑制が調節されない非正常な細胞等が過多に増殖するだけでなく、周囲の組織及び臓器に侵入して腫瘤形成及び正常組織の破壊を招く状態を癌(cancer)と定義する。癌は、このように抑制されない細胞の増殖であって、正常な細胞と臓器の構造と機能を破壊するため、その診断と治療の重要性は極めて大きい。
癌は、細胞が非正常的に増殖して正常な細胞の機能を妨害する疾病であって、肺癌、胃癌(gastric cancer、GC)、乳癌(breast cancer、BRC)、大腸癌(colorectal cancer、CRC)などが代表的であるが、実質的には、いずれの組織でも発生することができる。このうち、胃癌は、全世界的に見ると、韓国、日本などで多くの発生を見せ、米国、ヨーロッパなどの西欧では発生率が低い癌である。韓国の場合、発生率1位、死亡率は、肺癌に続き、2位を占めており、癌のうち、国民健康に及ぼす影響が極めて大きいもののうちの1つである。胃癌の分類をみると、全体の95%が胃壁の粘膜の腺細胞で生じる腺癌であり、その他、リンパ系で発生するリンパ種、てんかん組織で発生する消化管てんかん性腫瘍がある。早期胃癌(ECG)のほとんどは、臨床症状や徴候がないので、スクリーニング戦略なしに適時に探知し、治療し難いという問題点が生じる。また、胃の異形成のような前癌性病変を有した患者は、胃癌にかかる相当な危険がある。
最も一般的に使用される胃癌の診断方法は、生体組織検査を介して得られた組織サンプルを用いるか、胃内視鏡検査を利用することであり、コンピュータ断層撮影(computed tomography、CT)や核磁気共鳴(nuclear magnetic resonance、NMR)などの映像を利用できる。そのうち、生体組織検査は、患者に大きい苦痛を引き起こし、高費用がかかるだけでなく、診断まで長い時間がかかるという短所がある。また、患者の組織に損傷を加えることになる侵襲的な検査であり、患者が実際癌にかかった場合、生体組織検査過程中に癌の転移が誘発され得る恐れがあり、多過ぎた検査は患者に有害であることがある。コンピュータ断層撮影や核磁気共鳴を利用した診断は、臨床医または判読医の熟練度によって誤診の可能性があり、映像を得る機器の精密度に大きく依存するという短所がある。さらに、最も精密な機器さえも数mm以下の腫瘍は検出することができず、発病初期段階では、検出が難しいという短所がある。また、映像を得るために、患者または疾病保有可能者が遺伝子の突然変異を誘発できる高エネルギーの電磁波に露出されるので、さらに他の疾病を引き起こすこともある。
したがって、現行の医療において、胃に発生した新生物の診断は、普通1次的に医師が胃内視鏡検査を介して発見し、内視鏡イメージに含まれた胃内部の形態及び大きさに鑑みて胃癌であるか否かを1次判断する場合が多かった。そして、この中で癌が疑われる病変に対して胃内視鏡検査をして組織を採取し、病理学的組織検査として確診を下す場合が多かった。ところが、胃内視鏡検査は、内視鏡を患者が飲み込まなければならず、その内視鏡が食道を経て胃に到達しながら多くの不快感を引き起こし、食道穿孔あるいは胃穿孔など、合併症が発生する可能性があり、その試行回数を減らしながら胃新生物を診断することが患者のために必要である。
したがって、医師が胃新生物発見のための胃内視鏡検査をし、この結果を分析した後、組織検査をするための胃内視鏡検査を再度試行するよりは、1回の胃内視鏡検査の間、胃内視鏡イメージから胃新生物病変を発見し、リアルタイムにその危険度を評価して、ある病変に対して組織検査をするべきか否かを早速決定し、癌の危険がある病変に対してその場で直ちに組織検査をすることが極めて必要である。このように胃内視鏡回数を次第に減らしていくのが現在の傾向である。リアルタイムに胃新生物病変の危険性を評価するにあたって、その危険度を実際より低く評価するようになると、癌病変を見逃すようになり、癌治療がなされないようになるという重大な結果がもたらされ、危険度を実際より高く評価するようになると、不要な組織検査をすることになり、患者の組織に危害を加えるようになる。
しかしながら、このようにリアルタイムに胃内視鏡イメージを見て胃病変の危険度を評価する方法は、今まで標準として確立されたものがない。現在、このような危険度の評価は、ほとんど全的に胃内視鏡を試行する医師の主観的判断に依存する。しかし、この方法は、医師毎に経験が異なり、異なる診断を下すことがあり、十分な経験のある医師がいない地域では、正確な診断がなされ得ないという問題点が生じる。
内視鏡装置を介して取得された非正常な病変の発見は、一般的に病変の異常形態や粘膜の色変化によって決定され、診断正確度は、訓練及び光学技術、並びに色素内視鏡(chromoendoscopy)にて改善されることと知られた。狭帯域撮影(narrow band imaging)、共焦点イメージング(confocal imaging)、及び拡大技術(いわゆる、画像強調内視鏡)のような内視鏡イメージング技術の適用は、診断正確度を向上させることと知られている。
しかし、白色内視鏡のみを介しての検査が最も一般化された検査方式であり、映像強化内視鏡検査でサーバ間及び内視鏡内の変動性を解決するための手順及び解析プロセスの標準化が必要な実情である。
本願の背景になる技術は、韓国公開特許第10-2018-0053957号公報に開示されている。
本願は、前述した従来技術の問題点を解決するためのものであって、内視鏡撮影装置で取得される白色光胃内視鏡イメージ(映像)を収集し、リアルタイムにディープラーニングアルゴリズムに適用して、胃内視鏡検査中、リアルタイムに胃病変を診断できる内視鏡装置を提供しようとすることを目的とする。
本願は、前述した従来技術の問題点を解決するためのものであって、胃内視鏡映像を基に胃腫瘍を自動に分類する深層学習モデルを提供できる内視鏡装置を提供しようとすることを目的とする。
本願は、前述した従来技術の問題点を解決するためのものであって、医師(ユーザ)が内視鏡装置を利用して胃腫瘍を検査するときに取得される複数のイメージデータをリアルタイムに評価し、見逃す恐れがある胃腫瘍を診断できる内視鏡装置を提供しようとすることを目的とする。
本願は、前述した従来技術の問題点を解決するためのものであって、リアルタイムに取得される胃内視鏡イメージを基に胃新生物を自動に分類し、胃癌あるいは胃異形成などを診断及び予測できる内視鏡装置を提供しようとすることを目的とする。
ただし、本願の実施形態がなそうとする技術的課題は、上記したような技術的課題に限定されず、さらに他の技術的課題が存在しうる。
上記した技術的課題を達成するための技術的手段として、本願の一実施形態に係るリアルタイムに取得される胃内視鏡イメージを用いて病変を診断する内視鏡装置は、複数のユニット装置を収容し、被検者の体内に挿入される本体部と、前記本体部の後端に設けられて、ユーザの入力情報に基づいて前記本体部を操作する操作部と、複数の胃病変イメージを入力とし、胃病変診断結果に関する項目を出力とする学習を介して人工神経網システムを構築し、リアルタイムに取得される胃内視鏡イメージを患者情報と連係して構築された前記人工神経網システムを介して胃病変診断を行う病変診断部と、前記病変診断部の診断結果及びリアルタイムに取得される胃内視鏡イメージを表示するディスプレイ部とを備えることができる。
本願の一実施形態によれば、内視鏡装置は、前記操作部から提供されたユーザの入力情報及び前記病変診断装置の診断結果に基づいて前記本体部の動作を制御する制御信号を生成する制御部をさらに備えることができる。
本願の一実施形態によれば、前記本体部は、前記本体部の前端に備えられて、新規胃病変イメージを撮影し、撮影した前記新規胃内視鏡イメージを提供する撮影部を備え、前記制御部は、前記操作部から前記撮影部の動作を制御するためのユーザの入力を受信し、前記撮影部を制御するための制御信号を生成できる。
本願の一実施形態によれば、前記撮影部で提供した前記新規胃内視鏡イメージを位置情報と連係して胃病変情報を生成する病変位置取得部をさらに備え、前記制御部は、前記病変診断装置の診断結果及び前記胃病変情報に基づいて対象体の組織の一部を採取するための生検(biopsy)ユニットの動作を制御するための制御信号を生成できる。
本願の一実施形態によれば、前記病変診断部は、前記新規胃病変イメージの提供を受けるイメージ取得部と、前記新規胃病変イメージと患者情報とを連係して新規データセットを生成するデータ生成部と、ディープラーニングアルゴリズムに適用可能なように前記新規データセットを前処理するデータ前処理部と、複数の胃病変イメージを入力とし、胃病変診断結果に関する項目を出力とする学習を介して人工神経網システムを構築する人工神経網構築部と、前記新規データセットを、前記前処理過程を経た後、前記人工神経網システムを介して胃病変診断を行う胃病変診断部とを備えることができる。
本願の一実施形態によれば、前記データ生成部は、前記複数の胃病変イメージの各々を患者情報と連係してデータセットを生成し、前記データセットは、前記人工神経網システムの学習に要求される学習用データセット及び前記人工神経網システムの学習の進行程度を検証するための検証用データセットに分類して生成することができる。
本願の一実施形態によれば、前記検証用データセットは、前記学習用データセットと重ならないデータセットであることができる。
本願の一実施形態によれば、前記前処理部は、前記新規データセットに含まれた胃病変イメージを用いて、前記胃病変を中心として前記胃病変が含まれなかったイメージの周辺部領域を、切り取り(crop)、移動(shift)、回転(rotation)、ひっくり返し(flipping)、及び色相調整(color adjustment)のうち、いずれか1つの前処理過程を行って、前記胃病変イメージを前記ディープラーニングアルゴリズムに適用可能な状態に前処理することができる。
本願の一実施形態によれば、前記前処理部は、前記新規胃病変イメージデータのデータ数を増加させるための増幅部を備え、前記増幅部は、前記新規胃病変イメージデータの回転、ひっくり返し、切り取り、及びノイズ混合を適用して前記胃病変イメージデータを増幅できる。
本願の一実施形態によれば、前記人工神経網構築部は、前処理過程を経た前記データセットを入力とし、前記胃病変診断結果に関する項目を出力とする畳み込みニューラルネットワーク(Convolutional Neural Networks)及び全結合型ニューラルネットワーク(Fully-connected Neural Networks)の学習を介しての訓練モデルを構築できる。
本願の一実施形態によれば、前記前処理過程を経たデータセットは、前記畳み込みニューラルネットワークの入力とし、前記全結合型ニューラルネットワークは、前記畳み込みニューラルネットワークの出力及び前記患者情報を入力とすることができる。
本願の一実施形態によれば、前記畳み込みニューラルネットワークは、前記複数の胃病変イメージから複数の特徴パターンを出力し、前記複数の特徴パターンは、全結合型ニューラルネットワークにより最終分類されることができる。
本願の一実施形態によれば、前記胃病変診断部は、進行胃癌(advanced gastric cancer)、早期胃癌(early gastric cancer)、高度異形成(high-grade dysplasia)、低異形成(low-grade dysplasia)、及び非腫瘍(non-neoplasm)のうち、少なくともいずれか1つに前記胃病変診断分類を行うことができる。
本願の一実施形態によれば、被検者の体内に挿入される本体部及び前記本体部の後端に設けられて、ユーザの入力情報に基づいて前記本体部を操作する操作部を備える内視鏡装置がリアルタイムに取得する胃内視鏡イメージを用いて病変を診断する方法は、複数の胃病変イメージを入力とし、胃病変診断結果に関する項目を出力とする学習を介して人工神経網システムを構築し、胃内視鏡イメージを患者情報と連係して新規データセットを生成し、構築された前記人工神経網を介して胃病変診断を行うステップと、診断結果及びリアルタイムに取得される胃内視鏡イメージを表示するステップとを含むことができる。
上述した課題解決手段は、単に例示的なものであって、本願を制限しようとする意図と解釈されてはならない。上述した例示的な実施形態の他にも、図面及び発明の詳細な説明に追加的な実施形態が存在しうる。
前述した本願の課題解決手段によれば、内視鏡撮影装置で取得される白色光胃内視鏡イメージ(映像)を収集し、ディープラーニングアルゴリズムに適用して胃病変を診断できる。
前述した本願の課題解決手段によれば、胃内視鏡映像を基に胃腫瘍を自動に分類し、生成された人工神経網を評価する深層学習モデルを提供できる。
前述した本願の課題解決手段によれば、医師(ユーザ)が内視鏡装置を利用して胃腫瘍を検査するときに取得する複数のイメージデータをリアルタイムに学習して、見逃す恐れがある胃腫瘍を診断できる。
前述した本願の課題解決手段によれば、経験のある医師が必要であった既存の胃内視鏡判読に比べて、内視鏡撮影装置にて取得されたイメージを学習し、胃病変を分類することにより、大幅の費用低減及び人力低減の効果がある。
前述した本願の課題解決手段によれば、内視鏡撮影装置にて取得された胃内視鏡イメージを前記胃病変を診断する装置を介して胃病変を診断及び予測することにより、客観的かつ一貫的な判読結果を取得でき、医師が判読するときに発生し得る誤り及び誤読の可能性を減らし、臨床決定補助道具として使用されることができる。
ただし、本願において得ることができる効果は、上記したような効果に限定されず、さらに他の効果が存在しうる。
本願の一実施形態に係る内視鏡装置の概略的な構成図である。 本願の一実施形態に係る内視鏡装置の概略的なブロック図である。 本願の一実施形態に係る内視鏡装置の病変診断部の概略的なブロック図である。 本願の一実施形態に係る内視鏡装置がリアルタイムに取得する胃内視鏡イメージを用いて病変を診断する方法に対する動作フローチャートである。
下記では、添付した図面を参照して本願の属する技術分野における通常の知識を有する者が容易に実施できるように本願の実施形態を詳細に説明する。しかしながら、本願は、種々の相違した形態で実現されることができ、ここで説明する実施形態に限定されない。そして、図面において本願を明確に説明するために、説明と関係ない部分を省略し、明細書全体を介して類似した部分に対しては、類似した図面符号をつけた。
本願の明細書全体において、ある部分が他の部分と「連結」されているとするとき、これは、「直接連結」されている場合のみならず、その中間に他の素子を挟んで「電気的に連結」または「間接的に連結」されている場合も含む。
本願の明細書全体において、ある部材が他の部材「上に」、「上部に」、「上端に」、「下に」、「下部に」、「下端に」位置しているとするとき、これは、ある部材が他の部材に接している場合のみならず、2つの部材間にさらに他の部材が存在する場合も含む。
本願の明細書全体において、ある部分がある構成要素を「含む」とするとき、これは、特に反対される記載がない限り、他の構成要素を除外するものでなく、他の構成要素をさらに含むことができるということを意味する。
本願は、内視鏡装置から取得される胃内視鏡イメージを基に胃腫瘍を分類し、その性能を評価する深層学習モデルを含む胃病変を診断する装置及び方法に関するものである。本願は、畳み込みニューラルネットワーク(convolutional neural network)に基づいて胃内視鏡写真を判読し、自動に胃の新生物を診断できる。
本願は、胃内視鏡写真イメージデータセットに畳み込みニューラルネットワークというディープラーニングアルゴリズムを適用してコンピュータで学習させた後、新しく入力される胃内視鏡写真を判読し、これを通じて当該写真から胃新生物を自動に分類し、胃癌あるいは胃異形成などを診断あるいは予測できる。
本願は、複数の胃病変イメージを基盤に構築された人工神経網システムでリアルタイムに取得される新規胃病変イメージを判読して胃癌あるいは胃異形成などを診断及び予測できる。
図1は、本願の一実施形態に係る内視鏡装置の概略的な構成図であり、図2は、本願の一実施形態に係る内視鏡装置の概略的なブロック図である。
図1及び図2に示すように、内視鏡装置1は、病変診断部10、操作部21、本体部22、制御部23、病変位置取得部24、ディスプレイ部25を備えることができる。
内視鏡装置1は、データ(イメージ、映像、テキスト)及び各種通信信号をネットワークを介して送受信することができる。病変診断システム1は、データ格納及び処理の機能を有する全ての種類のサーバ、端末、またはデバイスを含むことができる。
内視鏡装置1は、胃内視鏡検査の際に使用される装置であることができる。内視鏡装置1は、図1に示されたように、操作部21を備えてユーザの入力情報に基づいて本体部22が操作されるように形成されることができる。また、内視鏡装置1は、カプセル形態の形状であることができる。カプセル型内視鏡装置1は、超小型のカメラを備え、対象体(患者)の身体内部に挿入されて胃病変イメージを取得できる。内視鏡装置1の形状は、前述した形状に限定されるものではない。
病変診断部10は、複数の胃病変イメージを入力とし、胃病変診断結果に関する項目を出力とする学習を介して人工神経網システムを構築し、胃内視鏡イメージを患者情報と連係して新規データセットを生成し、構築された人工神経網システムを介して胃病変診断を行うことができる。言い換えれば、病変診断部10は、リアルタイムに取得される胃病変イメージを構築された人工神経網システムを介して学習後、胃病変診断を行うものであることができる。病変診断部10は、後述する図3を介してより詳細に説明する。
本願の一実施形態によれば、操作部21は、本体部22の後端に設けられて、ユーザの入力情報に基づいて操作されることができる。操作部21は、内視鏡施術者によって把持される部分であって、被検者の体内に挿入される本体部22を操作できる。また、操作部21は、本体部22が収容している内視鏡施術の際に必要な複数のユニット装置の動作を操作できる。操作部21は、回転制御部を備えることができる。回転制御部は、制御信号を生成する機能及び回転力を提供する機能(例えば、モータ)を担当する部分を含むことができる。操作部21は、撮影部(図示せず)を操作するためのボタンを含むことができる。ボタンは、撮影部(図示せず)の位置を制御するためのボタンであって、ユーザが上下左右、前進、後進などのような本体部22の位置を変更するためのものであることができる。
本体部22は、被検者の体内に挿入される部分であって、複数のユニット装置を収容することができる。複数のユニット装置は、被検者の体内を撮影する撮影部(図示せず)、体内に空気を供給するエアー供給ユニット、体内に水を供給する水供給ユニット、体内に光を照射する照明ユニット、体内の組織の一部を採取するか、治療するための生検(biopsy)ユニット、及び体内からの空気または異物を吸入するサクションユニットのうち、少なくとも1つを備えることができる。生検ユニットは、生体から組織の一部を採取するためのメス、針など、各種医療機器を含むことができ、メス、針などの生検(biopsy)ユニットは、内視鏡施術者によって生検(biopsy)チャネルを介して体内に挿入されることにより体内の細胞を採取できる。
撮影部(図示せず)は、本体部22の直径に対応する大きさを有するカメラを収容することができる。撮影部(図示せず)は、本体部22の前端に備えられて胃病変イメージを撮影し、ネットワークを介して病変診断部10及びディスプレイ部25に撮影した胃病変イメージを提供することができる。撮影部(図示せず)は、リアルタイムに新規胃病変イメージを取得できる。
制御部23は、操作部21から提供されたユーザの入力情報及び病変診断装置10の診断結果に基づいて本体部22の動作を制御する制御信号を生成できる。制御部23は、操作部21に含まれたボタンのうち、ユーザからいずれか1つの選択入力を受信した場合、当該ボタンに対応するように本体部22の動作を制御する制御信号を生成できる。例えば、制御部23は、ユーザが本体部22を前進させるボタンを入力した場合、本体部22が一定速度で対象体(患者)の体内を前進できるように動作制御信号を生成できる。本体部22は、制御部23の制御信号に基づいて対象体(患者)の体内で前進することができる。
また、制御部23は、撮影部(図示せず)の動作を制御するための制御信号を生成できる。撮影部(図示せず)の動作を制御するための制御信号は、病変領域に位置した撮影部(図示せず)が胃病変イメージをキャプチャするための信号であることができる。言い換えれば、ユーザは、操作部21から特定病変領域に位置した撮影部(図示せず)がイメージを取得することを望む場合、キャプチャ取得ボタンをクリックできる。制御部23は、操作部21から提供された入力情報に基づいて撮影部(図示せず)が当該病変領域でイメージを取得できるように制御信号を生成できる。制御部23は、撮影部(図示せず)が撮影中の映像から特定胃病変イメージを取得するための制御信号を生成できる。
また、制御部23は、病変診断部10の診断結果に基づいて対象体の組織の一部を採取するための生検ユニット(biopsy)の動作を制御するための制御信号を生成できる。制御部23は、病変診断部10の診断結果が進行胃癌(advanced gastric cancer)、早期胃癌(early gastric cancer)、高度異形成(high-grade dysplasia)、及び低異形成(low-grade dysplasia)のうち、少なくともいずれか1つに属する場合、切除術を施行できるように生検(biopsy)ユニットの動作を制御するための制御信号を生成できる。生検(biopsy)ユニットは、生体から組織の一部を採取するためのメス、針など、各種医療機器を含むことができ、メス、針などの生検(biopsy)ユニットは、内視鏡施術者によって生検(biopsy)チャネルを介して体内に挿入されることにより体内の細胞を採取できる。また、制御部23は、操作部21から提供されるユーザ入力信号に基づいて生検(biopsy)ユニットの動作を制御するための制御信号を生成できる。体内の細胞を採取、切除、除去する動作は、ユーザが操作部21を利用して行うことであることができる。
本願の一実施形態によれば、病変位置取得部24は、撮影部(図示せず)から提供された胃病変イメージと位置情報とを連係して胃病変情報を生成できる。位置情報は、本体部22が現在体内に位置した位置情報であることができる。言い換えれば、本体部22が対象体(患者)の胃の第1の地点に位置し、第1の地点から胃病変イメージが取得された場合、病変位置取得部24は、前記胃病変イメージと位置情報とを連係して胃病変情報を生成できる。
病変位置取得部24は、取得された胃病変イメージと位置情報とを連係して生成された胃病変情報をユーザ(医師)に提供することができる。病変診断部10の診断結果及び病変位置取得部24の胃病変情報をディスプレイ部25を介してユーザに提供することにより、当該病変を切除(除去)する施術及び手術の際、当該病変位置でない所で切除術が行われ得る状況を防止できる。
また、制御部23は、病変位置取得部24で提供した位置情報を利用して生検(biopsy)ユニットが当該病変位置に位置しなかった場合、前記生検(biopsy)ユニットの位置を制御するための制御信号を生成できる。
図3は、本願の一実施形態に係る内視鏡装置の病変診断部の概略的なブロック図である。
図3に示すように、病変診断部10は、イメージ取得部11、データ生成部12、データ前処理部13、人工神経網構築部14、及び胃病変診断部15を備えることができる。ただし、病変診断部10の構成が先に開示されたものなどに限定されるものではない。例えば、病変診断部10は、情報を格納するためのデータベースをさらに備えることができる。
イメージ取得部11は、新規胃病変イメージを取得できる。イメージ取得部11は、撮影部(図示せず)から新規胃病変イメージを受信できる。イメージ取得部11は、胃内視鏡診療に使用されている内視鏡撮影装置(デジタルカメラ)にて取得された新規胃病変イメージを取得できる。イメージ取得部11は、病理学的に確認された胃病変の内視鏡白色光イメージを収集できる。新規胃病変イメージは、内視鏡検査(治療)の際、撮影部(図示せず)を介してリアルタイムに取得される胃病変イメージであることができる。
また、イメージ取得部11は、被検査体の胃の第1の領域を角度、方向、及び距離のうち、いずれか1つを異にして撮影された映像(イメージ)を取得できる。イメージ取得部11は、JPEG形式の新規胃病変イメージを取得できる。新規胃病変イメージは、1280×640ピクセルの解像度で角度35度フィールドのスタイルを適用したものであることができる。一方、イメージ取得部11は、新規胃病変イメージに対する個別識別子情報が除去されたイメージを取得できる。イメージ取得部11は、中央に病変が位置し、胃病変イメージのうち、黒色フレーム領域が除去された新規胃病変イメージを取得できる。
それに対し、イメージ取得部11は、イメージ取得過程で焦点ずれ、人工物、トーンなど、品質が低いか、低い解像度のイメージが取得される場合、当該イメージを排除することができる。言い換えれば、イメージ取得部11は、ディープラーニングアルゴリズムに適用可能でないイメージである場合、当該イメージを排除することができる。
本願の他の一実施形態によれば、内視鏡装置1は、カプセル形態で形成された装置であることができる。カプセル内視鏡装置1は、対象者(被検者)の人体内部に挿入され、遠隔で操作されることができる。カプセル内視鏡装置から取得される新規胃病変イメージは、ユーザがキャプチャを望む領域のイメージだけでなく、動画撮影で取得される全ての映像をイメージ化して取得されるデータであることができる。
データ生成部12は、新規胃病変イメージと患者情報とを連係して新規データセットを生成できる。患者情報は、対象者(被検者)の性別、年齢、身長、体重、人種、国籍、喫煙量、飲酒量、家族歴などの様々な情報を含むことができる。また、患者情報は、臨床情報を含むことができる。臨床情報とは、病院で診断を下す医師が特定診断に活用する全てのデータを意味できる。特に、診療過程で生成される性別、年齢を含む資料、特定治療可否資料、給付請求、及び処方資料などを含む電子カルテ資料であることができる。また、臨床情報は、遺伝子情報のような生体データ資料を含むことができる。生体データ資料は、心拍数、心電図、運動量、酸素飽和度、血圧、体重、糖尿のような数値的データを有する個人健康情報を含むことができる。
患者情報は、以下に説明される人工神経網構築部14で畳み込みニューラルネットワーク構造の結果物とともに全結合型ニューラルネットワークに入力されるデータであることができ、胃病変イメージ以外の情報を人工神経網に入力することにより、さらに正確度を向上させる効果を期待できる。
前処理部13は、ディープラーニングアルゴリズムに適用可能なように新規データセットを前処理することができる。前処理部13は、ディープラーニングアルゴリズムで認識性能を高め、患者間映像との類似性を最小化するために新規データセットを前処理することができる。ディープラーニングアルゴリズムは、畳み込みニューラルネットワーク(Convolutional Neural Networks)構造と全結合型ニューラルネットワーク(Fully-connected Neural Networks)構造との2つの部分からなることができる。
本願の一実施形態によれば、前処理部13は、5ステップの前処理過程を行うことができる。まず、前処理部13は、切り取り(crop)ステップを行うことができる。切り取り(crop)ステップは、イメージ取得部11で取得された胃病変イメージから病変を中心として縁の不要な部分(黒色背景)を切り取ることができる。一例に、前処理部13は、任意に指定したピクセルサイズ(例えば、299×299ピクセル、244×244ピクセル)を設定して胃病変イメージを切り取ることができる。言い換えれば、前処理部13は、ディープラーニングアルゴリズムに適用可能なサイズに新規胃病変イメージを切り取ることができる。
次に、前処理部13は、平行移動(shift)ステップを行うことができる。前処理部13は、新規胃病変イメージを上下左右方向に平行移動させることができる。また、前処理部13は、ひっくり返し(flipping)ステップを行うことができる。例えば、前処理部13は、垂直に胃病変イメージをひっくり返すことができる。また、前処理部13は、胃病変イメージを上下方向にひっくり返し、その後、左右方向にひっくり返す過程を行うことができる。
また、前処理部13は、色相調整(color adjustment)ステップを行うことができる。例えば、色相調整ステップで前処理部13は、全体データセットの平均RGB値で平均減算方法を使用して抽出された色相を基にイメージの色相調整を行うことができる。また、前処理部13は、ランダムに新規胃病変イメージの色相を調整できる。
前処理部13は、5ステップの前処理過程を全て行って、新規胃病変イメージをディープラーニングアルゴリズムに適用可能なデータセットに生成することができる。また、前処理部13は、5ステップの前処理過程のうち、少なくともいずれか1つを行って、新規胃病変イメージをディープラーニングアルゴリズムに適用可能なデータセットに生成することができる。
また、前処理部13は、拡大/縮小(resizing)ステップをさらに行うことができる。拡大/縮小(resizing)ステップは、胃病変イメージを予め設定されたサイズに拡大及び縮小するステップであることができる。
前処理部13は、新規胃病変イメージデータのデータ数を増加させるためにイメージデータを増幅する増幅部(図示せず)を備えることができる。
本願の一実施形態によれば、畳み込みニューラルネットワークを含むディープラーニングアルゴリズムを利用する場合、データの量が多いほど、良い性能を達成するのに有利であるが、新規胃内視鏡写真イメージは、その検査件数が他の検査に比べて非常に少ない方であって、イメージ取得部11で取得された新規胃病変イメージデータ収集量は、畳み込みニューラルネットワークを活用するのに非常に足りないことがある。増幅部(図示せず)は、新規胃病変イメージの回転、ひっくり返し、切り取り、ノイズ混合のうち、少なくともいずれか1つの方法を適用してデータ増幅(augmentation)過程を行うことができる。
前処理部13は、予め設定された基準値に対応するように前処理過程を行うことができる。予め設定された基準値は、ユーザが任意に指定した値であることができる。また、予め設定された基準値は、取得された新規胃病変イメージの平均値により決定された値であることができる。前処理部13を経た新規データセットは、人口神経網構築部14に提供されることができる。
以下では、人工神経網構築部14の人工神経網システム構築の実施形態を説明しようとする。
本願の一実施形態によれば、人工神経網構築部14は、イメージ取得部11が複数の胃病変イメージを取得し、データ生成部12が複数の胃病変イメージデータの各々に患者情報を連係してデータセットを基盤に人工神経網システムを構築できる。
人工神経網構築部14は、イメージ取得部11が複数の胃病変イメージを複数の病院の映像保管装置及びデータベースシステムから受信した複数の胃病変イメージを用いて人工神経網システムを構築できる。複数の病院の映像保管装置は、多数の病院で胃内視鏡実行の際に取得された胃病変イメージを格納した装置であることができる。
また、人工神経網構築部14は、ディープラーニングアルゴリズムに適用可能なように前記データセットを前処理する過程を経ることができる。このときの前処理過程は、前述したデータ前処理部13で行われることができる。例えば、人工神経網構築部14は、データセットに含まれた胃病変イメージを前述した前処理部13で行われる5ステップの前処理過程を経てディープラーニングアルゴリズムに適用可能なようにデータセットを前処理することができる。
一例に、データ生成部12は、ディープラーニングアルゴリズム適用のための学習用データセット及び検証用データセットを生成できる。データセットを人工神経網学習に要求される学習用データセット及び人工神経網の学習の進行情報を検証するための検証用データセットに分類してデータセットを生成できる。
また、データ生成部12は、イメージ取得部11から取得された複数の胃病変イメージのうち、ランダムに学習用データセットに活用されるイメージ及び検証用データセットに活用されたイメージを分類できる。また、データ生成部12は、検証用データセットを選択してから残ったデータセットを学習用データセットとして使用することができる。検証用データセットは、ランダムに選択されることができる。検証用データセット及び学習用データセットの割合は、予め設定された基準値により決定されることができる。このとき、予め設定された基準値は、検証用データセットの割合が10%、学習用データセットの割合が90%に設定されることができるが、これに限定されるものではない。
データ生成部12は、過剰適合状態を防止するために、学習用データセット及び検証用データセットを区分してデータセットを生成できる。例えば、神経網構造の学習特性上、学習用データセットは、過剰適合状態になることができるので、データ生成部12は、検証用データセットを活用して、人工神経網が過剰適合状態になることを防止できる。
このとき、検証用データセットは、学習用データセットと重ならないデータセットであることができる。検証用データは、人工神経網構築に使用されなかったデータであるから、検証作業の際に人工神経網で初めて接するデータである。したがって、検証用データセットは、新しいイメージ(学習に使用されなかった新規イメージ)が入力として入る場合、人工神経網の性能評価に適切なデータセットであることができる。
人工神経網構築部14は、前処理過程を経たデータセットを入力とし、胃病変分類結果に関する項目を出力とする学習を介して人工神経網を構築できる。
本願の一実施形態によれば、人工神経網構築部14は、畳み込みニューラルネットワーク(Convolutional Neural Networks)構造と全結合型ニューラルネットワーク(Fully-connected Neural Networks)構造との2つの部分からなるディープラーニングアルゴリズムを適用して胃病変分類結果を出力とすることができる。全結合型ニューラルネットワークは、ノード間に横的/縦的に2次元的連結をなし、互いに同じ層に位置したノード間には連結関係が存在せず、すぐ隣接した層に位置したノード等間にのみ連結関係が存在するということを特徴とする神経網である。
人工神経網構築部14は、前処理過程を経た学習用データセットを入力とする畳み込みニューラルネットワークと、畳み込みニューラルネットワークの出力を全結合型ニューラルネットワークの入力とする学習を介しての訓練モデルを構築できる。
本願の一実施形態によれば、畳み込みニューラルネットワークは、胃病変イメージを分析する複数の特定特徴パターンを抽出できる。このとき、抽出された特定特徴パターンは、全結合型ニューラルネットワークで最終分類をするのに使用されることができる。
畳み込みニューラルネットワーク(Convolutional Neural Networks)は、音声認識やイメージ認識で主に使用される神経網の一種である。多次元配列データを処理するように構成されており、カラーイメージのような多次元配列処理に特化されている。したがって、イメージ認識分野でディープラーニングを活用した技法は、ほとんど畳み込みニューラルネットワークを基にする。
畳み込みニューラルネットワーク(CNN)は、イメージを1つのデータではない、複数個に分割して処理する。このようにすれば、イメージが歪まされてもイメージの部分的特性を抽出でき、正しい性能を出すことができる。
畳み込みニューラルネットワークは、複数の層構造からなることができる。それぞれの層を構成する要素は、畳み込み層、活性化関数、最大プーリング(max pooling)層、活性化関数、ドロップアウト(dropout)層で構成されることができる。畳み込み層は、カーネル(kernel)と呼ばれるフィルタ役割をして全体イメージ(または、生成された新しい特徴パターン)を部分的に処理したものなどがイメージと同じ大きさの新しい特徴パターン(feature pattern)を抽出できる。畳み込み層は、特徴パターンで活性化関数を介して特徴パターンの値を処理しやすいように補正することができる。最大プーリング(max pooling)層は、一部胃病変イメージをサンプリング(sampling)して大きさを調節し、イメージの大きさを減らすことができる。畳み込みニューラルネットワークは、畳み込み層及び最大プーリング(max pooling)層を経て、特徴パターン(feature pattern)の大きさは減るようになるが、複数のカーネル(kernel)活用を介して複数の特徴パターン(feature pattern)を抽出できる。ドロップアウト(dropout)層は、畳み込みニューラルネットワークの加重値を訓練するとき、効率的な訓練のために、一部加重値を意図的に考慮しない方法であることができる。一方、ドロップアウト(dropout)層は、訓練されたモデルを介して実際テストをする場合には適用しないことがある。
畳み込みニューラルネットワークから抽出された複数の特徴パターン(feature pattern)は、次のステップである全結合型ニューラルネットワークに伝達されて分類作業をするのに活用されることができる。畳み込みニューラルネットワークは、層の個数を調節できる。畳み込みニューラルネットワークは、層の個数をモデル訓練のための訓練用データの量に合わせて調節することで、より安定したモデルを構築できる。
また、人工神経網構築部14は、前処理過程を経た学習用データセットを畳み込みニューラルネットワークの入力とし、畳み込みニューラルネットワークの出力及び患者情報を全結合型ニューラルネットワークの入力とする学習を介しての診断(訓練)モデルを構築できる。言い換えれば、人工神経網構築部14は、前処理過程を経たイメージデータが先に畳み込みニューラルネットワークに入るようにし、畳み込みニューラルネットワークを経て出た結果物が全結合型ニューラルネットワークに入るようにすることができる。また、人工神経網構築部14は、任意に抽出された特徴(feature)などを畳み込みニューラルネットワークを経ずに、直ちに全結合型ニューラルネットワークに入るようにすることができる。
このとき、患者情報は、対象者(被検者)の性別、年齢、身長、体重、人種、国籍、喫煙量、飲酒量、家族歴などの様々な情報を含むことができる。また、患者情報は、臨床情報を含むことができる。臨床情報とは、病院で診断を下す医師が特定診断に活用する全てのデータを意味できる。特に、診療過程で生成される性別、年齢を含む資料、特定治療可否資料、給与請求、及び処方資料などを含む電子カルテ資料であることができる。また、臨床情報は、遺伝子情報のような生体データ資料を含むことができる。生体データ資料は、心拍数、心電図、運動量、酸素飽和度、血圧、体重、糖尿のような数値的データを有する個人健康情報を含むことができる。
患者情報は、人工神経網構築部14で畳み込みニューラルネットワーク構造の結果物とともに全結合型ニューラルネットワークに入力されるデータであり、患者情報を人工神経網に入力することにより、胃病変イメージのみを用いて導出された結果より正確度を向上させるという効果を期待できる。
一例に、癌が高齢に多いという点が学習用データセットの臨床情報を介して学習されるようになると、イメージ特徴とともに42歳または79歳の年齢が入力された場合、胃病変分類結果で癌または陽性区分が難しい曖昧な病変の区分で高齢の患者は、癌である確率が高まる方に結果を導出できる。
人工神経網構築部14は、トレーニングデータをディープラーニングアルゴリズム構造(畳み込みニューラルネットワークを経て全結合型ニューラルネットワークで形成された構造)に適用させて導出される結果と実際結果との誤差を比較して、当該誤差に該当する分だけ神経網構造の加重値を次第に変化させる誤差逆伝播法(backpropagation)アルゴリズムを介して結果がフィードバックされて学習されることができる。誤差逆伝播法(backpropagation)アルゴリズムは、結果の誤差(実際値と結果値との差)を減らすために、各ノードから次のノードにつながる加重値を調節するものであることができる。人工神経網構築部14は、学習用データセットと検証用データセットとを利用して神経網を学習させ、加重値媒介変数を求めて最終診断モデルを導出するものであることができる。
胃病変診断部15は、新規データセットを、前処理過程を経た後、人工神経網を介して胃病変診断を行うことができる。言い換えれば、胃病変診断部15は、前述した人工神経網構築部14で導出された最終診断モデルを用いて新規胃内視鏡イメージに対する診断を導出できる。
新規胃内視鏡イメージは、内視鏡装置1の撮影部を介して取得されるリアルタイム胃内視鏡イメージであることができる。新規胃内視鏡イメージは、ユーザが診断しようとする胃病変イメージを含むデータであることができる。新規データセットは、新規胃病変イメージを患者情報と連係して生成されたデータセットであることができる。新規データセットは、前処理部12の前処理過程を経てディープラーニングアルゴリズムに適用可能な状態に前処理されることができる。その後、前処理された新規データセットは、人工神経網構築部14に入力されて、学習パラメータを基に胃病変イメージが診断され得る。
本願の一実施形態によれば、胃病変診断部15は、進行胃癌(advanced gastric cancer)、早期胃癌(early gastric cancer)、高度異形成(high-grade dysplasia)、低異形成(low-grade dysplasia)、及び非腫瘍(non-neoplasm)のうち、少なくともいずれか1つに前記胃病変診断分類を行うことができる。また、胃病変診断部15は、癌と非癌とに分類することができる。また、胃病変診断部15は、新生物と非新生物の2つの範疇に分類して胃病変診断分類を行うことができる。新生物分類には、AGC、EGC、HGD、及びLGDが含まれ得る。非腫瘍範疇には、胃炎、陽性潰瘍、奇形、ポリープ、腸上皮化生、または上皮性腫瘍のような病変が含まれ得る。
病変診断部10は、曖昧な病変を分類及び診断するために、不要な生体検査や内視鏡切除によって発生する副作用を減少させるために、撮影部(図示せず)にて取得されたイメージを分析して曖昧な病変を自動に分類及び診断し、新生物(悪性腫瘍)の場合、本体部22に含まれた複数のユニット装置を利用して内視鏡切除施術を試行するように情報を生成できる。
以下では、上記に詳しく説明された内容を基に、本願の動作フローを簡単に説明する。
図4は、本願の一実施形態に係る内視鏡装置がリアルタイムに取得する胃内視鏡イメージを用いて病変を診断する方法に対する動作フローチャートである。
図4に示された内視鏡装置がリアルタイムに取得する胃内視鏡イメージを用いて病変を診断する方法は、前述した内視鏡装置1によって行われることができる。したがって、以下、省略された内容であるといえども、内視鏡装置1について説明された内容は、内視鏡装置がリアルタイムに取得する胃内視鏡イメージを用いて病変を診断する方法についての説明にも同様に適用されることができる。
ステップS401で内視鏡装置1は、人工神経網を介して新規データセットの胃病変イメージの胃病変診断を行うことができる。ステップS401以前に内視鏡装置1は、複数の胃病変イメージを取得できる。胃病変イメージは、白色光イメージであることができる。また、内視鏡装置1は、複数の胃病変イメージと患者情報とを連係してデータセットを生成できる。内視鏡装置1は、人工神経網学習に要求される学習用データセット及び人工神経網の学習の進行情報を検証するための検証用データセットに分類してデータセットを生成できる。このとき、検証用データセットは、学習用データセットと重ならないデータセットであることができる。検証用データセットは、新規データセットが前処理過程を経た後、人工神経網の入力となる場合、人工神経網の性能評価に活用されるデータであることができる。
また、内視鏡装置1は、ディープラーニングアルゴリズムに適用可能なように新規データセットを前処理することができる。内視鏡装置1は、新規データセットに含まれた新規胃病変イメージを用いて胃病変を中心として胃病変が含まれなかったイメージの周辺部領域を切り取り、ディープラーニングアルゴリズムに適用可能なサイズに切り取るクロップ(CROP)過程を行うことができる。また、内視鏡装置1は、新規胃病変イメージを上下左右方向に平行移動(Shift)させることができる。また、内視鏡装置1は、新規胃病変イメージをひっくり返す(flipping)ことができる。また、内視鏡装置1は、新規胃病変イメージの色相を調整できる。内視鏡装置1は、複数の前処理過程のうち、少なくともいずれか1つを行って、新規胃病変イメージをディープラーニングアルゴリズムに適用可能な状態に前処理することができる。
また、内視鏡装置1は、新規胃病変イメージデータのデータ数を増加させるためにイメージデータを増幅させることができる。内視鏡装置1は、新規イメージデータを増幅させるために、胃病変イメージデータの回転、ひっくり返し、切り取り、及びノイズ混合のうち、少なくともいずれか1つを適用して胃病変イメージデータを増幅させることができる。
内視鏡装置1は、前処理過程を経たデータセットを入力とし、胃病変分類結果に関する項目を出力とする学習を介しての人工神経網を構築できる。内視鏡装置1は、前処理過程を経たデータセットを入力とし、胃病変分類結果に関する項目を出力とする畳み込みニューラルネットワーク(Convolutional Neural Networks)及び全結合型ニューラルネットワーク(Fully-connected Neural Networks)の学習を介しての訓練モデルを構築できる。
また、内視鏡装置1は、前処理過程を経たデータセットは、畳み込みニューラルネットワークの入力とし、全結合型ニューラルネットワークは、畳み込みニューラルネットワークの出力及び患者情報を入力として訓練モデルを構築できる。畳み込みニューラルネットワークは、複数の胃病変イメージから複数の特徴パターンを出力し、複数の特徴パターンは、全結合型ニューラルネットワークにより最終分類されることができる。
内視鏡装置1は、新規データセットを、前処理過程を経た後、人工神経網を介して胃病変診断を行うことができる。内視鏡装置1は、進行胃癌(advanced gastric cancer)、早期胃癌(early gastric cancer)、高度異形成(high-grade dysplasia)、低異形成(low-grade dysplasia)、及び非腫瘍(non-neoplasm)のうち、少なくともいずれか1つに新規胃内視鏡イメージに対する胃病変診断分類を行うことができる。
ステップS402で内視鏡装置1は、リアルタイムに取得された新規胃内視鏡イメージ及び人工神経網を経て出力された胃病変診断結果を出力できる。
上述した説明において、ステップS401ないしS402は、本願の実現例によって、追加的なステップにさらに分割されるか、より少ないステップに組み合わせられることができる。また、一部のステップは、必要に応じて省略されることができ、ステップ間の順序が変更されることもできる。
本願の一実施形態に係る内視鏡装置がリアルタイムに取得する胃内視鏡イメージを用いて病変を診断する方法は、様々なコンピュータ手段を介して実行されることができるプログラム命令形態で実現されてコンピュータ読み取り可能媒体に記録されることができる。前記コンピュータ読み取り可能媒体は、プログラム命令、データファイル、データ構造などを単独でまたは組み合わせて含むことができる。前記媒体に記録されるプログラム命令は、本発明のために特に設計され、構成されたものなどであるか、コンピュータソフトウェアの当業者に公知されて使用可能なものであることもできる。コンピュータ読み取り可能記録媒体の例には、ハードディスク、フロッピーディスク、及び磁気テープのような磁気媒体(magnetic media)、CD-ROM、DVDのような光記録媒体(optical media)、フロプティカルディスク(floptical disk)のような磁気-光媒体(magneto-optical media)、及びロム(ROM)、ラム(RAM)、フラッシュメモリなどのようなプログラム命令を格納し、実行するように特別に構成されたハードウェア装置が含まれる。プログラム命令の例には、コンパイラーにより作られるような機械語コードだけでなく、インタープリタなどを使用してコンピュータにより実行されることができる高級言語コードを含む。上記したハードウェア装置は、本発明の動作を実行するために、1つ以上のソフトウェアモジュールとして作動するように構成されることができ、その逆も同様である。
また、前述した内視鏡装置がリアルタイムに取得する胃内視鏡イメージを用いて病変を診断する方法は、記録媒体に格納されるコンピュータにより実行されるコンピュータプログラムまたはアプリケーションの形態でも実現されることができる。
前述した本願の説明は、例示のためのものであり、本願の属する技術分野の通常の知識を有する者は、本願の技術的思想や必須的な特徴を変更せずに、他の具体的な形態に容易に変形が可能であるということが理解できるであろう。したがって、以上で記述した実施形態等は、あらゆる面において例示的なものであり、限定的でないことと理解すべきである。例えば、単一型として説明されている各構成要素は、分散されて実施されることもでき、同様に、分散されたことと説明されている構成要素等も結合された形態で行われることができる。
本願の範囲は、上記の詳細な説明よりは、後述する特許請求の範囲によって表され、特許請求の範囲の意味及び範囲、そして、その均等概念から導出されるあらゆる変更または変形された形態が本願の範囲に含まれることと解釈されなければならない。

Claims (15)

  1. リアルタイムに取得される胃内視鏡イメージを用いて病変を診断する内視鏡装置において、
    複数のユニット装置を収容し、被検者の体内に挿入される本体部と、
    前記本体部の後端に設けられて、ユーザの入力情報に基づいて前記本体部を操作する操作部と、
    複数の胃病変イメージを入力とし、胃病変診断結果に関する項目を出力とする学習を介して人工神経網システムを構築し、リアルタイムに取得される胃内視鏡イメージを患者情報と連係して新規データセットを生成し、構築された前記人工神経網システムを介して胃病変診断を行う病変診断部と、
    前記病変診断部の診断結果及びリアルタイムに取得される胃内視鏡イメージを表示するディスプレイ部と、
    を備える内視鏡装置。
  2. 前記操作部から提供されたユーザの入力情報及び病変診断装置の診断結果に基づいて前記本体部の動作を制御する制御信号を生成する制御部をさらに備える請求項1に記載の内視鏡装置。
  3. 前記本体部は、
    前記本体部の前端に備えられて、新規胃病変イメージを撮影し、撮影した前記新規胃内視鏡イメージを前記病変診断部に提供する撮影部を備え、
    前記制御部は、
    前記操作部から前記撮影部の動作を制御するためのユーザの入力を受信し、前記撮影部を制御するための制御信号を生成するものである請求項2に記載の内視鏡装置。
  4. 前記撮影部で提供した前記新規胃内視鏡イメージを位置情報と連係して胃病変情報を生成する病変位置取得部をさらに備え、
    前記制御部は、前記病変診断装置の診断結果及び前記胃病変情報に基づいて対象体の組織の一部を採取するための生検(biopsy)ユニットの動作を制御するための制御信号を生成するものである請求項3に記載の内視鏡装置。
  5. 前記病変診断部は、
    前記新規胃病変イメージの提供を受けるイメージ取得部と、
    前記新規胃病変イメージと患者情報とを連係して新規データセットを生成するデータ生成部と、
    ディープラーニングアルゴリズムに適用可能なように前記新規データセットを前処理するデータ前処理部と、
    複数の胃病変イメージを入力とし、胃病変診断結果に関する項目を出力とする学習を介して人工神経網システムを構築する人工神経網構築部と、
    前記新規データセットを、前処理過程を経た後、前記人工神経網システムを介して胃病変診断を行う胃病変診断部と、
    を備える請求項3に記載の内視鏡装置。
  6. 前記データ生成部は、前記複数の胃病変イメージの各々を患者情報と連係してデータセットを生成し、前記データセットは、前記人工神経網システムの学習に要求される学習用データセット及び前記人工神経網システムの学習の進行程度を検証するための検証用データセットに分類して生成される請求項5に記載の内視鏡装置。
  7. 前記検証用データセットは、前記学習用データセットと重ならないデータセットである請求項6に記載の内視鏡装置。
  8. 前記前処理部は、
    前記新規データセットに含まれた胃病変イメージを用いて、前記胃病変を中心として前記胃病変が含まれなかったイメージの周辺部領域を、切り取り(crop)、移動(shift)、回転(rotation)、ひっくり返し(flipping)、及び色相調整(color adjustment)のうち、いずれか1つの前処理過程を行って前記胃病変イメージを前記ディープラーニングアルゴリズムに適用可能な状態に前処理するものである請求項5に記載の内視鏡装置。
  9. 前記前処理部は、
    新規胃病変イメージデータのデータ数を増加させるための増幅部を備え、前記増幅部は、前記新規胃病変イメージデータの回転、ひっくり返し、切り取り、及びノイズ混合を適用して前記新規胃病変イメージデータを増幅するものである請求項8に記載の内視鏡装置。
  10. 前記人工神経網構築部は、
    前処理過程を経た前記データセットを入力とし、前記胃病変診断結果に関する項目を出力とする畳み込みニューラルネットワーク(Convolutional Neural Networks)及び全結合型ニューラルネットワーク(Fully-connected Neural Networks)の学習を介しての訓練モデルを構築するものである請求項6に記載の内視鏡装置。
  11. 前処理過程を経た前記データセットは、前記畳み込みニューラルネットワークの入力とし、前記全結合型ニューラルネットワークは、前記畳み込みニューラルネットワークの出力及び前記患者情報を入力とするものである請求項10に記載の内視鏡装置。
  12. 前記畳み込みニューラルネットワークは、
    前記複数の胃病変イメージから複数の特徴パターンを出力し、
    前記複数の特徴パターンは、全結合型ニューラルネットワークにより最終分類される請求項11に記載の内視鏡装置。
  13. 前記胃病変診断部は、
    進行胃癌(advanced gastric cancer)、早期胃癌(early gastric cancer)、高度異形成(high-grade dysplasia)、低異形成(low-grade dysplasia)、及び非腫瘍(non-neoplasm)のうち、少なくともいずれか1つに前記胃病変診断分類を行うものである請求項5に記載の内視鏡装置。
  14. 被検者の体内に挿入される本体部及び前記本体部の後端に設けられて、ユーザの入力情報に基づいて前記本体部を操作する操作部を備える内視鏡装置がリアルタイムに取得する胃内視鏡イメージを用いて病変を診断する方法において、
    複数の胃病変イメージを入力とし、胃病変診断結果に関する項目を出力とする学習を介して人工神経網システムを構築し、リアルタイムに取得される新規胃内視鏡イメージを患者情報と連係して新規データセットを生成し、構築された前記人工神経網システムを介して胃病変診断を行うステップと、
    診断結果及びリアルタイムに取得される新規胃内視鏡イメージを表示するステップと、
    を含む病変診断方法。
  15. 請求項14の方法をコンピュータで実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2021516766A 2018-10-02 2019-09-25 リアルタイムに取得される胃内視鏡イメージに基づいて胃病変を診断する内視鏡装置及び方法 Active JP7218432B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020180117824A KR102168485B1 (ko) 2018-10-02 2018-10-02 실시간으로 획득되는 위 내시경 이미지를 기반으로 위 병변을 진단하는 내시경 장치 및 방법
KR10-2018-0117824 2018-10-02
PCT/KR2019/012449 WO2020071678A2 (ko) 2018-10-02 2019-09-25 실시간으로 획득되는 위 내시경 이미지를 기반으로 위 병변을 진단하는 내시경 장치 및 방법

Publications (2)

Publication Number Publication Date
JP2022507002A true JP2022507002A (ja) 2022-01-18
JP7218432B2 JP7218432B2 (ja) 2023-02-06

Family

ID=70055574

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021516766A Active JP7218432B2 (ja) 2018-10-02 2019-09-25 リアルタイムに取得される胃内視鏡イメージに基づいて胃病変を診断する内視鏡装置及び方法

Country Status (4)

Country Link
JP (1) JP7218432B2 (ja)
KR (1) KR102168485B1 (ja)
CN (1) CN112823396A (ja)
WO (1) WO2020071678A2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102423048B1 (ko) * 2020-09-22 2022-07-19 한림대학교 산학협력단 인공지능을 이용한 비조영 컴퓨터 단층촬영 이미지를 바탕으로 대동맥 박리증을 판단하는 시스템의 제어 방법, 장치 및 프로그램
JP2022052467A (ja) * 2020-09-23 2022-04-04 株式会社Aiメディカルサービス 検査支援装置、検査支援方法および検査支援プログラム
KR102421765B1 (ko) * 2020-09-29 2022-07-14 한림대학교 산학협력단 인공지능을 이용한 비조영 컴퓨터 단층촬영 이미지를 바탕으로 폐색전증을 판단하는 시스템의 제어 방법, 장치 및 프로그램
WO2022114357A1 (ko) * 2020-11-25 2022-06-02 주식회사 아이도트 영상 병변 진단 시스템
CN112435246A (zh) * 2020-11-30 2021-03-02 武汉楚精灵医疗科技有限公司 窄带成像放大胃镜下胃癌的人工智能诊断方法
CN113539476A (zh) * 2021-06-02 2021-10-22 复旦大学 基于人工智能的胃内窥活检拉曼图像辅助诊断方法和系统
KR20230163723A (ko) 2022-05-24 2023-12-01 주식회사 아이도트 내시경 검사 판독 보조 시스템
CN116230208B (zh) * 2023-02-15 2023-09-19 北京透彻未来科技有限公司 基于深度学习的胃粘膜炎症分型辅助诊断系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07250812A (ja) * 1994-03-15 1995-10-03 Olympus Optical Co Ltd 蛍光診断装置
JP2017045341A (ja) * 2015-08-28 2017-03-02 カシオ計算機株式会社 診断装置、及び診断装置における学習処理方法、並びにプログラム
WO2017065170A1 (ja) * 2015-10-16 2017-04-20 オリンパス株式会社 挿入装置
WO2018008593A1 (ja) * 2016-07-04 2018-01-11 日本電気株式会社 画像診断学習装置、画像診断装置、方法およびプログラムを格納する記憶媒体
JP2018041178A (ja) * 2016-09-05 2018-03-15 独立行政法人国立高等専門学校機構 学習用データ生成方法およびこれを用いた対象空間状態認識方法
KR101857624B1 (ko) * 2017-08-21 2018-05-14 동국대학교 산학협력단 임상 정보를 반영한 의료 진단 방법 및 이를 이용하는 장치
WO2018103736A1 (en) * 2016-12-09 2018-06-14 Beijing Horizon Information Technology Co., Ltd. Systems and methods for data management
US20180263568A1 (en) * 2017-03-09 2018-09-20 The Board Of Trustees Of The Leland Stanford Junior University Systems and Methods for Clinical Image Classification
WO2019088121A1 (ja) * 2017-10-30 2019-05-09 公益財団法人がん研究会 画像診断支援装置、資料収集方法、画像診断支援方法および画像診断支援プログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008301968A (ja) * 2007-06-06 2008-12-18 Olympus Medical Systems Corp 内視鏡画像処理装置
JP5322794B2 (ja) * 2009-06-16 2013-10-23 株式会社東芝 内視鏡検査支援システム
CN101623191B (zh) * 2009-08-14 2011-02-16 北京航空航天大学 一种胃部组织性质无创检测装置
KR101497662B1 (ko) * 2013-03-26 2015-03-03 재단법인대구경북과학기술원 진단 보조용 내시경 시스템 및 그 제어 방법
JP6140056B2 (ja) * 2013-09-26 2017-05-31 富士フイルム株式会社 内視鏡システム、内視鏡システムのプロセッサ装置、内視鏡システムの作動方法、プロセッサ装置の作動方法
EP3335194A4 (en) * 2015-08-12 2019-04-24 Molecular Devices, LLC SYSTEM AND METHOD FOR AUTOMATICALLY ANALYZING PHENOTYPIC RESPONSES OF CELLS
KR20170061222A (ko) * 2015-11-25 2017-06-05 한국전자통신연구원 건강데이터 패턴의 일반화를 통한 건강수치 예측 방법 및 그 장치
JPWO2018020558A1 (ja) * 2016-07-25 2019-05-09 オリンパス株式会社 画像処理装置、画像処理方法およびプログラム
US9589374B1 (en) * 2016-08-01 2017-03-07 12 Sigma Technologies Computer-aided diagnosis system for medical images using deep convolutional neural networks
CN107423576A (zh) * 2017-08-28 2017-12-01 厦门市厦之医生物科技有限公司 一种基于深度神经网络的肺癌识别系统
CN107564580B (zh) * 2017-09-11 2019-02-12 合肥工业大学 基于集成学习的胃镜图像辅助处理系统及方法
CN107730489A (zh) * 2017-10-09 2018-02-23 杭州电子科技大学 无线胶囊内窥镜小肠病变计算机辅助检测系统及检测方法
CN107658028A (zh) * 2017-10-25 2018-02-02 北京华信佳音医疗科技发展有限责任公司 一种获取病变数据的方法、识别病变方法及计算机设备
CN107705852A (zh) * 2017-12-06 2018-02-16 北京华信佳音医疗科技发展有限责任公司 一种医用电子内窥镜的实时病变智能识别方法及装置
CN107967946B (zh) * 2017-12-21 2021-05-11 武汉楚精灵医疗科技有限公司 基于深度学习的胃镜操作实时辅助系统及方法
CN108272437A (zh) * 2017-12-27 2018-07-13 中国科学院西安光学精密机械研究所 用于皮肤病诊断的光谱检测系统和分类器模型构建方法
GB201812050D0 (en) * 2018-07-24 2018-09-05 Dysis Medical Ltd Computer classification of biological tissue

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07250812A (ja) * 1994-03-15 1995-10-03 Olympus Optical Co Ltd 蛍光診断装置
JP2017045341A (ja) * 2015-08-28 2017-03-02 カシオ計算機株式会社 診断装置、及び診断装置における学習処理方法、並びにプログラム
WO2017065170A1 (ja) * 2015-10-16 2017-04-20 オリンパス株式会社 挿入装置
WO2018008593A1 (ja) * 2016-07-04 2018-01-11 日本電気株式会社 画像診断学習装置、画像診断装置、方法およびプログラムを格納する記憶媒体
JP2018041178A (ja) * 2016-09-05 2018-03-15 独立行政法人国立高等専門学校機構 学習用データ生成方法およびこれを用いた対象空間状態認識方法
WO2018103736A1 (en) * 2016-12-09 2018-06-14 Beijing Horizon Information Technology Co., Ltd. Systems and methods for data management
US20180263568A1 (en) * 2017-03-09 2018-09-20 The Board Of Trustees Of The Leland Stanford Junior University Systems and Methods for Clinical Image Classification
KR101857624B1 (ko) * 2017-08-21 2018-05-14 동국대학교 산학협력단 임상 정보를 반영한 의료 진단 방법 및 이를 이용하는 장치
WO2019088121A1 (ja) * 2017-10-30 2019-05-09 公益財団法人がん研究会 画像診断支援装置、資料収集方法、画像診断支援方法および画像診断支援プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TOSHIAKI HIRASAWA: "Application of artificial intelligence using a convolutional neural network for detecting gastric ca", GASTRIC CANCER, vol. 21, 653-660, JPN6022015809, 15 January 2018 (2018-01-15), pages 653 - 660, ISSN: 0004869384 *

Also Published As

Publication number Publication date
KR102168485B1 (ko) 2020-10-21
JP7218432B2 (ja) 2023-02-06
CN112823396A (zh) 2021-05-18
KR20200038121A (ko) 2020-04-10
WO2020071678A2 (ko) 2020-04-09
WO2020071678A3 (ko) 2020-05-28

Similar Documents

Publication Publication Date Title
KR102210806B1 (ko) 위 내시경 이미지의 딥러닝을 이용하여 위 병변을 진단하는 장치 및 방법
JP7218432B2 (ja) リアルタイムに取得される胃内視鏡イメージに基づいて胃病変を診断する内視鏡装置及び方法
JP6657480B2 (ja) 画像診断支援装置、画像診断支援装置の作動方法および画像診断支援プログラム
Horie et al. Diagnostic outcomes of esophageal cancer by artificial intelligence using convolutional neural networks
JP7216376B2 (ja) 消化器官の内視鏡画像による疾患の診断支援方法、診断支援システム、診断支援プログラム及びこの診断支援プログラムを記憶したコンピュータ読み取り可能な記録媒体
JP7037220B2 (ja) 消化器官の内視鏡画像による疾患の診断支援システム、診断支援システムの作動方法、診断支援プログラム及びこの診断支援プログラムを記憶したコンピュータ読み取り可能な記録媒体
WO2018165620A1 (en) Systems and methods for clinical image classification
TW202006742A (zh) 藉由消化器官之內視鏡影像之疾病的診斷支援方法、診斷支援系統、診斷支援程式及記憶此診斷支援程式之電腦可讀取之記錄媒體
Shimamoto et al. Real-time assessment of video images for esophageal squamous cell carcinoma invasion depth using artificial intelligence
Barbalata et al. Laryngeal tumor detection and classification in endoscopic video
Naz et al. Detection and classification of gastrointestinal diseases using machine learning
US20230301503A1 (en) Artificial intelligence-based gastroscopic image analysis method
JP4649965B2 (ja) 健康度判定装置、及びプログラム
CN116206741A (zh) 一种消化科医疗信息处理系统及方法
Bejakovic et al. Analysis of Crohn's disease lesions in capsule endoscopy images
US11935239B2 (en) Control method, apparatus and program for system for determining lesion obtained via real-time image
KR20210134121A (ko) 인공지능을 이용한 위내시경 영상 분석 기반의 위암 위험성 예측 시스템
US20230298306A1 (en) Systems and methods for comparing images of event indicators
Meyer-Veit et al. Hyperspectral Wavelength Analysis with U-Net for Larynx Cancer Detection.
Ramakrishnan et al. Development of Framework to Find Lung Canker Using GAN Technique
Ramesh et al. A Critical Analysis on Early Stage of Lungs and Colon Cancer Detection Using CNN Algorithm
EP4248402A1 (en) Systems and methods for identifying images containing indicators of a celiac-like disease

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230125

R150 Certificate of patent or registration of utility model

Ref document number: 7218432

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150