JP7015385B2 - 内視鏡画像処理装置、内視鏡装置の作動方法、及びプログラム - Google Patents

内視鏡画像処理装置、内視鏡装置の作動方法、及びプログラム Download PDF

Info

Publication number
JP7015385B2
JP7015385B2 JP2020519505A JP2020519505A JP7015385B2 JP 7015385 B2 JP7015385 B2 JP 7015385B2 JP 2020519505 A JP2020519505 A JP 2020519505A JP 2020519505 A JP2020519505 A JP 2020519505A JP 7015385 B2 JP7015385 B2 JP 7015385B2
Authority
JP
Japan
Prior art keywords
image
unit
endoscopic
representative
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020519505A
Other languages
English (en)
Other versions
JPWO2019220801A1 (ja
Inventor
稔宏 臼田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2019220801A1 publication Critical patent/JPWO2019220801A1/ja
Application granted granted Critical
Publication of JP7015385B2 publication Critical patent/JP7015385B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0684Endoscope light sources using light emitting diodes [LED]
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Description


本発明は、内視鏡画像処理装置、内視鏡画像処理方法、及びプログラムに関する。

内視鏡検査を行った後に、術者(医師)は診断レポートの作成を行わなければならない。この診断レポートを作成するためには、内視鏡検査中に撮影した内視鏡画像を確認したり、発見された病変に対して診断するなどの作業が必要である。

一方、内視鏡検査中には病変の有無に関わらず、多数の内視鏡画像が取得される。したがって、術者が撮影された全ての内視鏡画像をチェックし、診断結果等をそれぞれの画像に付与することは、術者にとって大きな負担となる。

また、内視鏡検査においては、同一の注目領域を異なる視点から、異なる撮影条件で多数の内視鏡画像を撮影することがある。これらの多数の内視鏡画像は効率的な管理が必要となる。

従来より、内視鏡検査において撮影された多数の内視鏡画像の管理において、ユーザを支援する技術が提案されている。

例えば特許文献1では、簡単な作業で付加情報を付与することを目的とした技術が記載されている。具体的に特許文献1に記載の技術では、内視鏡画像の縮小画像(105a、105b等)を選択して、ラベルボックス表示領域108内のアイコンにドラッグアンドドロップすることで、所望の内視鏡画像に病変ラベルを付与している。ここで病変ラベルは、例えば胃に関する内視鏡画像である場合には、潰瘍ラベル、ただれラベル、出血ラベル、及び癌ラベルである。

国際公開第2012/132840号公報

ここで内視鏡検査においては、病変ごとに多数の内視鏡画像が撮影されるので、多数の内視鏡画像を病変ごとにグループを生成することにより、効率的な作業をユーザに提供することがある。

また、取得された内視鏡画像を全てを表示部に表示すると、表示される内視鏡画像が膨大になり、各内視鏡画像をチェックしなければならないのでユーザ(術者、医師)への負担となることがある。

本発明はこのような事情に鑑みてなされたもので、その目的は、効率的な作業を提供することができる内視鏡画像処理装置、内視鏡画像処理方法、及びプログラムを提供することである。

上記目的を達成するための本発明の一の態様である内視鏡画像処理装置は、内視鏡画像を取得する画像取得部と、画像取得部で取得された内視鏡画像において、病変を示す病変画像を検出する検出部と、病変画像間の相関度に基づいて内視鏡画像をグループ化して、内視鏡画像で構成される病変ごとのグループを生成するクラスタリング部と、グループ内の内視鏡画像において、代表画像を選択する代表画像選択部と、代表画像と代表画像が属するグループを構成する内視鏡画像とを関連付けて保存する保存部と、保存部に保存された代表画像を一覧表示する表示部と、を備える。

本態様によれば、病変ごとの内視鏡画像で構成されるグループが生成され、生成されたグループの代表画像が選択され、代表画像と代表画像が属するグループを構成する内視鏡画像とが関連付けて保存される。これにより、本態様は、効率的な作業をユーザに提供することができる。例えば、ユーザは内視鏡検査後に行うレポート作成作業を本態様により、効率的に行うことができる。

好ましくは、内視鏡画像処理装置は、表示部に表示された代表画像に対する操作を受け付ける操作入力部と、操作入力部で受け付けられた操作を、代表画像が属するグループ内の全ての内視鏡画像に同様に行う操作制御部と、を備える。

本態様によれば、代表画像に対して行われた操作が、代表画像が属するクループ内の全ての内視鏡画像に同様に行われるので、ユーザに効率的な作業を提供することができる。

好ましくは、操作入力部は、代表画像に付与させる第1の付帯情報の入力を受け付け、操作制御部は、代表画像が属するグループの全ての内視鏡画像に第1の付帯情報を付与する。

本態様によれば、代表画像に対して行われた第1の付帯情報の付与が、代表画像が属するグループ内の全ての内視鏡画像に付与されるので、ユーザに効率的な作業を提供することができる。

好ましくは、操作入力部は、代表画像に対して、グループのグループ編成の変更指令を受け付け、操作制御部は、変更指令を代表画像が属するグループの全ての内視鏡画像に行う。

本態様によれば、代表画像に対して行われたグループ編成の変更指令が、代表画像が属するグループ内の全ての内視鏡画像に行われるので、ユーザに効率的な作業を提供することができる。

好ましくは、内視鏡画像処理装置は、検出部で検出された病変画像の画像特徴量を抽出する特徴量抽出部を備え、クラスタリング部は、画像特徴量に基づいて相関度を算出し、相関度に基づいて、グループを生成する。

本態様によれば、病変画像の画像特徴量に基づいて相関度が算出され、その相関度に基づいてグループが生成されるので、精度良くグループ化されたグループを生成することができる。

好ましくは、画像取得部は、内視鏡画像が撮影されたときの情報である第2の付帯情報を有する内視鏡画像を取得し、クラスタリング部は、第2の付帯情報を利用して、相関度を求める。

本態様によれば、内視鏡画像が撮影されたきの情報である第2の付帯情報を利用しているので、精度良く、効率的に相関度を求めることができる。

好ましくは、代表画像選択部は、グループ内の内視鏡画像のうち、最も初期に撮影された内視鏡画像、白色光で撮影された内視鏡画像、画像ボケが最も少ない内視鏡画像、病変が最も中央に写っている内視鏡画像、又は拡大撮影されていない内視鏡画像を、代表画像として選択する。

本態様によれば、グループ内の内視鏡画像のうち、画像ボケが最も少ない内視鏡画像、病変が最も中央に写っている内視鏡画像、又は拡大撮影されていない内視鏡画像が代表画像として選択されるので、適切な代表画像が選択される。

好ましくは、内視鏡画像処理装置は、代表画像の変更指令を受け付ける代表画像変更部を備え、代表画像選択部は、変更指令に基づいて、代表画像を異なる内視鏡画像に変更する。

本態様によれば、代表画像を変更することができ、適切な代表画像を表示部に表示することができる。

好ましくは、内視鏡画像処理装置は、表示部の一覧表示の表示形態の選択指令を受け付ける表示形態選択部を備え、表示部は、表示形態選択部での選択結果に基づいて一覧表示を行う。

本態様によれば、一覧表示の表示形態が変更することができるので、ユーザに、適切な一覧表示を提供することができ、効率的な作業を提供することができる。

好ましくは、画像取得部は、内視鏡画像を内視鏡スコープからリアルタイムで取得する。

好ましくは、画像取得部は、内視鏡検査において既に撮影及び保存された内視鏡画像を取得する。

本発明の他の態様である内視鏡画像処理方法は、内視鏡画像を取得する画像取得ステップと、画像取得ステップで取得された内視鏡画像において、病変を示す病変画像を検出する検出ステップと、病変画像間の相関度に基づいて内視鏡画像をグループ化して、内視鏡画像で構成される病変ごとのグループを生成するクラスタリングステップと、グループ内の内視鏡画像において、代表画像を選択する代表画像選択ステップと、代表画像と代表画像が属するグループとを関連付けて保存する保存ステップと、保存ステップに保存された代表画像を一覧表示する表示ステップと、を含む。

本発明の他の態様であるプログラムは、内視鏡画像を取得する画像取得ステップと、画像取得ステップで取得された内視鏡画像において、病変を示す病変画像を検出する検出ステップと、病変画像間の相関度に基づいて内視鏡画像をグループ化して、内視鏡画像で構成される病変ごとのグループを生成するクラスタリングステップと、グループ内の内視鏡画像において、代表画像を選択する代表画像選択ステップと、代表画像と代表画像が属するグループとを関連付けて保存する保存ステップと、保存ステップに保存された代表画像を一覧表示する表示ステップと、を含む内視鏡画像処理方法をコンピュータに実行させる。

本発明によれば、病変ごとの内視鏡画像で構成されるグループが生成され、生成されたグループの代表画像が選択され、代表画像と代表画像が属するグループを構成する内視鏡画像とが関連付けて保存されるので、効率的な作業をユーザに提供することができる。

図1は、内視鏡装置の外観斜視図である。 図2は、内視鏡装置の電気的構成を示すブロック図である。 図3は、内視鏡装置の機能を示すブロック図である。 図4は、保存構成例に関して説明する図である。 図5は、保存構成例に関して説明する図である。 図6は、代表画像の一覧表示の例に関して説明する図である。 図7は、代表画像の選択の例を示す図である。 図8は、代表画像の選択の例を示す図である。 図9は、通常一覧表示モードから追加情報入力モードに移行する形態を示す図である。 図10は、内視鏡画像処理装置の処理工程を示すフローである。 図11は、表示部の表示例を示す図である。 図12は、表示部の表示例を示す図である。

以下、添付図面に従って本発明にかかる内視鏡画像処理装置、内視鏡画像処理方法、及びプログラムの好ましい実施の形態について説明する。

図1は内視鏡装置10の外観斜視図である。

図1に示すように内視鏡装置10は、大別して、被検体内の観察対象を撮像する内視鏡スコープ(ここでは軟性内視鏡)11と、光源装置12と、プロセッサ装置13と、液晶モニタ等の表示器14と、を備えている。以下の説明では、プロセッサ装置13に、本発明の内視鏡画像処理装置が搭載されている場合について説明する。なお、内視鏡画像処理装置は、プロセッサ装置13以外にも搭載可能であり、例えばコンピュータに搭載することが可能である。

光源装置12は、通常画像の撮像用の白色光、特殊光画像の撮像用の特定の波長帯域の光等の各種の照明光を内視鏡スコープ11へ供給する。

プロセッサ装置13は、内視鏡装置10の一形態としても機能し得るものであり、内視鏡スコープ11により得られた画像信号に基づいて表示用又は記録用の通常画像及び/又は特殊光画像の画像データを生成する機能を有する。

表示器14は、プロセッサ装置13から入力される表示用の画像データに基づき通常画像又は特殊光画像等を表示する。

内視鏡スコープ11は、被検体内に挿入される可撓性の挿入部16と、挿入部16の基端部に連設され、内視鏡スコープ11の把持及び挿入部16の操作に用いられる手元操作部17と、手元操作部17を光源装置12及びプロセッサ装置13に接続するユニバーサルコード18と、を備えている。

挿入部16の先端部である挿入部先端部16aには、照明レンズ42、対物レンズ44、撮像素子45などが内蔵されている(図2参照)。挿入部先端部16aの後端には、湾曲自在な湾曲部16bが連設されている。また、湾曲部16bの後端には、可撓性を有する可撓管部16cが連設されている。なお、挿入部先端部16a及び湾曲部16bによりスコープヘッドが構成される。

手元操作部17には、アングルノブ21、操作ボタン22、及び鉗子入口23などが設けられている。アングルノブ21は、湾曲部16bの湾曲方向及び湾曲量を調整する際に回転操作される。操作ボタン22は、送気、送水、吸引等の各種の操作に用いられる。鉗子入口23は、挿入部16内の鉗子チャネルに連通している。なお、アングルノブ21には、湾曲部16bを上下に動かす上下アングルノブ及び湾曲部16bを左右に動かす左右アングルノブが設けられている。

ユニバーサルコード18には、送気及び/又は送水チャンネル、信号ケーブル、及びライトガイド40などが組み込まれている。ユニバーサルコード18の先端部には、光源装置12に接続されるコネクタ部25aと、プロセッサ装置13に接続されるコネクタ部25bとが設けられている。これにより、コネクタ部25aを介して光源装置12から内視鏡スコープ11に照明光が供給され、コネクタ部25bを介して内視鏡スコープ11により得られた画像信号がプロセッサ装置13に入力される。

なお、光源装置12には、電源ボタン、光源を点灯させる点灯ボタン、及び明るさ調節ボタン等の光源操作部12aが設けられ、また、プロセッサ装置13には、電源ボタン、図示しないマウス等のポインティングデバイスからの入力を受け付ける入力部を含むプロセッサ操作部13aが設けられている。なお、プロセッサ操作部13aは、内視鏡画像処理装置における操作入力部として機能する。

図2は内視鏡装置10の電気的構成を示すブロック図である。

図2に示すように内視鏡スコープ11は、大別して、ライトガイド40と、照明レンズ42と、対物レンズ44と、撮像素子45と、手元操作部17と、内視鏡制御部47と、ROM(Read Only Memory)48とを有している。

ライトガイド40は、大口径光ファイバ、バンドルファイバなどが用いられる。ライトガイド40は、その入射端がコネクタ部25aを介して光源装置12に挿入されており、その出射端が挿入部16を通って挿入部先端部16a内に設けられた照明レンズ42に対向している。光源装置12からライトガイド40に供給された照明光は、照明レンズ42を通して観察対象に照射される。そして、観察対象で反射及び/又は散乱した照明光は、対物レンズ44に入射する。

対物レンズ44は、入射した照明光の反射光又は散乱光(即ち、観察対象の光学像)を撮像素子45の撮像面に結像させる。

撮像素子45は、CMOS(complementary metal oxide semiconductor)型又はCCD(charge coupled device)型の撮像素子であり、対物レンズ44よりも奥側の位置で対物レンズ44に相対的に位置決め固定されている。撮像素子45の撮像面には、光学像を光電変換する複数の光電変換素子(フォトダイオード)により構成される複数の画素が2次元配列されている。また、本例の撮像素子45の複数の画素の入射面側には、画素ごとに赤(R)、緑(G)、青(B)のカラーフィルタが配置され、これによりR画素、G画素、B画素が構成されている。なお、RGBのカラーフィルタのフィルタ配列は、ベイヤ配列が一般的であるが、これに限らない。

撮像素子45は、対物レンズ44により結像される光学像を電気的な画像信号に変換してプロセッサ装置13に出力する。

なお、撮像素子45がCMOS型である場合には、A/D(Analog/Digital)変換器が内蔵されており、撮像素子45からプロセッサ装置13に対してデジタルの画像信号が直接出力される。また、撮像素子45がCCD型である場合には、撮像素子45から出力される画像信号は図示しないA/D変換器等でデジタルな画像信号に変換された後、プロセッサ装置13に出力される。

手元操作部17は、図示しない静止画撮像ボタン、通常画像撮影モード、特殊光画像撮影モードを設定する撮影モード設定部を有している。

内視鏡制御部47は、手元操作部17での操作に応じてROM48等から読み出した各種プログラムやデータを逐次実行し、主として撮像素子45の駆動を制御する。例えば、通常画像撮影モードの場合、内視鏡制御部47は、撮像素子45のR画素、G画素及びB画素の信号を読み出すように撮像素子45を制御し、特殊光画像撮影モードであって、特殊光画像を取得するために照明光としてV-LED32aから紫色光が発光される場合、又はB-LED32bから青色光が発光される場合には、これらの紫色光、青色光の波長帯域に分光感度を有する撮像素子45のB画素の信号のみを読み出すように撮像素子45を制御する。

また、内視鏡制御部47は、プロセッサ装置13のプロセッサ制御部61との間で通信を行い、手元操作部17での入力操作情報及びROM48に記憶されている内視鏡スコープ11の種類を識別するための識別情報等をプロセッサ装置13に送信する。

光源装置12は、光源制御部31及び光源ユニット32を有している。光源制御部31は、光源ユニット32の制御と、プロセッサ装置13のプロセッサ制御部61との間で通信を行い、各種情報のやり取りを行う。

光源ユニット32は、例えば複数の半導体光源を有している。本実施形態では、光源ユニット32は、V-LED(Violet Light Emitting Diode)32a、B-LED(Blue

Light Emitting Diode)32b、G-LED(Green Light Emitting Diode)32c、及びR-LED(Red Light Emitting Diode)32dの4色のLEDを有する。V-LED32aは、中心波長405nmで、波長帯域380~420nmの紫色光を発光する紫色光源である。B-LED32bは、中心波長460nm、波長帯域420~500nmの青色光を発する青色半導体光源である。G-LED32cは、波長帯域が480~600nmに及ぶ緑色光を発する緑色半導体光源である。R-LED32dは、中心波長620~630nmで、波長帯域が600~650nmの赤色光を発光する赤色半導体光源である。なお、V-LED32aとB-LED32bの中心波長は±5nmから±10nm程度の幅を有する。

これらの各LED32a~32dの点灯や消灯、点灯時の発光量等は、光源制御部31が各々に独立した制御信号を入力するによって各々に制御することができる。通常画像撮影モードの場合、光源制御部31は、V-LED32a、B-LED32b、G-LED32c、及びR-LED32dを全て点灯させる。このため、通常画像撮影モードでは、紫色光、青色光、緑色光、及び赤色光を含む白色光が照明光として用いられる。

一方、特殊観察モードの場合、光源制御部31は、V-LED32a、B-LED32b、G-LED32c、及びR-LED32dのうちのいずれか1つの光源、又は適宜組み合わせた複数の光源を点灯させ、又は複数の光源を点灯させる場合、各光源の発光量(光量比)を制御し、これにより被検体の深度の異なる複数の層の画像の撮像を可能にする。

各LED32a~32dが発する各色の光は、ミラーやレンズ等で形成される光路結合部、及び絞り機構(図示せず)を介して内視鏡スコープ11内に挿通されたライトガイド40に入射される。

なお、光源装置12の照明光は、白色光(白色の波長帯域の光又は複数の波長帯域の光)、或いは1又は複数の特定の波長帯域の光(特殊光)、或いはこれらの組み合わせなど観察目的に応じた各種波長帯域の光が選択される。特殊光の特定の波長帯域は、白色の波長帯域よりも狭い帯域である。

特定の波長帯域の第1例は、例えば可視域の青色帯域又は緑色帯域である。この第1例の波長帯域は、390nm以上450nm以下又は530nm以上550nm以下の波長帯域を含み、且つ第1例の光は、390nm以上450nm以下又は530nm以上550nm以下の波長帯域内にピーク波長を有する。

特定の波長帯域の第2例は、例えば可視域の赤色帯域である。この第2例の波長帯域は、585nm以上615nm以下又は610nm以上730nm以下の波長帯域を含み、且つ第2例の光は、585nm以上615nm以下又は610nm以上730nm以下の波長帯域内にピーク波長を有する。

特定の波長帯域の第3例は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、且つ第3例の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有する。この第3例の波長帯域は、400±10nm、440±10nm、470±10nm、又は600nm以上750nm以下の波長帯域を含み、且つ第3例の光は、上記400±10nm、440±10nm、470±10nm、又は600nm以上750nm以下の波長帯域にピーク波長を有する。

特定の波長帯域の第4例は、生体内の蛍光物質が発する蛍光の観察(蛍光観察)に用いられ且つこの蛍光物質を励起させる励起光の波長帯域(390nmから470nm)である。

特定の波長帯域の第5例は、赤外光の波長帯域である。この第5例の波長帯域は、790nm以上820nm以下又は905nm以上970nm以下の波長帯域を含み、且つ第5例の光は、790nm以上820nm以下又は905nm以上970nm以下の波長帯域にピーク波長を有する。

プロセッサ装置13は、プロセッサ操作部13a、プロセッサ制御部61、ROM62、デジタル信号処理回路(DSP:Digital Signal Processor)63、画像処理部65、表示制御部66、及び記憶部67等を有している。

プロセッサ操作部13aは、電源ボタン、マウスにより表示器14上で指示される座標位置及びクリック(実行指示)等の入力を受け付ける入力部等を含む。

プロセッサ制御部61は、プロセッサ操作部13aでの入力操作情報、及び内視鏡制御部47を介して受信した手元操作部17での入力操作情報に応じてROM62から必要なプログラムやデータを読み出して逐次処理することで、プロセッサ装置13の各部を制御するとともに、光源装置12を制御する。なお、プロセッサ制御部61は、図示しないインターフェースを介して接続されたキーボード等の他の外部機器から必要な指示入力を受け付けるようにしてもよい。

内視鏡スコープ11(撮像素子45)から出力される動画の各フレームの画像データを取得するDSP63は、プロセッサ制御部61の制御の下、内視鏡スコープ11から入力される動画の1フレーム分の画像データに対し、欠陥補正処理、オフセット処理、ホワイトバランス補正、ガンマ補正、及びデモザイク処理等の各種の信号処理を行い、1フレーム分の画像データを生成する。

画像処理部65は、DSP63から画像データを入力し、入力した画像データに対して、必要に応じて色変換処理、色彩強調処理、及び構造強調処理等の画像処理を施し、観察対象が写った内視鏡画像を示す画像データを生成する。色変換処理は、画像データに対して3×3のマトリックス処理、階調変換処理、及び3次元ルックアップテーブル処理などにより色の変換を行う処理である。色彩強調処理は、色変換処理済みの画像データに対して、例えば血管と粘膜との色味に差をつける方向に色彩を強調する処理である。構造強調処理は、例えば血管やピットパターン等の観察対象に含まれる特定の組織や構造を強調する処理であり、色彩強調処理後の画像データに対して行う。

画像処理部65により処理された動画の各フレームの画像データは、静止画又は動画の撮影指示があると、撮影指示された静止画又は動画として記憶部67に記録される。

表示制御部66は、入力する画像データから通常画像、特殊光画像を表示器14に表示させるための表示用データを生成し、生成した表示用データを表示器14に出力し、表示器14に表示用画像を表示させる。

<第1の実施形態>

図3は、本発明の内視鏡装置10の主な機能を示すブロック図である。

保存部101は記憶部67に設けられ、画像取得部103、検出部105、特徴量抽出部107、クラスタリング部109、代表画像選択部111、及び操作制御部113は画像処理部65に設けられている。また、表示部115は、表示制御部66及び表示器14から構成されている。

画像取得部103は内視鏡画像を取得する。本例の画像取得部103は、内視鏡画像を内視鏡スコープ11からリアルタイムで取得する。また、内視鏡画像処理装置が内視鏡スコープ11に直接接続されないコンピュータに搭載される場合には、画像取得部103は、内視鏡検査において既に撮影及び保存された内視鏡画像を取得する。画像取得部103が内視鏡画像を取得する際に、内視鏡画像が撮影された時刻、内視鏡画像の撮影条件(拡大率等)、及び撮影光源情報等の付帯情報(第2の付帯情報)が内視鏡画像に関連付けられて取得されてもよい。そして、画像取得部103で取得された内視鏡画像及び付帯情報は、保存部101に保存される。

検出部105は、画像取得部103で取得された内視鏡画像において、病変を示す病変画像を検出する。ここで、病変画像で示される病変は、病変自体、又は病変自体とその周辺部を含む病変領域を含む概念である。なお、検出部105が行う病変画像の検出は、公知技術によって行われるので、ここでは説明を省略する。

特徴量抽出部107は、検出部105で検出された病変画像の画像特徴量を抽出する。特徴量抽出部107は、様々な手法により、病変画像の画像特徴量を抽出することができる。例えば、特徴量抽出部107は、各病変画像に対応する特徴ベクトルを抽出する。この場合クラスタリング部109は、特徴ベクトルの類似度が閾値以上である場合に同じグループとして、グループを生成する。特徴ベクトルの例としては、画像のヒストグラム、BoVW(Bag Of Visual Words)ベクトル、ニューラルネットワークによる特徴ベクトル等が挙げられる。

クラスタリング部109は、保存部101に保存された内視鏡画像を比較して、同一の病変を有する内視鏡画像のグループを生成する。クラスタリング部109は、病変画像間の相関度に基づいて内視鏡画像をグループ化して、内視鏡画像で構成される病変ごとのグループを生成する。クラスタリング部109は、様々な手法により相関度を算出することができる。クラスタリング部109、特徴量抽出部107で抽出された画像特徴量の比較によって、相関度を算出する。

クラスタリング部109は、内視鏡画像に関連付けられて保存されている第2の付帯情報を利用して相関度を求めてもよい。第2の付帯情報は、取得した内視鏡画像に付帯されている、内視鏡画像が撮影された時刻、内視鏡画像の撮影条件(拡大率等)、及び撮影光源情報等の情報のことである。また、クラスタリング部109は、検査時刻、フレーム番号、内視鏡スコープ11の位置、及び病変の種類等を利用して、相関度を求めてもよい。また、クラスタリング部109は、保存部101に保存された内視鏡画像の一部に対して、相関度を求めて、グループを生成してもよい。クラスタリング部109は、病変ごとのグループを生成する観点より、例えば検査時間が所定の範囲の内視鏡画像に対して比較することで相関度を求め、グループを生成してもよい。

クラスタリング部109は、複数の情報を用いて相関度を求めてもよい。クラスタリング部109は、内視鏡画像の特徴ベクトルの相関度が閾値以下でも、内視鏡画像が撮影された時刻が閾値よりも近い場合には、同じグループとしてもよい。また、クラスタリング部109は、撮影光源ごとの識別に適した特徴ベクトル抽出器を用意し、同一撮影光源間で相関度を求めてもよい。

保存部101は、画像取得部103で取得された画像(付帯される情報も含む)、及び/又はクラスタリング部109でグループ化された内視鏡画像を保存する。また、保存部101は、検出部105で検出された病変画像に関する情報も保存する。

図4及び図5は、保存部101の保存構成例に関して説明する図である。

図4は、フォルダを利用してグループごとに保存を行う例を示す図である。図4(A)は画像取得部103が取得したグループ化前の内視鏡画像の保存構成に関して示しており、図4(B)はクラスタリング部109でグループ化された後の内視鏡画像の保存構成に関して示している。

図4(A)に示す場合では、取得された内視鏡画像は一つの同じフォルダ151に保存される。すなわち、フォルダ151に保存されている内視鏡画像Iは、グループ化されていなく、例えば撮影順に配列されている。このフォルダ151に保存されている複数の内視鏡画像Iがクラスタリング部109によりグループ化される。

図4(B)では、クラスタリング部109で生成されたグループごとに、グループフォルダ153(I)、グループフォルダ153(II)、グループフォルダ153(n)が生成される。なお、nはクラスタリング部109で生成されたグループ数を示す。そして、各グループの内視鏡画像Iが、グループフォルダ153に保存される。また、各グループの内視鏡画像Iにおいて、最初に保存された(最も早く撮影された)内視鏡画像Iを代表画像としている。代表画像の選択に関しては、後で説明をする。また、グループフォルダ153は、フォルダ151の下層に生成される。

図5は、グループ化された内視鏡画像Iに、識別ID情報を付与して保存する例を示す図である。図5(A)は画像取得部103が取得したグループ化以前の内視鏡画像の保存構成に関して示しており、図5(B)はクラスタリング部109でグループ化後の内視鏡画像の保存構成に関して示している。

図5(A)は、取得された内視鏡画像は一つの同じフォルダ151に保存される。図5(B)は、各内視鏡画像Iに対して、グループ識別IDを付与している。具体的には、各内視鏡画像Iに対して、それぞれ、病変1のグループ識別ID、病変2のグループ識別ID、病変Xのグループ識別IDが付与される。また、代表画像においてもそのことを示す識別IDが付与される。

さらに、保存部101は、図4及び図5に示すように代表画像と代表画像が属するグループを構成する内視鏡画像とを関連付けて保存する。

代表画像選択部111は、グループ内の内視鏡画像において、代表画像を選択する。代表画像選択部111では、保存部101に病変ごとに保存された内視鏡画像から、各グループにおいて1枚以上の代表画像を選択する。代表画像選択部111が行う代表画像の選択は、予め設定した選択規則にしたがって選択する。例えば代表画像選択部111の選択基準としては、グループ内の内視鏡画像のうち、最も初期に撮影された内視鏡画像、白色光で撮影された内視鏡画像、画像ボケが最も少ない内視鏡画像、病変が最も中央に写っている内視鏡画像、又は拡大撮影されていない内視鏡画像を、代表画像として選択する。ここで、拡大撮影されていない内視鏡画像とは、病変とその周辺の状態が把握することができるように、拡大撮影されずに撮影された内視鏡画像のことである。

代表画像選択部111は、各グループにおいて単数又は複数の代表画像を選択してもよい。例えばひとつの病変(グループ)において、撮影光源ごとに1枚ずつ代表画像を選択してもよい。例えば,光源毎にWL(White light)、LCI(LinkedColor Imaging)、BLI(BLUE LASER imaging)代表画像を取得してもよい。なお、LCIは、狭帯域短波長光と白色光を同に照射し、色の微細な近いを色彩強調する光源のことである。

操作制御部113は、操作入力部(プロセッサ操作部13a)で受け付けられた操作を、内視鏡画像に対して行う。この場合操作制御部113は、代表画像対してのみ、受け付けられた操作を行ってもよいし、代表画像及び代表画像が属するグループの全ての内視鏡画像に対して、受け付けられた操作を行ってもよい。

表示部115は、保存部101に保存された代表画像を一覧表示する。表示部115は、保存部101に保存された内視鏡画像を表示制御部66で制御して表示器14に表示する。表示部115の表示形態は、ユーザに合わせて設定されることが好ましく、ユーザは適宜表示部115の表示形態を設定することができる。例えば表示部115は、代表画像の一覧表示における、列数を適宜変更することができる(図6の符号170を参照)。

図6は、表示部115の代表画像の一覧表示の例に関して説明する図である。

表示部115により、代表画像の一覧表示167が表示されている。一覧表示167は、病変1グループの代表画像171及び病変2グループの代表画像172により構成されている。また、一覧表示167と共に、内視鏡検査を受けた患者の情報161、内視鏡検査の実施情報163が表示される。また、表示列数はユーザによって適宜変更が可能であり、図示した場合は列数2が選択され、代表画像が2列で一覧表示されている(符号170を参照)。

≪内視鏡画像の選択≫

次に、グループを構成する内視鏡画像の選択に関して説明する。ユーザは、表示部115に表示されている画像を、表示部115で表示される矢印等のマーカを合わせてマウス(ポインティングデバイス)をクリックすることにより選択する。この場合、ユーザの選択により、表示されている代表画像を単独選択することもできるし、又は代表画像が属するグループ内の全ての画像を一括選択することもできる。ユーザは、代表画像、または代表画像及び代表画像が属するグループの内視鏡画像を選択して、診断結果等の情報を付与する。

図7及び図8は、表示部115が表示する代表画像の選択の例を示す図である。図7に示す例では、代表画像171がクリックで選択され、代表画像171のみが選択される。図8に示す例では、一括選択ボタン175がクリックされて、代表画像171と代表画像171が属するグループを構成する内視鏡画像が選択される。

なお、内視鏡画像の選択は、図7及び図8で説明した形態に限定されない。例えば、代表画像をマウスでクリックすることにより単独選択が行われ、代表画像をマウスでダブルクリックすることにより、グループを構成する内視鏡画像の一括選択が行われてもよい。また、代表画像を何らかのキーとマウスのクリックで選択された場合には、代表画像が属するグループの内視鏡画像の全てが選択されてもよい。

≪内視鏡画像への情報の付与≫

次に、代表画像及び代表画像が属するグループの内視鏡画像に対する情報の付与に関して説明する。

図9は、通常一覧表示モードから追加情報入力モードに移行する形態を示す図である。図9(A)は、図6と同様の通常一覧表示モードの表示形態を示す。ここで通常一覧表示モードとは、各グループの代表画像が一覧表示されるモードである。なお、図6で既に説明を行った箇所は、同じ符号を付し説明は省略する。図9(B)は追加情報入力モードの表示部115の表示形態を示している。

通常一覧表示モードから追加情報入力モードへの移行は、所定の操作が入力されることにより行われる。そして、追加情報入力モード時に、情報が付与されると、選択された画像(代表画像、又はグループの全ての内視鏡画像)に対して情報が付与される。例えば、図9(B)に示すように、代表画像171に、病変の診断結果、病変の分類、病変の位置、病変の大きさの追加情報(第1の付帯情報)181が付与される。また、本例では代表画像171及び代表画像171が属するグループの内視鏡画像が選択されているので、代表画像171が属するグループの内視鏡画像にも、同様の情報が付与される。具体的にはユーザは、操作入力部により、代表画像に付与させる第1の付帯情報の入力をし、操作制御部113は、代表画像が属するグループの全ての内視鏡画像に第1の付帯情報の付与を行う。

次に、内視鏡画像処理装置を使用した内視鏡画像処理方法について説明する。図10は、内視鏡画像処理装置の処理工程を示すフローである。

先ず、画像取得部103により、内視鏡画像が取得される(ステップS10:画像取得ステップ)。その後、検出部105により病変画像が検出される(ステップS11:検出ステップ)。そして、クラスタリング部109により、病変ごとのグループが生成される(ステップS12:クラスタリングステップ)。その後、代表画像選択部111により、各グループの代表画像が選択される(ステップS13:代表画像選択ステップ)。その後、代表画像とグループを構成する内視鏡画像が保存部101が保存され(ステップS14:保存ステップ)、表示部115により、保存部101に保存された代表画像が一覧表示される(ステップS15:表示ステップ)。

上記実施形態において、各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。

1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種または異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。

さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。

上述の各構成及び機能は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって適宜実現可能である。例えば、上述の処理ステップ(処理手順)をコンピュータに実行させるプログラム、そのようなプログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的記録媒体)、或いはそのようなプログラムをインストール可能なコンピュータに対しても本発明を適用することが可能である。

以上のように、本態様によれば、病変ごとに構成されるグループが生成され、生成されたグループの代表画像が選択され、代表画像と代表画像が属するグループを構成する内視鏡画像とが関連付けて保存され、その代表画像が一覧表示される。これにより、ユーザの負担は抑制され効率的な作業が行われる。さらに代表画像でないグループを構成する内視鏡画像(非代表画像)も重要な情報であり、非代表画像も代表画像と共に管理することで、効率的な作業をユーザに提供することができる。

<応用例1>

本例では、クラスタリング部109で行われたグループの修正を行うことができる。ユーザは、クラスタリング部109でグループが生成された後に、操作入力部を介して代表画像に対し操作を行うことにより、グループを任意に修正する。

本例の操作入力部は、代表画像に対して、グループのグループ編成の変更指令を受け付ける。そして、操作制御部113は、受け付けられた変更指令を代表画像が属するグループの全ての内視鏡画像に対して行う。

操作入力部で受け付けられるグループ編成の変更指令の例としては、統合したい2つ以上の代表画像を選択し、グループの統合を行う機能を有するボタン(不図示)をクリックする。また、1つ以上の代表画像をマウスのクリック等により選択し、マウスのボタンを押下したまま、別の代表画像上に移動し、マウスのボタンを離す、いわゆるドラッグアンドドロップにより、変更指令が入力される。また、追加情報入力モード時に、代表画像が属するグループの識別IDを統合先の識別IDに変更してもよい。

<応用例2>

本例では、表示部115の代表画像の一覧表示の表示形態の変更が行われる。

図11は、表示部115の表示例を示す図である。なお、図6で既に説明を行った箇所は、同じ符号を付し説明は省略する。

本例では、表示部115の一覧表示の表示形態の選択指令を受け付ける表示形態選択部191を備える。そして表示部115は、表示形態選択部191での選択結果に基づいて代表画像の一覧表示を行う。表示形態選択部191は、「病変ごとに代表画像を表示」と「条件を指定して表示」との選択項目があり、そして「条件を指定して表示」には光源(WL、LCI、BLI)、拡大率の選択項目が記されている。ユーザはこの選択項目を適宜選択することにより、代表画像の一覧表示の表示形態を選択することができる。図11に示した場合では、「病変ごとに代表画像を表示」と「条件を指定して表示」とが選択され、光源WL、LCI、及びBLIの代表画像を表示するように選択されている。したがって、表示部115は、病変1のグループにおいて、光源WLの代表画像193、光源LCIの代表画像195、及び光源BLIの代表画像197を一覧表示する。

<応用例3>

本例では、ユーザの入力に基づいて、代表画像の変更が行われる。

図12は、表示部115の表示例を示す図である。なお、図6で既に説明を行った箇所は、同じ符号を付し説明は省略する。

本例では、代表画像171が選択されると、代表画像変更部199として、病変1のグループの内視鏡画像201、内視鏡画像203、内視鏡画像205、内視鏡画像207、及び内視鏡画像209が表示される。そしてユーザは、代表画像変更部199において表示された内視鏡画像(201、203、205、207、及び209)から、代表画像として変更したい内視鏡画像205を選択することにより、代表画像の変更指令を入力する。そして代表画像選択部111は、変更指令に基づいて、代表画像を異なる内視鏡画像に変更する。具体的には、入力された変更指令に基づいて、病変1のグループの代表画像を内視鏡画像205に変更する。

なお、代表画像変更部199の表示形態は、図12で説明した例以外にも様々な形態を採用することができる。例えば、代表画像上でマウスホールを回転させ、回転量に応じて、グループの内視鏡画像が表示されて、代表画像を変更する。また、代表画像が選択されると別ウインドウで、グループ内の内視鏡画像が一覧表示され、その中から画像を選択して、代表画像を変更する。

以上で本発明の例に関して説明してきたが、本発明は上述した実施の形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。

10 :内視鏡装置

11 :内視鏡スコープ

12 :光源装置

12a :光源操作部

13 :プロセッサ装置

13a :プロセッサ操作部

14 :表示器

16 :挿入部

16a :挿入部先端部

16b :湾曲部

16c :可撓管部

17 :手元操作部

18 :ユニバーサルコード

21 :アングルノブ

22 :操作ボタン

23 :鉗子入口

25a :コネクタ部

25b :コネクタ部

31 :光源制御部

32 :光源ユニット

32a :V-LED32b :B-LED32c :G-LED32d :R-LED40 :ライトガイド

42 :照明レンズ

44 :対物レンズ

45 :撮像素子

47 :内視鏡制御部

48 :ROM61 :プロセッサ制御部

62 :ROM65 :画像処理部

66 :表示制御部

67 :記憶部

101 :保存部

103 :画像取得部

105 :検出部

107 :特徴量抽出部

109 :クラスタリング部

111 :代表画像選択部

113 :操作制御部

115 :表示部

Claims (12)

  1. 内視鏡画像を取得する画像取得部と、
    前記画像取得部で取得された前記内視鏡画像において、病変を示す病変画像を検出する検出部と、
    前記病変画像間の相関度に基づいて前記内視鏡画像をグループ化して、前記内視鏡画像で構成される前記病変ごとのグループを生成するクラスタリング部と、
    前記グループ内の前記内視鏡画像において、代表画像を選択する代表画像選択部と、
    前記代表画像と前記代表画像が属する前記グループを構成する前記内視鏡画像とを関連付けて保存する保存部と、
    前記保存部に保存された前記代表画像を一覧表示する表示部と、
    前記表示部に表示された前記代表画像に対する操作を受け付ける操作入力部と、
    前記操作入力部で受け付けられた前記操作を、前記代表画像が属する前記グループ内の全ての前記内視鏡画像に同様に行う操作制御部と、
    を備える内視鏡画像処理装置。
  2. 前記操作入力部は、前記代表画像に付与させる第1の付帯情報の入力を受け付け、
    前記操作制御部は、前記代表画像が属する前記グループの全ての前記内視鏡画像に前記第1の付帯情報を付与する請求項1に記載の内視鏡画像処理装置。
  3. 前記操作入力部は、前記代表画像に対して、前記グループのグループ編成の変更指令を受け付け、
    前記操作制御部は、前記変更指令を前記代表画像が属する前記グループの全ての前記内視鏡画像に行う請求項1又は2に記載の内視鏡画像処理装置。
  4. 前記検出部で検出された前記病変画像の画像特徴量を抽出する特徴量抽出部を備え、
    前記クラスタリング部は、前記画像特徴量に基づいて前記相関度を算出し、前記相関度に基づいて、前記グループを生成する請求項1から3のいずれか1項に記載の内視鏡画像処理装置。
  5. 前記画像取得部は、前記内視鏡画像が撮影されたときの情報である第2の付帯情報を有する前記内視鏡画像を取得し、
    前記クラスタリング部は、前記第2の付帯情報を利用して、前記相関度を求める請求項1から4のいずれか1項に記載の内視鏡画像処理装置。
  6. 前記代表画像選択部は、前記グループ内の前記内視鏡画像のうち、最も初期に撮影された前記内視鏡画像、白色光で撮影された前記内視鏡画像、画像ボケが最も少ない前記内視鏡画像、前記病変が最も中央に写っている前記内視鏡画像、又は拡大撮影されていない前記内視鏡画像を、前記代表画像として選択する請求項1から5のいずれか1項に記載の内視鏡画像処理装置。
  7. 前記代表画像の変更指令を受け付ける代表画像変更部を備え、
    前記代表画像選択部は、前記変更指令に基づいて、前記代表画像を異なる前記内視鏡画像に変更する請求項1から6のいずれか1項に記載の内視鏡画像処理装置。
  8. 前記表示部の前記一覧表示の表示形態の選択指令を受け付ける表示形態選択部を備え、
    前記表示部は、前記表示形態選択部での選択結果に基づいて前記一覧表示を行う請求項1から7のいずれか1項に記載の内視鏡画像処理装置。
  9. 前記画像取得部は、前記内視鏡画像を内視鏡スコープからリアルタイムで取得する請求項1から8のいずれか1項に記載の内視鏡画像処理装置。
  10. 前記画像取得部は、内視鏡検査において既に撮影及び保存された前記内視鏡画像を取得する請求項1から8のいずれか1項に記載の内視鏡画像処理装置。
  11. プロセッサ装置を含む内視鏡装置の作動方法であって、
    前記プロセッサ装置が、内視鏡画像を取得する画像取得ステップと、
    前記プロセッサ装置が、前記画像取得ステップで取得された前記内視鏡画像において、病変を示す病変画像を検出する検出ステップと、
    前記プロセッサ装置が、前記病変画像間の相関度に基づいて前記内視鏡画像をグループ化して、前記内視鏡画像で構成される前記病変ごとのグループを生成するクラスタリングステップと、
    前記プロセッサ装置が、前記グループ内の前記内視鏡画像において、代表画像を選択する代表画像選択ステップと、
    前記プロセッサ装置が、前記代表画像と前記代表画像が属する前記グループとを関連付けて保存する保存ステップと、
    前記プロセッサ装置が、前記保存ステップで保存された前記代表画像を一覧表示する表示ステップと、
    前記プロセッサ装置が、前記表示ステップで表示された前記代表画像に対する操作を受け付ける操作入力ステップと、
    前記プロセッサ装置が、前記操作入力ステップで受け付けられた前記操作を、前記代表画像が属する前記グループ内の全ての前記内視鏡画像に同様に行う操作制御ステップと、
    を含む前記内視鏡装置の作動方法。
  12. 内視鏡画像を取得する画像取得ステップと、
    前記画像取得ステップで取得された前記内視鏡画像において、病変を示す病変画像を検出する検出ステップと、
    前記病変画像間の相関度に基づいて前記内視鏡画像をグループ化して、前記内視鏡画像で構成される前記病変ごとのグループを生成するクラスタリングステップと、
    前記グループ内の前記内視鏡画像において、代表画像を選択する代表画像選択ステップと、
    前記代表画像と前記代表画像が属する前記グループとを関連付けて保存する保存ステップと、
    前記保存ステップで保存された前記代表画像を一覧表示する表示ステップと、
    前記表示ステップで表示された前記代表画像に対する操作を受け付ける操作入力ステップと、
    前記操作入力ステップで受け付けられた前記操作を、前記代表画像が属する前記グループ内の全ての前記内視鏡画像に同様に行う操作制御ステップと、
    を含む内視鏡画像処理方法をコンピュータに実行させるプログラム。
JP2020519505A 2018-05-15 2019-04-04 内視鏡画像処理装置、内視鏡装置の作動方法、及びプログラム Active JP7015385B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018093722 2018-05-15
JP2018093722 2018-05-15
PCT/JP2019/014917 WO2019220801A1 (ja) 2018-05-15 2019-04-04 内視鏡画像処理装置、内視鏡画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2019220801A1 JPWO2019220801A1 (ja) 2021-05-27
JP7015385B2 true JP7015385B2 (ja) 2022-02-02

Family

ID=68540225

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020519505A Active JP7015385B2 (ja) 2018-05-15 2019-04-04 内視鏡画像処理装置、内視鏡装置の作動方法、及びプログラム

Country Status (3)

Country Link
US (1) US11957299B2 (ja)
JP (1) JP7015385B2 (ja)
WO (1) WO2019220801A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2022059668A1 (ja) * 2020-09-15 2022-03-24
WO2022085342A1 (ja) * 2020-10-19 2022-04-28 富士フイルム株式会社 医療画像処理装置、医療画像処理装置の作動方法、及び医療画像処理装置用プログラム
WO2023276017A1 (ja) * 2021-06-30 2023-01-05 オリンパスメディカルシステムズ株式会社 画像処理装置、内視鏡システム及び画像処理方法
WO2023135815A1 (ja) * 2022-01-17 2023-07-20 オリンパスメディカルシステムズ株式会社 医療支援システムおよび医療支援方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006123455A1 (ja) 2005-05-20 2006-11-23 Olympus Medical Systems Corp. 画像表示装置
JP2009297365A (ja) 2008-06-16 2009-12-24 Olympus Corp 画像処理装置、画像処理方法および画像処理プログラム
WO2012132840A1 (ja) 2011-03-30 2012-10-04 オリンパスメディカルシステムズ株式会社 画像管理装置、方法、及びプログラム、並びにカプセル型内視鏡システム
JP2017191461A (ja) 2016-04-13 2017-10-19 キヤノン株式会社 医用レポート作成装置及びその制御方法、医用画像閲覧装置及びその制御方法、並びに、プログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102681145A (zh) * 2004-02-06 2012-09-19 因特科学公司 集成的全景和前向光学装置、系统以及全向信号处理方法
JP5461753B2 (ja) * 2004-07-30 2014-04-02 オリンパス株式会社 内視鏡装置
JP2009039449A (ja) * 2007-08-10 2009-02-26 Olympus Corp 画像処理装置
JP2010035637A (ja) * 2008-07-31 2010-02-18 Olympus Medical Systems Corp 画像表示装置およびこれを用いた内視鏡システム
JP5220705B2 (ja) * 2009-07-23 2013-06-26 オリンパス株式会社 画像処理装置、画像処理プログラムおよび画像処理方法
JP5658931B2 (ja) * 2010-07-05 2015-01-28 オリンパス株式会社 画像処理装置、画像処理方法、および画像処理プログラム
JP5303015B2 (ja) * 2011-08-29 2013-10-02 富士フイルム株式会社 内視鏡診断装置
JP5404968B1 (ja) * 2012-03-30 2014-02-05 オリンパスメディカルシステムズ株式会社 内視鏡装置
US9645074B2 (en) * 2014-02-06 2017-05-09 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus
WO2016185617A1 (ja) * 2015-05-21 2016-11-24 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
DE112015006562T5 (de) * 2015-06-29 2018-03-22 Olympus Corporation Bildverarbeitungsvorrichtung, Endoskopsystem, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm
EP3318176A4 (en) * 2015-07-03 2019-03-27 Olympus Corporation IMAGE PROCESSING DEVICE, IMAGE PROCESSING AND ENDOSCOPY SYSTEM
JP6578058B2 (ja) * 2016-05-27 2019-09-18 オリンパス株式会社 画像処理装置、画像処理装置の作動方法及び画像処理装置の作動プログラム
US11116587B2 (en) * 2018-08-13 2021-09-14 Theator inc. Timeline overlay on surgical video
US11452576B2 (en) * 2019-02-21 2022-09-27 Theator inc. Post discharge risk prediction

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006123455A1 (ja) 2005-05-20 2006-11-23 Olympus Medical Systems Corp. 画像表示装置
JP2009297365A (ja) 2008-06-16 2009-12-24 Olympus Corp 画像処理装置、画像処理方法および画像処理プログラム
WO2012132840A1 (ja) 2011-03-30 2012-10-04 オリンパスメディカルシステムズ株式会社 画像管理装置、方法、及びプログラム、並びにカプセル型内視鏡システム
JP2017191461A (ja) 2016-04-13 2017-10-19 キヤノン株式会社 医用レポート作成装置及びその制御方法、医用画像閲覧装置及びその制御方法、並びに、プログラム

Also Published As

Publication number Publication date
US20210042926A1 (en) 2021-02-11
WO2019220801A1 (ja) 2019-11-21
JPWO2019220801A1 (ja) 2021-05-27
US11957299B2 (en) 2024-04-16

Similar Documents

Publication Publication Date Title
US11062442B2 (en) Vascular information acquisition device, endoscope system, and vascular information acquisition method
JP7015385B2 (ja) 内視鏡画像処理装置、内視鏡装置の作動方法、及びプログラム
JP7346285B2 (ja) 医療画像処理装置、内視鏡システム、医療画像処理装置の作動方法及びプログラム
JP6785948B2 (ja) 医療用画像処理装置及び内視鏡システム並びに医療用画像処理装置の作動方法
JP7135082B2 (ja) 内視鏡装置、内視鏡装置の作動方法、及びプログラム
JP7289296B2 (ja) 画像処理装置、内視鏡システム及び画像処理装置の作動方法
JP7335399B2 (ja) 医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法
US11103197B2 (en) Diagnosis support system, endoscope system, processor and diagnosis support method
JPWO2020036121A1 (ja) 内視鏡システム
JP6823072B2 (ja) プロセッサ装置及び内視鏡システム
JP7374280B2 (ja) 内視鏡装置、内視鏡プロセッサ、及び内視鏡装置の作動方法
US11398033B2 (en) Diagnosis support system, endoscope system, processor, and diagnosis support method
WO2020184257A1 (ja) 医用画像処理装置及び方法
WO2021199910A1 (ja) 医用画像処理システム、医用画像処理システムの作動方法
JP7076535B2 (ja) 内視鏡装置、内視鏡装置の作動方法、及びプログラム
WO2022059233A1 (ja) 画像処理装置、内視鏡システム、画像処理装置の作動方法、及び画像処理装置用プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE

Effective date: 20201027

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201027

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE

Effective date: 20201027

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220121