JP7641920B2 - 内視鏡用プロセッサ、情報処理方法及びコンピュータプログラム - Google Patents

内視鏡用プロセッサ、情報処理方法及びコンピュータプログラム Download PDF

Info

Publication number
JP7641920B2
JP7641920B2 JP2021573986A JP2021573986A JP7641920B2 JP 7641920 B2 JP7641920 B2 JP 7641920B2 JP 2021573986 A JP2021573986 A JP 2021573986A JP 2021573986 A JP2021573986 A JP 2021573986A JP 7641920 B2 JP7641920 B2 JP 7641920B2
Authority
JP
Japan
Prior art keywords
endoscope
start condition
unit
satisfied
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021573986A
Other languages
English (en)
Other versions
JPWO2021153437A1 (ja
Inventor
友也 青山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hoya Corp
Original Assignee
Hoya Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hoya Corp filed Critical Hoya Corp
Publication of JPWO2021153437A1 publication Critical patent/JPWO2021153437A1/ja
Application granted granted Critical
Publication of JP7641920B2 publication Critical patent/JP7641920B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/684Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time
    • H04N23/6845Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time by combination of a plurality of images sequentially taken
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Surgery (AREA)
  • Neurology (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Endoscopes (AREA)

Description

本技術は、内視鏡用プロセッサ、情報処理方法及びコンピュータプログラムに関する。
内視鏡の挿入管の先端部に対物光学系及び撮像素子を内蔵した電子内視鏡と、該電子内視鏡から出力される映像信号を処理してモニタに表示可能なビデオ信号を生成する電子内視鏡用プロセッサとを備えた電子内視鏡装置が、被検者の診断等に広く利用されている。電子内視鏡用プロセッサにおいては、例えば、撮像画像に対して、歪補正や傷補正等の画像処理、γ補正やホワイトバランス調整、強調処理等の各種信号処理を施し、医師の診断に適した高画質の画像を提供する。医師は、これらの画像をもとに診断を行う。
電子内視鏡装置では、その他にも対物光学系及び撮像素子の制御、各種操作要求の受付など多くの処理が実行されており、これらの処理を遅延なく実行することが要求される。特許文献1には、高価なCPUを用いることなく、プロセッサのオペレーティングシステムの負荷増大、動作遅延、データロスを防止することができる電子内視鏡システム等が開示されている。
特開2018-7928号公報
内視鏡の検査においては、内視鏡の施術中に当医師により診断が行われる場合と、記録された画像に基づき後日診断が行われる場合とがある。後日診断が行われる場合には、保存された1枚絵の静止画を基に診断されることが主であるため、診断を行う医師においては高い技量及び経験が求められる。しかし、検査の開始から終了までの動画を施術時の静止画と同等の画質で記録することは、容量が増大してしまうという問題がある。
本開示の目的は、内視鏡により撮影される所定の時間長に限られた動画像を取得する内視鏡用プロセッサ、情報処理方法及びコンピュータプログラムを提供することにある。
本開示の一態様に係る内視鏡用プロセッサは、内視鏡により撮影される静止画像と同等以上の解像度を有する所定の時間長に限られた動画像の取得を開始する開始条件を満たすか否かを判定する判定部と、前記判定部が前記開始条件を満たすと判定した場合、前記動画像の取得を開始する動画像取得部とを備える。
本開示によれば、内視鏡により撮影される所定の時間長に限られた動画像を取得することができる。
第1実施形態における内視鏡システムの全体構成を説明する模式図である。 内視鏡用プロセッサの構成例を示すブロック図である。 画像DBに記憶される情報の内容例を示す図である。 内視鏡用プロセッサの機能ブロック図である。 学習モデルの構成を説明する説明図である。 内視鏡用プロセッサで実行される処理手順の一例を示すフローチャートである。 第2実施形態における内視鏡用プロセッサの機能ブロック図である。 内視鏡用プロセッサで実行される連結処理手順の一例を示すフローチャートである。
本発明をその実施の形態を示す図面を参照して具体的に説明する。
(第1実施形態)
図1は、第1実施形態における内視鏡システムの全体構成を説明する模式図である。第1実施形態における内視鏡システムは、内視鏡1、内視鏡用プロセッサ2及び表示装置3を含む。内視鏡1は、被検体の内部に挿入され、被検体の内部を撮影した画像の画像データを内視鏡用プロセッサ2に出力する。内視鏡用プロセッサ2は、内視鏡1から入力された画像データに画像処理を施し、画像処理を施した画像データを表示装置3に出力する。表示装置3は、内視鏡用プロセッサ2から入力された画像データの画像を表示する。各装置はコネクタを介して電気信号、映像信号等の送受信を行う。
内視鏡1は、例えば上部消化管用の内視鏡または大腸内視鏡である。内視鏡1は、被検体である被検者の管腔臓器に挿入される挿入部11と、該挿入部11に操作部12及びユニバーサルコード13を介して連結されたスコープコネクタ14とを備え、スコープコネクタ14により内視鏡用プロセッサ2に接続して使用される。挿入部11の先端部分には撮像装置15が内蔵されている。
挿入部11は、操作部12に連結されて比較的に長く形成された可撓管111と、可撓管111と同軸上に連結されて比較的に短く形成された湾曲自在な湾曲部112とを有する。湾曲部112における湾曲機構は、一般的な内視鏡に組み込まれている周知の機構であり、操作部12の操作に連動した操作ワイヤの牽引によって湾曲部112が湾曲するように構成されている。先端部分の方向が上記操作による湾曲動作に応じて変わることにより、撮像装置15による撮影領域が移動する。
撮像装置15は、CCD(Charge Coupled Device)イメージセンサ、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子及び結像用の対物光学系を備える。撮像装置15を駆動するためのドライバ回路は、内視鏡用プロセッサ2との接続部分(スコープコネクタ14の内部)等に配置され、CPU(Central Processing Unit)、タイミングジェネレータ(TG)、アナログ信号処理回路(AEF)などを備える。ドライバ回路は、TGから出力されるクロック信号に応じて、固体撮像素子から出力されるRGB各色の信号を取り込み、ノイズ除去、増幅、AD変換など、必要な処理を施して得られるデジタル形式の画像データを内視鏡用プロセッサ2へ出力する。
操作部12は、操作者により把持されて各種の操作を行うために設けてあり、静止画及び高画質動画を含む画像を記録するための制御ボタン121が設けられている。制御ボタン121が押下操作されたタイミングにて、内視鏡1は静止画及び所定の時間長の高画質動画を撮影する。操作部12には、制御ボタン121に加え、操作者の各種の操作を受け付けるための他の操作ボタンが設けられていてよい。操作部12は、操作部12で行われた操作を示す操作信号を内視鏡用プロセッサ2に出力する。
別の実施形態では、操作部12は、静止画撮影操作と高画質動画撮影操作とを独立して受け付ける構成であってよい。例えば、制御ボタン121は、静止画撮影操作と高画質動画撮影操作との2段階の押下操作が検出可能に構成されている。制御ボタン121は、1段階の押下操作により静止画撮影操作を受け付け、さらにもう1段階押し下げられることにより高画質動画撮影操作を受け付ける。なお、制御ボタン121は複数設けられ、異なる制御ボタン121により静止画撮影操作と高画質動画撮影操作とを受け付ける構成であってもよい。
内視鏡用プロセッサ2は、内視鏡1の撮像装置15により撮影され、ユニバーサルコード13を通じて伝送される画像データを処理するための情報処理装置である。内視鏡用プロセッサ2にて処理された画像データは表示装置3へ出力される。
表示装置3は、例えば液晶表示装置又は有機EL(Electro Luminescence)表示装置であり、内視鏡用プロセッサ2から出力された画像データ等を表示する。
図2は、内視鏡用プロセッサ2の構成例を示すブロック図である。内視鏡用プロセッサ2は、制御部21、記憶部22、入力部23、出力部24、光源25などを含む。
制御部21は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)等を有する。制御部21が有するCPUは、ROM又は記憶部22に格納されたプログラム2PをRAM上に展開して実行することにより、内視鏡用プロセッサ2を本実施の形態における内視鏡用プロセッサ2として機能させる。
なお、制御部21は上記の構成に限定されるものではない。制御部21は、GPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)、DSP(Digital Signal Processor)、量子プロセッサ、揮発性又は不揮発性のメモリ等を備える1又は複数の演算回路又は制御回路であってもよい。また、制御部21は、日時情報を出力するクロック、計測の開始指示を与えてから計測の終了指示を与えるまでの経過時間を計測するタイマ、数をカウントするカウンタ等の機能を有していてもよい。
記憶部22は、例えばEPROM(Erasable Programmable Read Only Memory)などの不揮発性メモリ、若しくはハードディスクを備えた記録装置により構成されている。記憶部22は、プログラム2Pを記憶するほか、制御部21が参照する他のプログラム及びデータを記憶する。記憶部22は複数の記憶装置により構成されていてもよく、内視鏡用プロセッサ2に接続された外部記憶装置であってもよい。別の実施形態では、記憶部22は、USBメモリ又はSDカード等の可搬型の記録媒体であり、内視鏡用プロセッサ2に対して着脱可能であってもよい。
プログラム2Pは、プログラム2Pを読み取り可能に記録した記録媒体2Aを用いて、内視鏡用プロセッサ2に提供されてもよい。記録媒体2Aは、例えば、CD-ROM、USBメモリ、SDカード、マイクロSDカード又はコンパクトフラッシュ(登録商標)等の可搬型メモリである。この場合、制御部21は、不図示の読取部を介して記録媒体2Aからプログラム2Pを読み取り、読み取ったプログラム2Pを記憶部22にインストールしてもよい。更に、内視鏡用プロセッサ2が外部装置と通信する通信部を備える場合、プログラム2Pは、通信部を介した通信によって、内視鏡用プロセッサ2に提供されてもよい。この場合、制御部21は、通信部を通じてプログラム2Pを取得し、取得したプログラム2Pを記憶部22にインストールしてもよい。
記憶部22はさらに、学習モデル2M及び画像DB222(Data Base :データベース)222を記憶する。画像DB222は、内視鏡により撮影された画像に関する画像情報を登録するデータベースである。学習モデル2Mは、内視鏡により撮影された画像における病変を識別する識別器であり、機械学習により生成された学習モデルである。学習モデル2Mは、その定義情報によって定義される。学習モデル2Mの定義情報は、例えば、学習モデル2Mの構造情報や層の情報、各層が備えるノードの情報、学習済みのパラメータを含む。記憶部22には、学習モデル2Mに関する定義情報が記憶される。
入力部23は、例えばタッチパネル、キーボード、各種スイッチ等の入力装置を接続する接続インタフェースを備える。入力部23は、これら入力装置に対する外部からの操作に応じて発生した入力信号を制御部21に入力する。
出力部24は、表示装置3を接続する接続インタフェースを備える。出力部24の出力インタフェースは、アナログ形式の映像信号を出力する出力インタフェースであってもよく、DVI(Digital Visual Interface)やHDMI(High-Definition Multimedia Interface)(登録商標)などのデジタル形式の映像信号を出力する出力インタフェースであってもよい。出力部24は、制御部21の制御の下で、表示用の画像信号を表示装置3に出力し、画像を表示させる。
光源25は、観察対象の照明に用いる照明光を発する光源を備える。光源25は、例えば、波長域が異なる複数色のLED(Light Emitting Diode)等の半導体光源、レーザーダイオードと蛍光体の組み合わせ、又はキセノンランプ等である。光源25の点灯、消灯および明るさの変更は、制御部21により制御される。なお、本実施形態では、内視鏡用プロセッサ2が光源一体型であるが、これに限定されるものではない。例えば、内視鏡用プロセッサ2は、光源装置と分離する光源分離型であってもよい。
さらに内視鏡用プロセッサ2は、通信部を備えていてもよい。内視鏡用プロセッサ2は、画像データ等を外部装置へ送信し、これらの情報を外部装置に蓄積させてもよい。
本実施形態では、内視鏡用プロセッサ2は一台の情報処理装置であるものとして説明するが、複数台により分散して処理させてもよく、または仮想マシンにより構成されていてもよい。
図3は、画像DB222に記憶される情報の内容例を示す図である。制御部21は、内視鏡1から取得した撮像画像データに基づく静止画及び動画を生成し画像DB222に記憶する。画像DB222には、画像ファイルを識別するための画像IDに対応付けて、画像、時間情報、被検体ID、及び開始条件等が記憶されている。
画像は、内視鏡1の検査において取得した画像を含んでよい。本実施形態において、画像には、静止画及び動画が含まれており、さらに動画には低画質動画及び高画質動画が含まれている。すなわち、動画には、同一の撮像装置により撮影された、同時点における同一の撮像対象に対する異なる画質の動画が含まれている。静止画は、操作者の指示に応じて取得され記録される画像である。低画質動画は、内視鏡1の検査の開始から終了に亘って撮影され低い解像度で記録される画像である。高画質動画は、所定の開始条件に応じて取得され高い解像度で記録される画像である。なお、内視鏡1から取得した撮像画像データに基づき生成される画像には、上記の他に内視鏡1の検査の開始から終了に亘って取得され表示装置3に表示される内視鏡画像が含まれる。時間情報は、各画像の記録時間を示す情報を含み、例えばタイムスタンプが記憶されている。被検体IDは、各撮像画像データの撮影対象である被検体を識別する情報を含み、例えば被検体ID(患者ID)が記憶されている。開始条件は、例えば開始操作の受け付け、病変の検出、移動量が所定値以下等の、高画質動画の撮影を開始するに至った開始条件を示す情報を含む。図3の例では、開始条件は、1から3の種類コードにより正規化して登録される。開始条件の詳細については後述する。なお、図3は一例であり、画像DB222の記憶内容は限定されない。
通常の内視鏡検査においては、内視鏡用プロセッサ2の記憶容量の問題上、所定の検査箇所において撮影される高い解像度の静止画と、施術中の全ての時間において撮影される低い解像度の動画とが保存されることが一般的である。医師が後日診断を行う場合には、保存された静止画に基づき診断を行う。1枚絵である静止画からの診断は、熟練の技術が必要とされる。そこで本内視鏡システムでは、所定の時間長に限られた高い解像度の動画をさらに保存することで、保存データを基に診断を行う場合であっても、高画質で記録された静止画及び動画による多くの情報の提供を可能とする。
図4は、内視鏡用プロセッサ2の機能ブロック図である。内視鏡用プロセッサ2の制御部21は、記憶部22に記憶してあるプログラム2Pを実行することにより、画像処理部211、受付部212、病変検出部213、移動量検出部214、判定部215、識別情報取得部216、静止画取得部217、低画質動画取得部218、及び高画質動画取得部219として機能するように構成されている。
画像処理部211には、内視鏡1のドライバ回路から、ノイズ除去等の各種処理が施された1フレーム分の画像情報が、撮像画像データとして入力される。画像処理部211は、内視鏡検査が開始された場合、開始から終了に亘って所定間隔にて出力される制御信号に従い、撮像画像データを静止画取得部217、低画質動画取得部218、病変検出部213、及び移動量検出部214へ出力する。また画像処理部211は、判定部215から指示されるタイミングにて、撮像画像データを静止画取得部217及び高画質動画取得部219へ出力する。
受付部212は、内視鏡1の操作者による高画質動画の取得開始を指示する開始操作を受け付ける。高画質動画の取得開始を指示する開始操作は、例えば、制御ボタン121の押下操作である。本実施形態では、内視鏡用プロセッサ2は、制御ボタン121の押下操作により静止画と同時に高画質動画を取得する。内視鏡1の制御ボタン121が押下操作された場合、その旨を示す操作信号が受付部212に入力される。受付部212は、開始操作の受け付けを示す情報を判定部215へ出力する。
なお、内視鏡用プロセッサ2は不図示のマイクロフォン等の音声入力部を備え、受付部212は、該音声入力部を介して音声により開始操作を受け付けてもよい。受付部212は、入力部23を介して、例えばタッチパネル、キーボード等の操作により開始操作を受け付けてもよい。
病変検出部213は、画像処理部211から出力される撮像画像データに基づき、撮像画像データにおける病変を出力する。病変検出部213は、指定された画像データを入力した場合に、該画像データにおける病変を出力するように学習されている学習モデル2Mとしての機能を含む。学習モデル2Mについては、後述する。病変検出部213は、病変検出結果を示す情報を判定部215へ出力する。なお、病変検出部213は、撮像画像データに各種の画像処理を施した画像データを用いて病変を検出してもよい。病変検出部213は、後述の静止画取得部217から出力される静止画データを取得するものであってもよい。
移動量検出部214は、画像処理部211から出力される撮像画像データに基づき、内視鏡1の移動量を検出する。具体的には、移動量検出部214は、撮像画像データに含まれる撮影領域の移動量に基づき、内視鏡1における挿入部11の先端部分の移動量を検出する。移動量検出部214は、検出時点における撮像画像データのフレーム及び該検出時点の直前におけるフレームを取得し、取得した2枚のフレームに含まれる同一領域における移動量を演算することにより、内視鏡1の移動量を検出する。移動量検出部214は、移動量検出結果を示す情報を判定部215へ出力する。なお、移動量検出部214は、撮像画像データに各種の画像処理を施した画像データを用いて移動量を検出してもよい。移動量検出部214は、後述の静止画取得部217から出力される静止画データを取得するものであってもよい。
なお、移動量の検出方法は上記の例に限定されるものではない。移動量検出部214は、その他機械学習の手法を用いて撮像画像に基づき内視鏡1の移動量を検出してもよい。移動量検出部214は、例えば内視鏡1に設けられる加速度センサ、磁気センサ等の検出センサを用いて取得した検出値により内視鏡1の移動量を検出してもよい。また、移動量検出部214は、内視鏡1の移動量に代えて操作量の変化を検出してもよい。例えば、移動量検出部214は、操作部12に設けられている操作ボタンの操作信号等の、内視鏡1の操作に関する操作データを取得し、取得した操作データのログに基づき内視鏡1の操作量の履歴を検出してもよい。
判定部215は、静止画及び高画質動画の記録を行うタイミングであるか否かを判定し、判定結果を画像処理部211へ出力する。静止画データを記憶するタイミングは、内視鏡1の操作者によって制御ボタン121が押下操作された直後のタイミングである。内視鏡1の制御ボタン121が押下操作された場合、その旨を示す操作信号が判定部215に入力される。判定部215は、制御ボタン121が押下操作されたことを示す操作信号が入力された場合、撮像画像データを静止画取得部217へ出力する制御信号を画像処理部211へ付与する。なお判定部215は、受付部212を介して操作信号(開始操作)の受付を示す情報を取得してもよい。
高画質動画データを記憶するタイミングは、所定の開始条件が満たされた直後のタイミングである。開始条件とは、高画質動画の撮影を開始する条件であり、当該条件を満たすタイミングにて撮影される画像をもとに診断が行われる可能性が高い場合が含まれる。判定部215は、開始条件を満たすと判定した場合、撮像画像データを高画質動画取得部219へ出力開始する制御信号を画像処理部211へ付与する。
開始条件の第1例は、操作者による動画の撮影開始を指示するボタン操作等の開始操作の受け付けである。判定部215は、受付部212から出力された開始操作の受け付けを示す情報に基づき、開始操作が受け付けられたか否かを判定する。判定部215は、開始操作の受け付けを示す情報を取得した場合、開始条件を満たすと判定し高画質動画データの取得開始を指示する。
開始条件の第2例は、内視鏡画像における病変の検出である。判定部215は、病変検出部213から出力された病変検出結果を示す情報に基づき、病変が検出されたか否かを判定する。判定部215は、病変が検出されたことを示す病変検出結果を取得した場合、開始条件を満たすと判定し高画質動画データの取得開始を指示する。
開始条件の第3例は、内視鏡1の移動量が所定値以下であることの検出である。判定部215は、移動量検出部214から出力された移動量検出結果を示す情報に基づき、内視鏡1の移動量が所定値以下か否かを判定する。すなわち判定部215は、操作者が同一箇所での観察を続けていることにより内視鏡1の挿入、回転操作等が停止しているか否かを判定する。内視鏡1が同一箇所に留まっている場合には、当該箇所における撮影対象に病変等が含まれる可能性が高い。判定部215は、内視鏡1の移動量が所定値以下であると判定した場合、開始条件を満たすと判定し高画質動画データの取得開始を指示する。
上述のように、開始条件は複数の条件を含む。判定部215は、いずれかの開始条件を満たすと判定した場合、撮像画像データの出力を開始する制御信号を画像処理部211へ付与する。
識別情報取得部216は、例えば被検体ID等の被検体識別情報を取得する。識別情報取得部216は、例えばキーボード、タッチパネル等の入力操作を受け付けることにより、入力部23を介して被検体識別情報を取得する。識別情報取得部216は、取得した被検体識別情報を静止画取得部217、低画質動画取得部218、高画質動画取得部219へ出力する。
静止画取得部(静止画像取得部)217は、検査の開始から終了に亘って所定間隔にて画像処理部211から出力される撮像画像データを取得する。静止画取得部217は、取得した撮像画像データに、ガンマ補正、ホワイトバランス補正、シェーディング補正等の各種画像処理を行ない操作者が目視しやすい状態にした内視鏡画像を生成する。静止画取得部217は、生成した内視鏡画像を出力部24により表示装置3へ順次出力する。表示装置3の表示画面には、リアルタイムで被検体の映像が表示され、操作者は内視鏡画像に基づき観察を行う。
さらに、静止画取得部217は、判定部215の指示に応じたタイミングにて画像処理部211から出力される撮像画像データを取得する。静止画取得部217は、識別情報取得部216から出力される被検体識別情報を取得する。静止画取得部217は、取得した撮像画像データに所定の画像処理を施した静止画を生成し、静止画データとして取得する。なお静止画データは、同時点において取得した内視鏡画像データであってもよい。静止画データは、例えば1980×1080(フルHD)等の、高い解像度を有する画像データである。静止画取得部217は、取得した静止画データを、例えばJPEG、TIFF等の所定のファイル形式による静止画ファイルとして記憶部22に記憶させる。この場合において、静止画取得部217は、静止画データに被検体識別情報を関連付けて記憶部22に記憶する。
低画質動画取得部(第2動画像取得部)218は、検査の開始から終了に亘って所定間隔にて画像処理部211から出力される撮像画像データを取得する。低画質動画取得部218は、識別情報取得部216から出力される被検体識別情報を取得する。低画質動画取得部218は、取得した撮像画像データに解像度の変更を含む所定の画像処理を施し、所定の動画圧縮方式で圧縮した低画質動画を生成し、低画質動画データとして取得する。低画質動画データは、静止画データ及び高画質動画データより低い解像度を有する。低画質動画取得部218は、取得した低画質動画データを、例えばMP4、MXF等の所定のファイル形式による低画質動画ファイルとして画像DB222に記憶させる。この場合において、低画質動画取得部218は、低画質動画データに被検体識別情報を関連付けて記憶部22に記憶する。
高画質動画取得部(動画像取得部)219は、判定部215の指示に応じたタイミングにて画像処理部211から出力される撮像画像データを取得する。高画質動画取得部219は、識別情報取得部216から出力される被検体識別情報を取得する。高画質動画取得部219は、取得開始のタイミングから所定時間分の撮像画像データを取得する。高画質動画取得部219が撮像画像データを取得する時間は、例えば1秒から7秒であり、好ましくは5秒から7秒である。高画質動画の取得時間が1秒から7秒である場合には、例えばフレームレートが30fspであっても数十メガバイトから数百メガバイトの記憶容量で画像データを保存できる。従って、記憶容量が過度に逼迫することを抑制しつつ、操作者へ提供する情報の有用性を向上させることが可能となる。内視鏡用プロセッサ2は、例えばタッチパネルに表示される設定画面等を用いて、操作者により予め高画質動画の撮影時間の設定入力を受け付けることにより、高画質動画データの取得時間を取得する。なお、高画質動画を取得する時間長は、高画質動画データの容量の下限値または上限値に基づき決定されてもよい。すなわち、高画質動画取得部219は、特定の容量分の高画質動画データの取得を開始するものであってよい。例えば、内視鏡用プロセッサ2は、予め設定される取得容量に応じて、高画質動画の解像度及び時間長を導出し、導出した時間長の動画データを取得してもよい。なお、内視鏡用プロセッサ2は、所定の容量に応じた高画質動画データを取得するにあたり、例えば低画質動画データより低いフレームレートで画像データを取得してもよい。フレームレートを下げることにより、データ容量を抑制しつつ高画質動画の取得時間を増加させることができる。
高画質動画取得部219は、取得した所定時間分の撮像画像データに解像度の変更を含む所定の画像処理を施し、所定の動画圧縮方式で圧縮した高画質動画を生成し、高画質動画データとして取得する。高画質動画データは、例えば1980×1080(フルHD)等の、静止画データと同等以上の高い解像度を有する画像データである。高画質動画取得部219は、取得した高画質動画データを、例えばMP4、MXF等の所定のファイル形式による高画質動画ファイルとして画像DB222に記憶させる。この場合において、高画質動画取得部219は、高画質動画データに被検体識別情報を関連付けて記憶部22に記憶する。
別の実施形態では、高画質動画取得部219は、検査の開始から終了に亘って所定間隔にて画像処理部211から出力される撮像画像データを取得しており、判定部215の指示に応じて、所定時間に限られた高画質動画ファイルを生成してもよい。高画質動画取得部219は、例えば、判定部215の指示を取得したタイミングから開始して所定時間分の撮像画像データに基づき高画質動画データを取得する。あるいは、高画質動画取得部219は、判定部215の指示を取得したタイミングから所定の時間長を遡って取得した所定時間分の撮像画像データに基づき高画質動画データを取得してもよい。
なお上記の各画像ファイルが、電子カルテシステム等に出力され保存される場合においては、当該電子カルテシステムに応じた形式で各画像ファイルが記憶されることが望ましい。各画像ファイルは、例えば、DICOM(Digital Imaging and Communications in Medicine)規格で記憶されてよい。
ここで、学習モデル2Mについて詳細を説明する。図5は、学習モデル2Mの構成を説明する説明図である。学習モデル2Mは予め、内視鏡用プロセッサ2又は外部装置において、ニューラルネットワークを用いた深層学習によって、生成され、学習される。学習アルゴリズムは、例えばCNN(Convolution Neural Network)である。
図5に示す例では、学習モデル2Mは、画像データを入力する入力層と、病変の有無の識別結果を出力する出力層と、特徴量を抽出する中間層(隠れ層)とを備える。中間層は、入力データの特徴量を抽出する複数のノードを有し、各種パラメータを用いて抽出された特徴量を出力層に受け渡す。入力層に、画像データが入力された場合、学習済みパラメータによって中間層で演算が行なわれ、出力層から、病変の有無を示す出力情報が出力される。
学習モデル2Mの出力層からは、病変の有無の識別結果である出力情報が出力される。出力層は、設定されている識別結果である病変有及び病変無に各々対応するノードを含み、病変有及び病変無夫々に対する確度をスコアとして出力する。制御部21は、スコアが高い識別結果、あるいはスコアが閾値以上である識別結果を出力層の出力値とすることができる。なお出力層は、それぞれの識別結果の確度を出力する複数の出力ノードを有する代わりに、最も確度の高い識別結果を出力する1個の出力ノードを有してもよい。
制御部21は、過去に実施された大量の内視鏡検査の画像データ及び診断結果を収集したデータを用いて学習を行う。制御部21は、これまでに実施された内視鏡検査から得られる入力情報に、既知の診断結果である病変の有無を示す情報が付与された情報群を訓練データとして予め収集して学習モデル2Mを学習する。制御部21は、内視鏡画像データに応じた病変の有無を示す出力情報を出力するよう、例えば誤差逆伝播法を用いて、学習モデル2Mを構成する各種パラメータ及び重み等を学習する。
上記では学習モデル2MがCNNである例を説明したが、学習モデル2MはCNNに限定されるものではない。時系列データを取得した場合にはCNN以外のニューラルネットワーク、例えばリカレントニューラルネットワーク(RNN:Recurrent Neural Network)、LSTM(Long Short Term Memory)ネットワークを用いてもよい。学習モデル2Mは、病変部の領域を抽出するセグメンテーションネットワークであってもよい。またニューラルネットワークを用いないサポートベクタマシン、回帰木等、他のアルゴリズムによって学習されたモデルであってもよい。
本実施形態では、病変検出部213は学習モデル2Mを用いて内視鏡画像における病変の有無を検出する例を説明したが、病変の検出方法は限定されるものではない。病変検出部213は、例えばパターンマッチング、エッジ検出等の手法を用いて、内視鏡画像の特徴量と予め記憶する病変部の特徴量とに基づき、内視鏡画像に病変が含まれるか否かを判定してもよい。
図6は、内視鏡用プロセッサ2で実行される処理手順の一例を示すフローチャートである。内視鏡用プロセッサ2の制御部21は、内視鏡画像の生成、低画質動画の生成等の処理と並行して、図6に示す処理を実行する。制御部21は、例えば、自装置に接続されている入力部23からの入力内容に基づき以下の処理を実行する。
制御部21は、例えばキーボード、タッチパネル等の入力操作を受け付けることにより、入力部23を介して被検体識別情報を取得する(ステップS11)。
制御部21は、内視鏡1から撮像画像データを取得する(ステップS12)。ついで制御部21は、開始条件を満たすか否かを判定する。制御部21は、第1開始条件として、開始操作を受け付けたか否かを判定する(ステップS13)。制御部21は、受付部212によって制御ボタン121の押下操作による操作信号を取得し、開始操作の受け付けを示す情報を出力する処理を実行する。開始操作の受け付けを示す情報が取得され、開始操作を受け付けたと判定した場合(ステップS13:YES)、制御部21は、第1開始条件を満たすと判定し、ステップS16の高画質動画データの取得開始へ処理を進める。
開始操作の受け付けを示す情報が取得されておらず、開始操作を受け付けていないと判定した場合(ステップS13:NO)、制御部21は、第1開始条件を満たさないと判定し、ステップS14及びステップS15における他の開始条件の判定へ処理を進める。
制御部21は、第2開始条件として、撮像画像から病変が検出されたか否かを判定する
(ステップS14)。制御部21は、病変検出部213によって病変検出結果を示す情報を出力する処理を実行する。具体的には、制御部21は、撮像画像データを学習モデル2Mに入力して、出力される病変検出結果を特定する。学習モデル2Mに入力される画像データは、撮像画像データに各種の処理を施した画像データであってもよく、あるいは内視鏡画像データであってもよい。病変有りを示す病変検出結果を取得し、病変が検出されたと判定した場合(ステップS14:YES)、制御部21は、第2開始条件を満たすと判定し、ステップS16の高画質動画データの取得開始へ処理を進める。
一方、病変無しを示す病変検出結果を取得し、病変が検出されないと判定した場合(ステップS14:NO)、制御部21は、第2開始条件を満たさないと判定し、処理をステップS13へ戻し開始条件を満たすまで待機する。
制御部21は、サブプロセスを発生させ、ステップS14の処理に並行してステップS15の処理を行う。制御部21は、これら2つのプロセスにおいてプロセス間通信を行うことにより、処理の同期を図るものであってもよい。制御部21は、第3開始条件として、内視鏡1の移動量が所定値以下であるか否かを判定する(ステップS15)。制御部21は、撮像画像データに基づき、移動量検出部214によって移動量検出結果を示す情報を出力する処理を実行する。制御部21は、取得した移動量検出結果の移動量と、予め設定されている閾値との大小関係を判定する。移動量が所定値以下であると判定した場合(ステップS15:YES)、制御部21は、第3開始条件を満たすと判定し、ステップS16の高画質動画データの取得開始へ処理を進める。
一方、移動量が所定値以下でないと判定した場合(ステップS15:NO)、制御部21は、第3開始条件を満たさないと判定し、処理をステップS13へ戻し開始条件を満たすまで待機する。
第1開始条件から第3開始条件のいずれかを満たすと判定した場合、制御部21は、高画質動画データの取得を開始する(ステップS16)。制御部21は、取得開始のタイミングから操作者による入力を受け付ける等により設定された所定時間分の撮像画像データを取得する。高画質動画データの取得時間を取得する。制御部21は、取得した撮像画像データに所定の画像処理を施し、所定の動画圧縮方式で圧縮した高画質動画を生成し、高画質動画データとして取得する。制御部21は、高画質動画データと被検体識別情報とを関連付けて画像DBに記憶する(ステップS17)。
制御部21は、処理を終了するか否かを判定する(ステップS18)。例えば、操作者により内視鏡検査の終了が指示された場合、または、内視鏡1が内視鏡用プロセッサ2から取り外された場合等に、制御部21は処理を終了すると判定する。処理を終了しないと判定した場合(ステップS18:NO)、制御部21は処理をステップS12に戻し、撮像画像データの取得を継続する。この場合において、制御部21は、所定の時間長の高画質動画の取得が終了したタイミングにて次の撮像画像データを取得してよい。あるいは制御部21は、高画質動画の取得が終了する前に次の撮像画像データを取得し、開始条件の判定処理を進めてもよい。処理を終了すると判定した場合(ステップS18:YES)、制御部21は一連の処理を終了する。
なお、上記の実施形態で説明した各処理シーケンスは限定されるものではなく、その性質に反しない限り、手順の変更を許容し得る。上述の処理シーケンスに対して、例えば各処理ステップの実行順序を変更してもよく、複数の処理ステップを同時に実行させてもよく、一連の処理シーケンスを実行する毎に、各処理ステップの順序が異なるようにしてもよい。制御部21は、上述の第1開始条件から第3開始条件の判定を同時に実行してもよい。すなわち、制御部21は、ステップS13の処理に並行してステップS14及びステップS15の処理を行ってもよい。
また上記では、制御部21は、第1開始条件から第3開始条件までの全ての開始条件について判定する例を説明したが、本実施形態は限定されるものではない。例えば、制御部21は、第1開始条件から第3開始条件までのいずれの開始条件について判定するかの選択を受け付け、選択された開始条件のみについて判定してもよい。制御部21は、例えば入力部23を介してキーボード、タッチパネル等の入力操作を受け付けることにより、各開始条件に対する判定の要否を取得する。制御部21は、選択された開始条件のみについて、開始条件を満たすか否かの判定処理を実行し、選択された開始条件を満たす場合に高画質動画を取得する。
さらにまた、制御部21は、例えば検査毎に開始条件に対する閾値の選択を受け付け、選択された閾値を含む開始条件に応じて高画質動画を取得する構成であってもよい。例えば、制御部21は、ステップS15の第3開始条件の判定において、予め操作者により選択され設定された移動量の閾値との大小関係を判定する。さらに、制御部21は、ステップS14の第2開始条件の判定においても、病変検出の確度に対する閾値との大小関係を含んで判定するものであってよい。制御部21は、ステップS14において、病変検出結果として病変の有無及び検出の確度を取得する。検出の確度は、例えば学習モデル2Mの出力情報のスコアに基づき決定される。制御部21は、病変検出結果が病変有りであり、且つ取得した検出の確度が予め設定された閾値よりも大きい場合には、第2開始条件を満たすと判定し、高画質動画を取得する。
操作者は、検査実施時又は後日の診断内容に応じて、取得する情報量を選択することが可能である。
本実施形態によれば、内視鏡用プロセッサ2において、従来の静止画及び低画質動画に加えて高画質動画が取得される。高画質動画は、静止画と同等以上の解像度にて所定の時間長に限られて記録されるため、1回の検査に対するデータ容量を限定して保存することが可能となる。医師は後日診断を行う場合であっても、高画質にて記録された静止画と必要な時間分のみに限られた高画質動画とに基づき診断を行うことが可能となり、効率的に、且つ精度の高い診断を実施することができる。
高画質動画は、操作者の指示に応じて静止画と同時に取得される以外に、所定の開始条件に基づき自動で取得される。従って画像の取り忘れ、病変の見逃し等を防止し、誤診の発生する確率を軽減することができる。さらに、病変の可能性が高い対象部を高い解像度にて記録した高画質動画を限定的に収集することができるため、例えば病変に関する情報を出力する機械学習モデルの訓練データ等に利用可能な情報を効率的に収集することができる。
(第2実施形態)
第2実施形態では、複数の高画質動画を連結された1個の動画として提供する構成について説明する。以下では、第2実施形態について、第1実施形態と異なる点を説明する。後述する構成を除く他の構成については第2実施形態の内視鏡システムと同様であるので、共通する構成については同一の符号を付してその詳細な説明を省略する。
図7は、第2実施形態における内視鏡用プロセッサ2の機能ブロック図である。第2実施形態では、内視鏡用プロセッサ2の制御部21は、記憶部22に記憶してあるプログラム2Pを実行することにより、さらに連結部220として機能するように構成されている。
第2実施形態では、判定部215は、静止画データ、低画質動画データ及び高画質動画データ等の各画像データを取得すると判定したタイミングで、画像処理部211へ撮像画像データの出力開始を指示すると共に、撮像画像データが出力された時点を示すタイムスタンプを発行する。判定部215は、発行したタイムスタンプを静止画取得部217、低画質動画取得部218、高画質動画取得部219夫々へ出力する。なお判定部215は、画像処理部211へタイムスタンプを出力し、画像処理部211がタイムスタンプを静止画取得部217、低画質動画取得部218、高画質動画取得部219夫々へ出力してもよい。静止画取得部217、低画質動画取得部218、高画質動画取得部219夫々は、取得したタイムスタンプを各画像ファイルに関連付けて画像DB222に記憶させることにより、各画像ファイルにタイムスタンプを付与する。または、静止画取得部217、低画質動画取得部218、高画質動画取得部219は、生成する各画像ファイルにタイムスタンプを埋め込むことにより、各画像ファイルにタイムスタンプを付与する構成であってもよい。なお、時間情報は、各画像ファイルに含まれているものに限定されず、各画像に時間情報が関連付けられて画像DB222に記憶されていればよい。例えば、時間情報のデータが画像ファイルに関連付けて画像DB222に記憶されていてもよい。
さらに、判定部215は、高画質動画データの出力開始の指示とともに、判定の根拠となる開始条件を示す情報を高画質動画取得部219へ出力する。高画質動画取得部219は、取得した開始条件を示す情報を高画質動画データに関連付けて記憶部22に記憶する。
連結部220は、同一の被検体について撮影された複数の高画質動画データを連結し1個の連結動画データを生成する。連結部220は、画像DB222を参照し、同一の被検体識別情報が関連付けられている複数の高画質動画データを取得する。連結部220は、取得した各高画質動画データに関連付けられる時間情報に基づき、複数の高画質動画データを時系列に配列する。連結部220は、時系列で隣接する高画質動画データ間において、前の時点における高画質動画データの最後のフレームと、後の時点における高画質動画データの最初のフレームとを連結し、1個の連結動画データを生成する。
上述の前後のフレームを連結する場合において、連結部220は前後のフレーム間を補間して連結してもよい。例えば、同一の開始条件に基づき同一の対象箇所を撮像した複数の高画質動画が取得された場合においては、これら複数の動画のフレーム補間を施し、滑らかな動画データとして表示されることが好ましい。連結部220は、同一の被検体について取得した複数の高画質動画データから、さらに同一の開始条件が関連付けられている高画質動画データを取得する。連結部220は、同一の開始条件が関連付けられている高画質動画データ間において前後のフレーム補間を行う。この場合において、連結部220は、前後のフレームの取得時間差が例えば0.1秒から1秒等の所定値以下であるときにフレーム補間を実行してもよい。前後のフレームにおける取得時間の間隔が所定値より大きいときは、両方のフレームに同一の撮像対象を含まない可能性が高いため、連結部220はフレームを補間しないものであってよい。
連結部220は、例えば前後のフレームに基づき中間フレームを生成する補間を行う。または、連結部220は、静止画データ又は低画質動画データに基づき中間フレームを生成する補間を行ってもよい。連結部220は、前後のフレーム間における時点に取得された静止画データが記憶される場合には、該静止画データを中間フレームとして用いてよい。あるいは、前後のフレーム間における時点に取得された低画質動画データのフレームが記憶される場合には、該低画質動画データのフレームを中間フレームとして用いてよい。連結部220は、静止画データ又は低画質動画データに関連付けられる時間情報及び被検体識別情報に基づき、中間フレームに用いる静止画データ又は低画質動画データを特定するとよい。
図8は、内視鏡用プロセッサ2で実行される連結処理手順の一例を示すフローチャートである。内視鏡用プロセッサ2の制御部21は、例えば、自装置に接続されている入力部23からの入力内容に基づき以下の処理を実行する。制御部21は、検査が実施され新たな高画質動画データが記憶されたタイミングで以下の処理を実行してもよい。
制御部21は、画像DB222を参照し、同一の被検体識別情報が関連付けられた複数の高画質動画データを取得する(ステップS21)。制御部21は、取得した各高画質動画データに関連付けられる時間情報に基づき、複数の高画質動画データを時系列に配列する。
制御部21は、時系列で隣接する高画質動画データにおいて、同一の開始条件に基づき取得されたか否かを判定する(ステップS22)。連続する高画質動画データの開始条件が一致しておらず、同一の開始条件でないと判定した場合(ステップS22:NO)、制御部21は、ステップS23のフレーム補間処理をスキップする。
連続する高画質動画データの開始条件が一致しており、同一の開始条件であると判定した場合(ステップS22:YES)、制御部21は、フレームを補間する(ステップS23)。具体的には、制御部21は、時系列に隣接する高画質動画データにおいて、前の時点における高画質動画データの最後のフレームと、後の時点における高画質動画データの最初のフレームとを補間する。制御部21は、同一の開始条件を有し時系列に連続する複数の高画質動画データ間において、上記の処理を実行する。
制御部21は、同一の被検体識別情報が関連付けられた複数の高画質動画データにおいて、時系列に配列した高画質動画データ夫々における、前の時点における高画質動画データの最後のフレームと、後の時点における高画質動画データの最初のフレームとを連結し、1個の連結動画データを生成する(ステップS24)。制御部21は、生成した連結動画データを、出力部24を介して表示装置3に表示し、一連の処理を終了する。制御部21は、生成した連結動画データを記憶部22に記憶するものであってもよい。
本実施形態によれば、同一の被検体について取得した動画が一連の連結動画として表示されるため、よりスムーズな診断が可能となる。また、同一の開始条件である動画においてはフレーム補間が行われることにより、医師はフレームの欠落を感じることなく診断することができる。
上記の各実施形態では、内視鏡1は人である被検体に用いられる医療用内視鏡の例を説明したが、内視鏡1は、例えば配管等の検査に使用される工業用内視鏡であってもよい。
なお、上述のように開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。各実施例にて記載されている技術的特徴は互いに組み合わせることができ、本発明の範囲は、請求の範囲内での全ての変更及び請求の範囲と均等の範囲が含まれることが意図される。
1 内視鏡
2 内視鏡用プロセッサ
21 制御部
22 記憶部
2P プログラム
2A 記録媒体
2M 学習モデル
222 画像DB
211 画像処理部
212 受付部
213 病変検出部
214 移動量検出部
215 判定部
216 識別情報取得部
217 静止画取得部
218 低画質動画取得部
219 高画質動画取得部
220 連結部

Claims (14)

  1. 内視鏡により撮影される静止画像と同等以上の解像度を有する所定の時間長に限られた動画像の取得を開始する開始条件を満たすか否かを判定する判定部と、
    前記判定部が前記開始条件を満たすと判定した場合、前記動画像の取得を開始する動画像取得部と
    前記動画像の取得開始を指示する開始操作を受け付ける受付部とを備え、
    前記判定部は、前記受付部によって開始操作が受け付けられたことにより前記開始条件を満たすと判定し、
    前記開始条件は、前記受付部によって開始操作が受け付けられたこと以外の他の開始条件を含み、
    前記判定部は、前記受付部によって開始操作が受け付けられていない場合、前記他の開始条件を満たすか否かを判定する
    内視鏡用プロセッサ。
  2. 前記静止画像における病変を検出する病変検出部を備え、
    前記判定部は、前記病変検出部によって病変が検出されることにより前記開始条件を満たすと判定する
    請求項1に記載の内視鏡用プロセッサ。
  3. 前記静止画像に基づき前記内視鏡の移動量を検出する移動量検出部を備え、
    前記判定部は、前記移動量検出部が検出した前記移動量が所定値以下であることにより前記開始条件を満たすと判定する
    請求項1又は請求項に記載の内視鏡用プロセッサ。
  4. 内視鏡により撮影される静止画像と同等以上の解像度を有する所定の時間長に限られた動画像の取得を開始する開始条件を満たすか否かを判定する判定部と、
    前記判定部が前記開始条件を満たすと判定した場合、前記動画像の取得を開始する動画像取得部と、
    前記静止画像に基づき前記内視鏡の移動量を検出する移動量検出部とを備え、
    前記判定部は、前記移動量検出部が検出した前記移動量が所定値以下であることにより前記開始条件を満たすと判定する
    内視鏡用プロセッサ。
  5. 前記動画像と前記内視鏡により撮影される被検体の被検体識別情報とを関連付けて記憶する記憶部を備える
    請求項1から請求項のいずれか1項に記載の内視鏡用プロセッサ。
  6. 前記記憶部は、前記動画像に前記開始条件を関連付けて記憶する
    請求項に記載の内視鏡用プロセッサ。
  7. 前記記憶部に記憶されている同一の被検体識別情報が関連付けられた複数の動画像を、時系列に連結する連結部を備える
    請求項又は請求項に記載の内視鏡用プロセッサ。
  8. 同一の開始条件に基づき連続して取得された複数の動画像を連結する場合、前記連結部は複数の動画像間のフレームを補間して連結する
    請求項に記載の内視鏡用プロセッサ。
  9. 前記内視鏡により撮影される第2動画像を前記内視鏡による検査の開始から終了に亘って取得する第2動画像取得部を備え、
    前記動画像は、前記第2動画像よりも高い解像度を有する
    請求項1から請求項のいずれか1項に記載の内視鏡用プロセッサ。
  10. 前記動画像の解像度はハイビジョン以上である
    請求項1から請求項のいずれか1項に記載の内視鏡用プロセッサ。
  11. 内視鏡用プロセッサが、
    内視鏡により撮影される静止画像と同等以上の解像度を有する所定の時間長に限られた動画像の取得を開始する開始条件を満たすか否かを判定し、
    前記開始条件を満たすと判定した場合、前記動画像の取得を開始し、
    前記動画像の取得開始を指示する開始操作が受け付けられたことにより前記開始条件を満たすと判定し、
    前記開始条件は、前記開始操作が受け付けられたこと以外の他の開始条件を含み、
    前記開始操作が受け付けられていない場合、前記他の開始条件を満たすか否かを判定する
    処理を実行する情報処理方法。
  12. 内視鏡用プロセッサが、
    内視鏡により撮影される静止画像と同等以上の解像度を有する所定の時間長に限られた動画像の取得を開始する開始条件を満たすか否かを判定し、
    前記開始条件を満たすと判定した場合、前記動画像の取得を開始し、
    前記静止画像に基づき検出した前記内視鏡の移動量が所定値以下であることにより前記開始条件を満たすと判定する
    処理を実行する情報処理方法。
  13. 内視鏡により撮影される静止画像と同等以上の解像度を有する所定の時間長に限られた動画像の取得を開始する開始条件を満たすか否かを判定し、
    前記開始条件を満たすと判定した場合、前記動画像の取得を開始し、
    前記動画像の取得開始を指示する開始操作が受け付けられたことにより前記開始条件を満たすと判定し、
    前記開始条件は、前記開始操作が受け付けられたこと以外の他の開始条件を含み、
    前記開始操作が受け付けられていない場合、前記他の開始条件を満たすか否かを判定する
    処理をコンピュータに実行させるコンピュータプログラム。
  14. 内視鏡により撮影される静止画像と同等以上の解像度を有する所定の時間長に限られた動画像の取得を開始する開始条件を満たすか否かを判定し、
    前記開始条件を満たすと判定した場合、前記動画像の取得を開始し、
    前記静止画像に基づき検出した前記内視鏡の移動量が所定値以下であることにより前記開始条件を満たすと判定する
    処理をコンピュータに実行させるコンピュータプログラム。
JP2021573986A 2020-01-27 2021-01-22 内視鏡用プロセッサ、情報処理方法及びコンピュータプログラム Active JP7641920B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020010935 2020-01-27
JP2020010935 2020-01-27
PCT/JP2021/002180 WO2021153437A1 (ja) 2020-01-27 2021-01-22 内視鏡用プロセッサ、情報処理方法及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JPWO2021153437A1 JPWO2021153437A1 (ja) 2021-08-05
JP7641920B2 true JP7641920B2 (ja) 2025-03-07

Family

ID=77079760

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021573986A Active JP7641920B2 (ja) 2020-01-27 2021-01-22 内視鏡用プロセッサ、情報処理方法及びコンピュータプログラム

Country Status (3)

Country Link
US (1) US12035045B2 (ja)
JP (1) JP7641920B2 (ja)
WO (1) WO2021153437A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014103879A1 (ja) 2012-12-26 2014-07-03 オリンパスメディカルシステムズ株式会社 画像記録装置及び画像記録方法
US20180110398A1 (en) 2016-10-26 2018-04-26 Virgo Surgical Video Solutions, Inc . Automated system for medical video recording and storage

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4937136B2 (ja) * 2004-12-28 2012-05-23 パトリック・シー・メルダー 内視鏡画像システム
US8310529B2 (en) * 2006-05-15 2012-11-13 Olympus Medical Systems Corp. System and method for automatic processing of endoscopic images
JP5078538B2 (ja) * 2007-10-15 2012-11-21 キヤノン株式会社 画像再生装置,およびその処理方法およびそのプログラム
JP5843525B2 (ja) * 2010-11-10 2016-01-13 キヤノン株式会社 撮像装置及びその制御方法
JP2018007928A (ja) 2016-07-15 2018-01-18 Hoya株式会社 電子内視鏡システム及びプロセッサ
US10630901B2 (en) * 2017-05-23 2020-04-21 Google Llc Systems and methods for selectively activating high dynamic range in a video capture system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014103879A1 (ja) 2012-12-26 2014-07-03 オリンパスメディカルシステムズ株式会社 画像記録装置及び画像記録方法
US20180110398A1 (en) 2016-10-26 2018-04-26 Virgo Surgical Video Solutions, Inc . Automated system for medical video recording and storage

Also Published As

Publication number Publication date
US20220385818A1 (en) 2022-12-01
US12035045B2 (en) 2024-07-09
WO2021153437A1 (ja) 2021-08-05
JPWO2021153437A1 (ja) 2021-08-05

Similar Documents

Publication Publication Date Title
JP5242866B1 (ja) 画像管理装置、方法、及び読影用プログラム
CN101686799B (zh) 图像处理装置以及图像处理装置的动作方法
CN1798334B (zh) 用于编辑从体内所获取的图像流的系统和方法
US20090131746A1 (en) Capsule endoscope system and method of processing image data thereof
JP5044066B2 (ja) 画像表示装置及びカプセル型内視鏡システム
JP2010158308A (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN110770842B (zh) 医疗信息处理系统和医疗信息处理方法
US20090023993A1 (en) System and method for combined display of medical devices
JP2009039449A (ja) 画像処理装置
KR100751160B1 (ko) 의료용 화상 기록 시스템
WO2018043585A1 (ja) 内視鏡装置、情報処理装置およびプログラム
WO2014061554A1 (ja) 画像処理装置及び画像処理方法
JP7641920B2 (ja) 内視鏡用プロセッサ、情報処理方法及びコンピュータプログラム
JP7527634B2 (ja) 検査支援装置、検査支援装置の作動方法および検査支援プログラム
JP4445742B2 (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
JP2008264313A (ja) 内視鏡システム
JP3923601B2 (ja) 内視鏡システム
WO2023175916A1 (ja) 医療支援システムおよび画像表示方法
CN115279249A (zh) 图像选择辅助装置、图像选择辅助方法及图像选择辅助程序
JP7607803B2 (ja) 医療支援システム、レポート作成支援方法および情報処理装置
JP2018007960A (ja) 内視鏡装置
JP7695406B2 (ja) 医療支援システム、レポート作成支援方法および情報処理装置
US12342097B2 (en) Endoscopic procedure documentation system and method
JP4827414B2 (ja) 電子内視鏡システムとファイリングシステム
WO2023166647A1 (ja) 医療支援システムおよび画像表示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20241022

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250225

R150 Certificate of patent or registration of utility model

Ref document number: 7641920

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150