JP2018102564A - 内視鏡システム及び内視鏡システムの情報処理方法 - Google Patents

内視鏡システム及び内視鏡システムの情報処理方法 Download PDF

Info

Publication number
JP2018102564A
JP2018102564A JP2016251713A JP2016251713A JP2018102564A JP 2018102564 A JP2018102564 A JP 2018102564A JP 2016251713 A JP2016251713 A JP 2016251713A JP 2016251713 A JP2016251713 A JP 2016251713A JP 2018102564 A JP2018102564 A JP 2018102564A
Authority
JP
Japan
Prior art keywords
processing
unit
information
image
endoscope
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016251713A
Other languages
English (en)
Inventor
幸喜 八木
Koki Yagi
幸喜 八木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2016251713A priority Critical patent/JP2018102564A/ja
Priority to US15/686,950 priority patent/US10413156B2/en
Publication of JP2018102564A publication Critical patent/JP2018102564A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00011Operational features of endoscopes characterised by signal transmission
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/53Constructional details of electronic viewfinders, e.g. rotatable or detachable
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

【課題】 高負荷な処理が一時的に発生しても、処理の停滞を抑えることができる、内視鏡システム及び内視鏡システムの情報処理方法を提供する。
【解決手段】 第1処理装置である内視鏡装置2は、第1通信部46と、第1処理を実行して第1情報を出力し、かつ、第1通信部46を介し、第2処理装置101に、並列処理を行うための並列処理情報を出力し、第1処理と並列して実行される第2処理の制御を行う第1制御部31と、を有し、第2処理装置101は、第2通信部146と、第1処理と並列し、第2処理を実行して第2情報を出力する第2制御部131と、を有する。
【選択図】図1

Description

本発明は、内視鏡システム及び内視鏡システムの情報処理方法に関する。
従来、動画像を静止させた静止画像を記録する内視鏡システムがある。静止画像には、動画像に対する画像処理よりも高度な画像処理が行われることがある。
例えば、特開2015−41924号公報では、静止画像の画像処理として、撮影時刻の異なる複数の画像群から、基準画像と、合成対象画像と、を選択し、基準画像に対して合成対象画像を合成して画像合成を生成する、画像処理装置が開示される。
特開2015−41924号公報
しかし、従来の内視鏡システムでは、静止画像の記録処理等の高負荷な処理が一時的に発生すると、ライブ画像表示等の進行中の処理を停滞させることがある。
そこで、本発明は、高負荷な処理が一時的に発生しても、処理の停滞を抑えることができる、内視鏡システム及び内視鏡システムの情報処理方法を提供することができる。
本発明の一態様の内視鏡システムは、第1処理装置である内視鏡装置と、前記内視鏡装置の外部に設けられた第2処理装置と、を有する内視鏡システムであって、前記内視鏡装置は、前記第2処理装置と通信を行う第1通信部と、第1処理を実行して第1情報を出力し、かつ、前記第1通信部を介し、前記第2処理装置に並列処理を行うための並列処理情報を出力し、前記第1処理と並列して前記第2処理装置において実行される第2処理の制御を行う第1制御部と、を有し、前記第2処理装置は、前記内視鏡装置と通信を行う第2通信部と、前記第2通信部を介して入力された前記並列処理情報に基づいて、前記第1処理と並列し、前記第2処理を実行して第2情報を出力する第2制御部と、を有する。
本発明の一態様の内視鏡システムの情報処理方法は、第1制御部を有する第1処理装置である内視鏡装置と、前記内視鏡装置の外部に設けられた、第2制御部を有する第2処理装置と、を用意し、前記第1制御部によって第1処理を実行して第1情報を出力し、前記第1制御部によって前記第2処理装置に並列処理を行うための並列処理情報を出力し、入力された前記並列処理情報に基づいて、前記第2制御部によって前記第1処理と並列し、第2処理を実行して第2情報を出力する。
本発明によれば、高負荷な処理が一時的に発生しても、処理の停滞を抑えることができる、内視鏡システム及び内視鏡システムの情報処理方法を提供することができる。
本発明の実施形態に係る、内視鏡システムの構成例を示すブロック図である。 本発明の実施形態に係る、内視鏡システムの通常ライブ表示処理の流れを示すフローチャートである。 本発明の実施形態に係る、内視鏡システムのフリーズ処理の流れを示すフローチャートである。 本発明の実施形態に係る、内視鏡システムの記録処理の流れを示すフローチャートである。 本発明の実施形態の変形例1に係る、内視鏡システムのフリーズ処理の流れを示すフローチャートである。 本発明の実施形態の変形例1に係る、内視鏡システムの記録処理の流れを示すフローチャートである。
以下、図面を参照しながら、本発明の実施形態を説明する。
(構成)
図1は、本発明の実施形態に係る、内視鏡システムの構成例を示すブロック図である。
内視鏡システム1は、第1処理装置である内視鏡装置2と、内視鏡装置2の外部に設けられた第2処理装置101と、を有する。内視鏡装置2は、第2処理装置101と接続される。
内視鏡装置2は、挿入部3及び装置本体4を有する。
挿入部3は、被写体内に挿入できるように、細長状に形成され、装置本体4に取り付けられる。挿入部3の先端部には、撮像部11が設けられる。撮像部11は、CCD等の光電変換素子を有する。撮像部11は、装置本体4のCCU21に接続される。撮像部11は、CCU21の制御の下、被写体を撮像し、アナログの撮像信号をCCU21に出力する。なお、光電変換素子は、CCDに限定されず、CMOS等によって構成されても構わない。
挿入部3には、撮像部11以外にも、図示しない、挿入部3を湾曲させる湾曲部及び被写体を照明する照明部が設けられる。
装置本体4は、CCU21、第1制御部31、操作部41、タッチパネル42、第1表示部43、映像出力インターフェース(以下、「I/F」と略す)44、外部メモリI/F45、第1通信部46及び第1バッテリー51を有する。
CCU21は、撮像部11と接続され、撮像部11の各種制御を行い、撮像部11から入力された撮像信号に基づいて内視鏡画像を生成し、第1制御部31に出力する。CCU21は、撮像素子駆動部22及び画像処理部23を有する。
撮像素子駆動部22は、撮像部11の駆動を行い、撮像部11から入力された撮像信号に基づいて、内視鏡画像を生成し、画像処理部23に出力する。
画像処理部23は、撮像素子駆動部22から入力された撮像信号に基づいて、インターレース方式の内視鏡画像を生成し、1枚の内視鏡画像に基づいたノイズ低減処理、輪郭強調処理、コントラスト調整等の画像処理を行い、画像処理が行われた内視鏡画像を第1制御部31に出力する。なお、画像処理部23によって行われる画像処理は、1枚の内視鏡画像に基づいたノイズ低減処理、輪郭強調処理、コントラスト調整に限定されず、他の画像処理が行われても構わないし、一部の画像処理が行われても構わない。
第1制御部31は、内視鏡装置2の各部の制御を行う。また、第1制御部31は、CCU21から入力された内視鏡画像に基づいて、第1処理であるライブ画像の表示処理を実行し、第2処理装置101に第2処理である静止画像の出力処理を並列して実行させる。第1制御部31は、中央処理装置(以下「CPU」という)32、記憶部33、前段画像処理部34、エンコーダ/デコーダ35及び後段画像処理部36を有する。CPU32、記憶部33、前段画像処理部34、エンコーダ/デコーダ35及び後段画像処理部36は、バスBを介して互いに接続される。あるいは、前段画像処理部34からエンコーダ/デコーダ35、及び、前段画像処理部34から後段画像処理部36へ各々1対1で接続される。
CPU32は、記憶部33に記憶された各種プログラムを読み込み、各種処理を実行可能である。第1制御部31の機能は、各種プログラムを実行することによって実現される。
記憶部33は、揮発性メモリであるワークRAMとフラッシュメモリ(ROM)のような不揮発性メモリ等の記憶装置によって構成される。記憶部33には、内視鏡装置2の制御を行う各種プログラム及びデータの他、通常ライブ表示処理部P1と、フリーズ処理部P2と、記録処理部P3のプログラムと、前段画像処理部34及び第2処理装置101から入力される内視鏡画像も記憶される。
前段画像処理部34は、前段画像処理を行う回路である。前段画像処理部34は、画像処理部23から入力されたインターレース方式の内視鏡画像をプログレッシブ方式に変換し、記憶部33、後段画像処理部36及びエンコーダ/デコーダ35の少なくとも1つに出力する。前段画像処理部34から出力される内視鏡画像は、例えば、1秒当たり60枚の動画像である。
エンコーダ/デコーダ35は、内視鏡画像の圧縮及び解凍を行う回路である。エンコーダ/デコーダ35は、前段画像処理部34又は記憶部33から入力された内視鏡画像を圧縮し、外部メモリI/F45及び第1通信部46の少なくとも1つに出力する。また、エンコーダ/デコーダ35は、外部メモリI/F45及び第1通信部46から入力された各種情報を解凍することもできる。
後段画像処理部36は、画像の大きさを調整するスケーリング処理、画像に所定の文字を重畳するOSD処理を行う回路である。後段画像処理部36は、第1表示部43及び映像出力I/F44と接続される。後段画像処理部36は、記憶部33又は前段画像処理部34から入力された内視鏡画像にスケーリング処理及びOSD処理を行い、第1表示部43及び映像出力I/F44の少なくとも1つに出力する。
操作部41は、内視鏡装置2に対して各種指示入力を行うことができるように構成される。操作部41は、第1制御部31に接続される。指示入力があると、操作部41は、第1制御部31に指示入力に応じた制御信号を出力する。操作部41は、内視鏡画像のフリーズ指示を入力し、また、フリーズ指示を解除するためのフリーズ指示入力部41aと、内視鏡画像の記録指示を入力するための記録指示入力部41bを有する。フリーズ指示入力部41aは、例えば、操作ボタンを有し、1回押下すると、フリーズ指示が入力され、さらに1回押下すると、フリーズ指示が解除される。記録指示入力部41bは、操作ボタンを有し、例えば、押下することによって記録指示が入力される。なお、操作部41は、図示しないメニューボタンや他の操作ボタンを有しても構わない。
タッチパネル42は、第1表示部43に重畳して配置され、内視鏡装置2に対して各種指示入力を行うことができるように構成される。タッチパネル42は、第1制御部31に接続される。指示入力があると、タッチパネル42は、指示入力に応じた制御信号を第1制御部31に出力する。
第1表示部43は、液晶パネル等の表示装置によって構成される。第1表示部43は、後段画像処理部36から入力される内視鏡画像を表示する。
映像出力I/F44は、ケーブルを介し、図示しない外部のモニタを接続する回路である。
外部メモリI/F45は、図示しないメモリカードを接続する回路である。外部メモリI/F45は、第1制御部31と接続される。
第1通信部46は、外部の装置と通信を行う回路である。第1通信部46は、第1制御部31と接続される。第1通信部46は、有線通信によって外部の装置と通信を行う有線I/F46aと、無線通信によって外部の装置と通信を行う無線I/F46bとを有する。図2では、無線I/F46bは、第2処理装置101と接続される。
第1バッテリー51は、内視鏡装置2の各部に電源を供給可能である。
第2処理装置101は、内視鏡装置2の指示に応じて各種処理を実行可能である。第2処理装置101は、例えば、携帯情報端末装置である。第2処理装置101は、第2制御部131、第2タッチパネル142、第2表示部143、第2通信部146及び第2バッテリー151を有する。
第2制御部131は、CPU132及びメモリ133を有し、メモリ133に記憶された各種プログラムを実行可能である。メモリ133には、静止画像を高画質化するための高画質化処理部P4のプログラムが記憶される。
高画質化処理部P4における高画質化処理は、複数枚の内視鏡画像に基づいたノイズ低減処理である。複数枚の内視鏡画像を基づいたノイズ低減処理では、例えば、複数枚の内視鏡画像に基づいて、内視鏡画像の各々の位置を合わせ、内視鏡画像の各々における互いに重複した領域の画素値の加重平均を行うことによってノイズを低減させる。
第2タッチパネル142は、第2表示部143に重畳して配置され、第2処理装置101に対して各種指示入力を行うことができるように構成される。
第2表示部143は、液晶パネル等の表示装置によって構成される。第2表示部143は、第2制御部131と接続され、第2制御部131の制御の下、各種画像を表示する。
第2通信部146は、内視鏡装置2と通信を行う回路である。
第2バッテリー151は、第2処理装置101の各部に電源を供給可能である。
これにより、内視鏡装置2の第1制御部31は、通常ライブ表示処理及び記録処理において、撮像部11から入力された内視鏡画像に基づいて、前段画像処理部34及び後段画像処理部36によってライブ画像の表示処理を実行し、ライブ画像を第1表示部43に表示する。
また、第1制御部31は、フリーズ処理において、前段画像処理部34によって画像処理された内視鏡画像を記憶部33に記憶する。
また、第1制御部31は、記録処理において、記憶部33に記憶された内視鏡画像に基づいて、第2処理装置101において並列して処理をするための並列処理情報をエンコーダ/デコーダ35によって生成し、第1通信部46を介し、生成された並列処理情報を第2処理装置101に出力する。
第2処理装置101の第2制御部131は、第2通信部146を介して入力された並列処理情報に基づいて、高画質化処理を実行し、高画質化された静止画像を内視鏡装置2に出力する。
すなわち、第1処理装置である内視鏡装置2は、第2処理装置101と通信を行う第1通信部46と、第1処理を実行して第1情報を出力し、かつ、第1通信部46を介し、第2処理装置101に並列処理を行うための並列処理情報を出力し、第1処理と並列して第2処理装置101において実行される第2処理の制御を行う第1制御部31と、を有し、第2処理装置101は、内視鏡装置2と通信を行う第2通信部146と、第2通信部146を介して入力された並列処理情報に基づいて、第1処理と並列し、第2処理を実行して第2情報を出力する第2制御部131と、を有する。また、第2処理装置101は、第2通信部146を介し、第2情報を内視鏡装置2に出力する。
具体的に、内視鏡装置2は、被写体を撮像して内視鏡画像を出力する撮像部11を有し、第1制御部31は、内視鏡画像に基づいて、第1処理を実行して、第1画像情報を出力し、かつ、内視鏡画像を第2処理装置101に出力し、第2制御部131は、第2処理を実行し、静止画像である第2画像情報を出力する。内視鏡装置は、表示部と記憶部を有し、表示部は、第1画像情報を表示し、記憶部は、内視鏡画像を記憶可能であり、第1制御部は、記憶部に記憶された内視鏡画像を第2処理装置101に出力する。
本実施形態では、第1処理は、ライブ画像の表示処理である。第1処理を実行して出力される第1情報は、第1画像情報であり、より具体的には、ライブ画像である。
また、第2処理は、静止画像の高画質化処理である。第2処理を実行して出力される第2情報は、第2画像情報であり、より具体的には、高画質化された静止画像である。
(動作)
(通常ライブ表示処理)
続いて、内視鏡システム1の動作について説明をする。
まず、通常ライブ表示処理の流れについて説明をする。
図2は、本発明の実施形態に係る、内視鏡システム1の通常ライブ表示処理の流れを示すフローチャートである。
挿入部3を被写体内に挿入し、被写体の観察を開始すると、撮像部11からCCU21に撮像信号が入力される。CCU21は、撮像信号に基づいて、内視鏡画像を生成する。
CCU21は、内視鏡画像V11を出力する(S11)。CCU21は、内視鏡画像V11を第1制御部31に出力する。
第1制御部31は、内視鏡画像V11を出力する(S12)。第1制御部31は、S11においてCCU21から入力された内視鏡画像V11を前段画像処理部34によって画像処理を行う。第1制御部31は、画像処理された内視鏡画像V11をエンコーダ/デコーダ35によって圧縮し、並列処理情報として、第1通信部46を介して第2処理装置101に出力する。また、第1制御部31は、画像処理された内視鏡画像V11を、後段画像処理部36によってさらに画像処理し、第1表示部43に出力する。
第2処理装置101は、内視鏡画像V11を表示する(S13)。第2制御部131は、内視鏡装置2から入力された内視鏡画像V11を第2表示部143に表示する。
第1表示部43は、内視鏡画像V11を表示する(S14)。第1表示部43は、第1制御部31から入力された内視鏡画像V11を表示する。
S21からS24は、内視鏡画像V12に基づいて、S11からS14と同じ処理を行う。
フリーズ指示の入力があるまで、順次入力された内視鏡画像に対し、S11からS14の処理が繰り返される。
S11からS14を繰り返す処理が、実施形態に係る通常ライブ表示処理部P1の通常ライブ表示処理を構成する。
(フリーズ処理)
次に、フリーズ処理の流れについて説明をする。
図3は、本発明の実施形態に係る、内視鏡システム1のフリーズ処理の流れを示すフローチャートである。
フリーズ処理では、ユーザが静止状態の内視鏡画像を確認できるように、第1表示部43及び第2表示部143に静止画像を表示する。
フリーズ指示が入力される(S30a)。フリーズ指示入力部41aによってフリーズ指示が入力されると、第1制御部31は、フリーズ処理を開始する。
CCU21が、第1制御部31に、内視鏡画像V21出力し(S31)、第1制御部31が、第1表示部43及び第2処理装置101に、内視鏡画像V21を出力し(S32)、第1表示部43及び第2処理装置101が、内視鏡画像V21を表示する(S33、S34)。
内視鏡画像V21を記憶部33に記憶する(S35)。第1制御部31は、S32において前段画像処理部34によって画像処理された内視鏡画像V21を、記憶部33に記憶する。
S41からS45は、S31からS35と同じ処理を行い、内視鏡画像V21を第1表示部43及び第2表示部143に表示し、内視鏡画像V22を記憶部33に記憶する。
S51からS55は、S31からS35と同じ処理を行い、内視鏡画像V21を第1表示部43及び第2表示部143に表示し、内視鏡画像V23を記憶部33に記憶する。
フリーズ解除指示の入力、又は、記録指示の入力があるまで、S31からS35の処理が繰り返される。フリーズ解除指示の入力があると、処理は、通常ライブ表示処理に戻る。また、記録指示の入力があると、処理は、記録処理に進む。
S31からS35を繰り返す処理が、実施形態に係るフリーズ処理部P2のフリーズ処理を構成する。
なお、内視鏡画像を記憶することによって記憶部33の容量が不足したとき、古い内視鏡画像から削除される。
(記録処理)
次に、記録処理の流れについて説明をする。
図4は、本発明の実施形態に係る、内視鏡システム1の記録処理の流れを示すフローチャートである。
記録処理では、ユーザがライブ画像を観察できるように、内視鏡装置2にライブ画像を表示し、かつ、ライブ画像を停滞させないように、第2処理装置101に静止画像の高画質化処理をさせる。
記録指示が入力される(S61)。記録指示入力部41bによって記録指示が入力されると、第1制御部31は、記録処理を開始する。
第1制御部31は、高画質化処理の実行を指示する(S62)。第1制御部31は、第1通信部46を介し、並列処理情報を第2処理装置101に出力し、第2処理装置101に高画質化処理の実行を指示する。
第2処理装置101は、応答信号を出力する(S63)。S62によって並列処理情報が入力されると、第2制御部131は、第2通信部146を介し、内視鏡装置2に応答信号を出力する。
第2処理装置101は、高画質化処理を開始する(S64)。メモリ133から高画質化処理部P4のプログラムが読み出され、第2制御部131は、静止画像の高画質化処理を開始する。
CCU21は、内視鏡画像V31を出力する(S71)。CCU21は、内視鏡画像V31を第1制御部31に出力する。
第1制御部31は、内視鏡画像V31を出力する(S72)。S71においてCCU21から内視鏡画像V31が入力されると、第1制御部31は、前段画像処理部34によって画像処理を行う。第1制御部31は、画像処理された内視鏡画像V31を、後段画像処理部36によってさらに画像処理し、第1表示部43に出力する。
第1表示部43は、内視鏡画像V31を表示する(S73)。第1表示部43は、第1制御部31から入力された内視鏡画像V31を表示する。
第1制御部31は、内視鏡画像V21を記憶部33から読み出して出力する(S74)。第1制御部31は、S35によって記憶部33に記憶された内視鏡画像を読み込み、エンコーダ/デコーダ35によって圧縮して並列処理情報を生成し、第2処理装置101に出力する。
S81からS84は、S71からS74と同じ処理を行い、第1表示部43に内視鏡画像V32を表示し、S45によって記憶部33に記憶された内視鏡画像V22を第2処理装置101に出力する。
S91からS94は、S71からS74と同じ処理を行い、第1表示部43に内視鏡画像V33を表示し、S55によって記憶部33に記憶された内視鏡画像V23を第2処理装置101に出力する。
高画質化処理の完了が第1制御部31に通知されるまで、S71からS74の処理が繰り返される。
第2処理装置101は、高画質化処理の完了を通知する(S101)。高画質化処理が完了すると、第2制御部131は、第2通信部146を介し、第1制御部31に、高画質化処理の完了を通知する。
第1制御部31は、第2処理装置101に、高画質化処理された静止画像の出力を要求する(S102)。
第2処理装置101は、内視鏡装置2に応答信号を出力する(S103)。
第2処理装置101は、高画質化処理された静止画像を内視鏡装置2に出力する(S104)。
静止画像が入力されると、内視鏡装置2は、静止画像を記憶部33に記憶し、通常ライブ表示処理を開始する。
S61からS104の処理が、実施形態に係る記録処理部P3の記録処理を構成する。
すなわち、本実施形態では、第1制御部31は、記録指示入力部41bの指示入力に応じ、記憶部33に記憶された内視鏡画像を第2処理装置101に出力する。
内視鏡システム1の処理方法は、第1制御部31を有する第1処理装置である内視鏡装置2と、内視鏡装置2の外部に設けられた、第2制御部131を有する第2処理装置101と、を用意し、第1制御部31によって第1処理を実行して第1情報を出力し、第1制御部31によって第2処理装置101に並列処理を行うための並列処理情報を出力し、入力された並列処理情報に基づいて、第2制御部131によって第1処理と並列して第2処理を実行して第2情報を出力する。
上述の実施形態によれば、内視鏡システム1は、高負荷なフリーズ処理が一時的に発生しても、ライブ画像表示の処理の停滞を抑えることができる。
また、高画質化処理のような比較的演算時間のかかる画像処理において、演算処理を第2処理装置101側で実行することにより、静止画像の撮像直後においても操作部41及びタッチパネル42の操作性や、第1表示部43の表示品質を損ねることがなくなり、使い勝手と検査効率が向上する。
また、比較的演算時間のかかる画像処理であっても、第2処理装置101の処理リソースを優先的に使用して画像処理を行い、ライブ画像を表示する内視鏡装置2の処理負荷を軽減し、ライブ画像の表示品質を損ねず、使い勝手と検査効率が向上する。
(実施形態の変形例1)
実施形態では、高画質化処理は、記録指示の入力に応じて行われるが、フリーズ処理の入力に応じて行われても構わない。
図5は、本発明の実施形態の変形例1に係る、内視鏡システム1のフリーズ処理の流れを示すフローチャートである。本変形例の説明では、実施形態及び他の変形例と同じ構成については、同じ符号を付し、説明を省略する。なお、変形例2から12も同様に、実施形態及び他の変形例と同じ構成については、同じ符号を付し、説明を省略する。
記憶部33には、本変形例に係るフリーズ処理部P2a及び記録処理部P3aのプログラムが記憶される。
次に、変形例1に係るフリーズ処理の流れについて説明をする。
フリーズ指示が入力される(S130a)。
第1制御部31は、第2処理装置101に、高画質化処理の実行を指示する(S130b)。
第2処理装置101は、高画質化処理を開始する(S130c)。S130cは、S64と同じである。
S131からS134は、S31からS34と同じである。
第1制御部31は、内視鏡画像V21を出力する(S135)。第1制御部31は、内視鏡画像V21を第2処理装置101に出力する。
S141からS145は、S131からS135と同じ処理を行い、内視鏡画像V21を第1表示部43及び第2表示部143に表示し、内視鏡画像V22を第2処理装置101に出力する。
S151からS155は、S131からS135と同じ処理を行い、内視鏡画像V21を第1表示部43及び第2表示部143に表示し、内視鏡画像V23を第2処理装置101に出力する。
フリーズ解除指示の入力、又は、記録指示の入力があるまで、S131からS135の処理が繰り返される。フリーズ解除指示の入力があると、処理は、通常ライブ表示処理に戻る。また、記録指示の入力があると、処理は、記録処理に進む。
S131からS135を繰り返す処理が、実施形態の変形例1に係るフリーズ処理部P2aのフリーズ処理を構成する。
すなわち、変形例1では、内視鏡装置2は、フリーズ指示入力部41aの指示入力に応じ、記憶部33に記憶された内視鏡画像を第2処理装置101に出力する。また、第2処理装置101では、高画質化処理が開始される。
次に、変形例1に係る記録処理の流れについて説明をする。
図6は、本発明の実施形態の変形例1に係る、内視鏡システム1の記録処理の流れを示すフローチャートである。
記録指示が入力される(S161)。
第1制御部31は、第2処理装置101に、記録指示があったことを通知する(S162)。
第2処理装置101は、内視鏡装置2に、応答信号を出力する(S163)。
CCU21は、第1制御部31に、内視鏡画像V31を出力する(S171)。
第1制御部31は、第2処理装置101に、内視鏡画像V21を出力する(S172)。
第2処理装置101は、内視鏡画像V21を表示する(S173)。
第1制御部31は、内視鏡画像V31を出力する(S174)。第1制御部31は、S171においてCCU21から入力された内視鏡画像V31を前段画像処理部34によって画像処理を行う。第1制御部31は、前段画像処理部34によって画像処理された内視鏡画像V31を、エンコーダ/デコーダ35によって圧縮して並列処理情報を生成し、第2処理装置101に出力する。また、第1制御部31は、画像処理された内視鏡画像V31を、後段画像処理部36によってさらに画像処理し、第1表示部43に出力する。
第1表示部43は、内視鏡画像V31を表示する(S175)。
S181からS185では、S171からS175と同じ処理により、第1表示部43に内視鏡画像V32が表示され、第2表示部143に内視鏡画像V21が表示される。また、第2処理装置101に、内視鏡画像V32が出力される。
S201からS204の処理は、S101からS104と同じであるため、説明を省略する。
S161からS204の処理が、実施形態の変形例1に係る記録処理部P3aの記録処理を構成する。
これにより、内視鏡システム1では、フリーズ指示があった後、記録指示を待たずに第2処理装置101の高画質化処理が実行され、高画質化処理の完了を早めることができる。
(実施形態の変形例2)
実施形態では、高画質化処理は、第2処理装置101によって実行されるが、内視鏡装置2によって実行されても構わない。
すなわち、本変形例では、第1処理は、静止画像の高画質化処理であり、第2処理は、ライブ画像の表示処理である。
変形例2では、記憶部33は、高画質化処理部P4aを有する。
変形例2では、内視鏡装置2の第1制御部31は、通常ライブ表示処理及び記録処理において、撮像部11から入力された内視鏡画像に基づいて、前段画像処理部34及びエンコーダ/デコーダ35によって並列処理情報を生成し、第2処理装置101に出力し、第2表示部143にライブ画像を表示する。
また、第1制御部31は、フリーズ処理において、撮像部11から入力された内視鏡画像に基づいて、前段画像処理部34によって画像処理された内視鏡画像を記憶部33に記憶する。
また、第1制御部31は、記録処理において、記憶部33に記憶された内視鏡画像に基づいて、高画質化処理部P4aによって高画質化処理を実行して高画質化された静止画像を生成する。
(実施形態の変形例3)
実施形態の変形例2では、第1制御部31は、記録指示を待って、高画質化処理部P4aによって高画質化処理を実行するが、実施形態の変形例1のように、フリーズ処理があった後、記録指示を待たずに、高画質化処理を実行しても構わない。
(実施形態の変形例4)
実施形態及び変形例1では、内視鏡装置2がライブ画像の表示処理を行い、第2処理装置101が静止画像の高画質化処理を行い、変形例2及び変形例3では、内視鏡装置2が静止画像の高画質化処理を行い、第2処理装置101がライブ画像の表示処理を行うが、内視鏡装置2と第2処理装置101のうち、ライブ画像の表示処理及び静止画像の高画質化処理の各々をどちらの装置で行うか、決定処理部P5によって決定しても構わない。
変形例4では、第1制御部31は、内視鏡装置2と第2処理装置101のうち、ライブ画像の表示処理及び静止画像の高画質化処理の各々をどちらの装置で行うか、を決定するための決定処理を行う決定処理部P5を有する。
記憶部33には、内視鏡装置2及び第2処理装置101の各々の優先度情報が記憶される。
内視鏡装置2は、優先度指示入力部41c(図1の2点鎖線)を有し、優先度情報は、優先度指示入力部41cの指示入力に応じ、設定される。
決定処理部P5は、優先度情報に基づいて、ライブ画像の表示処理を実行する装置及びフリーズ処理の高画質化処理を実行する装置を決定処理によって決定する。
(実施形態の変形例5)
実施形態の変形例4では、優先度情報は、優先度指示入力部41cの指示入力に応じ、設定されるが、優先度設定部P6によって設定されても構わない。
優先度設定部P6は、優先度情報を、例えば、ユーザが最終操作をした端末に応じて設定しても構わないし、内視鏡装置2及び第2処理装置101の各々の使用頻度に応じて設定しても構わないし、内視鏡装置2及び第2処理装置101の各々に設けられた演算性能測定部Mの測定結果に応じて設定しても構わないし、第1バッテリー51、第2バッテリー151のバッテリー残量に応じて設定しても構わない。
(実施形態の変形例6)
実施形態及び変形例では、処理量設定部P7を有しないが、処理量設定部P7を有しても構わない。
変形例6では第1制御部31は、第1処理及び第2処理の各々の処理量を設定する処理量設定部P7を有する。第1制御部31は、第2処理装置101に、処理量に応じた量の並列処理情報を出力する。
内視鏡装置2は、処理量を指示入力するための処理量指示入力部41dを有し、処理量は、処理量指示入力部41dの指示入力に応じ、設定される。
なお、処理量は、処理量設定部P7に出力された演算性能測定部Mの測定結果に応じて設定しても構わないし、第1バッテリー51、第2バッテリー151のバッテリー残量に応じて設定しても構わない。
(実施形態の変形例7)
実施形態及び変形例では、内視鏡システム1は、内視鏡装置2及び第2処理装置101を有するが、第3処理装置201を有しても構わない。
変形例7では、内視鏡システム1は、第3処理装置201を有する。第3処理装置201は、内視鏡装置2及び第2処理装置101の外部に設けられる。
内視鏡装置2は、第3処理装置201と通信を行う第1通信部46と、第1通信部46を介し、第3処理装置201に、並列処理を行うための並列処理情報を出力し、第1処理と並列して第3処理装置201において実行される第3処理の制御を行う第1制御部31と、を有する。
第3処理装置201は、内視鏡装置2と通信を行う第3通信部246と、第3通信部246を介して入力された並列処理情報に基づいて、第1処理と並列して第3処理を実行し、第3情報を出力する第3制御部231と、を有する。
これにより、複数台の携帯情報端末装置を内視鏡装置2に接続して検査する場合においては、演算処理を内視鏡装置2と複数台の携帯情報端末装置に分散することにより、比較的演算時間のかかる画像処理であっても処理時間を短縮することができ、ライブ画像のライブ性確保に加え、ライブ画像を表示しない処理装置における画像停止期間が短縮され、使い勝手及び検査効率が向上される。
なお、変形例7では、内視鏡システム1は、内視鏡装置2、第2処理装置101及び第3処理装置201を有するが、さらに他の処理装置を有しても構わない。
(実施形態の変形例8)
変形例4では、決定処理部P5が、内視鏡装置2及び第2処理装置101の中から、ライブ画像の表示処理を行う装置と、静止画像の高画質化処理を行う装置を決定したが、変形例7のように第3処理装置201を有し、内視鏡装置2、第2処理装置101及び第3処理装置201の中から決定しても構わない。
第1制御部31は、第2処理装置101及び第3処理装置201に並列処理情報を出力する。並列処理情報は、例えば、ライブ画像をODD/EVENフィールドで分割したものでも構わないし、色情報(RGBやYCbCr)ごとに分割したものでも構わないし、フレーム単位で分割したものでも構わないし、表示エリアで分割したものでも構わない。
(実施形態の変形例9)
変形例6では、処理量設定部P7は、第1処理及び第2処理の各々の処理量を設定するが、変形例7のように第3処理を行う第3処理装置201を有し、第1処理、第2処理及び第3処理の各々の処理量を設定しても構わない。
変形例9では、処理量設定部P7は、第1処理、第2処理及び第3処理の各々の処理量を設定する。
第1制御部31は、第2処理装置101及び第3処理装置201の各々に、処理量に応じた量の並列処理情報を出力して第2処理及び第3処理の実行を指示し、第2処理装置101から入力される第2情報と、第3処理装置201から入力される第3情報とを合成し、合成情報を生成する。
(実施形態の変形例10)
実施形態及び変形例では分割処理部P8を有しないが、分割処理部P8を有しても構わない。
第1制御部31は、所定の分割方法及び分割割合によって並列処理情報を分割処理する分割処理部P8を有する。第1制御部31は、第2処理装置101及び第3処理装置201の各々に、分割処理部P8によって分割した並列処理情報を出力して第2処理及び第3処理の実行を指示し、第2処理装置101から入力される第2情報と、第3処理装置201から入力される第3情報とを合成し、合成情報を生成する。
分割割合は、分割処理部P8に出力された演算性能測定部Mの測定結果に応じて設定しても構わないし、第1バッテリー51、第2バッテリー151のバッテリー残量に応じて設定しても構わない。
(実施形態の変形例11)
実施形態及び変形例では、第2処理装置101は、無線I/F46bに接続されるが、ケーブルによって有線I/F46a接続されても構わない(図1の2点鎖線)。
(実施形態の変形例12)
実施形態及び変形例では、第1処理、第2処理及び第3処理は、画像処理であるが、画像処理以外の情報処理であっても構わない。
変形例12の内視鏡装置2は、挿入部3の先端部に温度センサ3aを有する。温度センサ3aは、CCU21に接続される。温度センサ3aは、被写体内の温度を計測し、CCU21に出力する。CCU21は、温度センサ3aから入力される温度情報を含んだ内視鏡画像を前段画像処理部34に出力する。第2処理装置101では、被写体内の温度を第2処理によって分析し、例えば、被写体内の温度が高いとき、静止画像の赤色成分を高くする等の高画質化処理を行う。
なお、変形例12では、挿入部3の先端部に温度センサ3aが設けられるが、例えば、加速度センサ等、他のセンサが設けられ、他のセンサによる計測情報を含む内視鏡画像が出力され、第2処理装置101によって情報処理されても構わない。
なお、実施形態及び変形例における複数枚の内視鏡画像に基づいたノイズ低減処理は、高画質化処理の一例であり、高画質化処理は、他の方式による高画質化処理であっても構わない。
なお、実施形態及び変形例では、ライブ画像の表示処理と並列して行われる処理は、静止画像の高画質化処理であるが、高画質化処理は、一例であり、他の画像処理であっても構わない。
なお、実施形態及び変形例では、前段画像処理部34によって画像処理された内視鏡画像が直接第2処理装置101に出力されるが、前段画像処理部34によって画像処理された内視鏡画像を記憶部33に記憶させ、記憶部33から第2処理装置101に出力するようにしても構わない。
本明細書における各「部」は、実施形態の各機能に対応する概念的なもので、必ずしも特定のハードウェアやソフトウェア・ルーチンに1対1には対応しない。したがって、本明細書では、実施形態の各機能を有する仮想的回路ブロック(部)を想定して実施形態を説明した。また、本実施形態における各手順の各ステップは、その性質に反しない限り、実行順序を変更し、複数同時に実行し、あるいは実行毎に異なった順序で実行してもよい。さらに、本実施形態における各手順の各ステップの全てあるいは一部をハードウェアにより実現してもよい。
本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。
1 内視鏡システム
2 内視鏡装置
3 挿入部
3a 温度センサ
4 装置本体
11 撮像部
21 CCU
22 撮像素子駆動部
23 画像処理部
31 第1制御部
32 CPU
33 記憶部
34 前段画像処理部
35 エンコーダ/デコーダ
36 後段画像処理部
41 操作部
41a フリーズ指示入力部
41b 記録指示入力部
41c 優先度指示入力部
41d 処理量指示入力部
42 タッチパネル
43 第1表示部
44 映像出力I/F
45 外部メモリI/F
46 第1通信部
46a 有線I/F
46b 無線I/F
51 第1バッテリー
101 第2処理装置
131 第2制御部
132 CPU
133 メモリ
142 第2タッチパネル
143 第2表示部
146 第2通信部
151 第2バッテリー
201 第3処理装置
231 第3制御部
246 第3通信部
B バス
M 演算性能測定部
P1 通常ライブ表示処理部
P2 フリーズ処理部
P2a フリーズ処理部
P3 記録処理部
P3a 記録処理部
P4 高画質化処理部
P4a 高画質化処理部
P5 決定処理部
P6 優先度設定部
P7 処理量設定部
P8 分割処理部
V11 内視鏡画像
V12 内視鏡画像
V21 内視鏡画像
V22 内視鏡画像
V23 内視鏡画像
V31 内視鏡画像
V32 内視鏡画像
V33 内視鏡画像

Claims (18)

  1. 第1処理装置である内視鏡装置と、前記内視鏡装置の外部に設けられた第2処理装置と、を有する内視鏡システムであって、
    前記内視鏡装置は、
    前記第2処理装置と通信を行う第1通信部と、
    第1処理を実行して第1情報を出力し、かつ、前記第1通信部を介し、前記第2処理装置に並列処理を行うための並列処理情報を出力し、前記第1処理と並列して前記第2処理装置において実行される第2処理の制御を行う第1制御部と、
    を有し、
    前記第2処理装置は、
    前記内視鏡装置と通信を行う第2通信部と、
    前記第2通信部を介して入力された前記並列処理情報に基づいて、前記第1処理と並列し、前記第2処理を実行して第2情報を出力する第2制御部と、
    を有する、内視鏡システム。
  2. 前記第2処理装置は、前記第2通信部を介し、前記第2情報を前記内視鏡装置に出力する、請求項1に記載の内視鏡システム。
  3. 前記内視鏡装置は、被写体を撮像して内視鏡画像を出力する撮像部を有し、
    前記第1制御部は、前記内視鏡画像に基づいて、前記第1処理を実行して、第1画像情報を出力し、かつ、前記内視鏡画像を前記第2処理装置に出力し、
    前記第2制御部は、前記第2処理を実行し、第2画像情報を出力する、
    請求項2に記載の内視鏡システム。
  4. 前記内視鏡装置は、表示部と記憶部を有し、
    前記表示部は、前記第1画像情報を表示し、
    前記記憶部は、前記内視鏡画像を記憶可能であり、
    前記第1制御部は、前記記憶部に記憶された前記内視鏡画像を前記第2処理装置に出力する、
    請求項3に記載の内視鏡システム。
  5. 前記内視鏡装置は、前記内視鏡画像の記録指示を入力するための記録指示入力部を有し、
    前記第1制御部は、前記記録指示入力部の指示入力に応じ、前記記憶部に記憶された前記内視鏡画像を前記第2処理装置に出力する、
    請求項4に記載の内視鏡システム。
  6. 前記内視鏡装置は、前記内視鏡画像のフリーズ指示を入力するためのフリーズ指示入力部を有し、
    前記内視鏡装置は、前記フリーズ指示入力部の指示入力に応じ、前記記憶部に記憶された前記内視鏡画像を前記第2処理装置に出力する、
    請求項4に記載の内視鏡システム。
  7. 前記第1処理は、ライブ画像の表示処理であり、
    前記第2処理は、静止画像の高画質化処理である、
    請求項4に記載の内視鏡システム。
  8. 前記第1処理は、静止画像の高画質化処理であり、
    前記第2処理は、ライブ画像の表示処理である、
    請求項4に記載の内視鏡システム。
  9. 前記ライブ画像の表示処理を実行する装置を決定するための決定処理を行う決定処理部を有し、
    前記記憶部は、前記内視鏡装置及び前記第2処理装置の各々の優先度情報を有し、
    前記決定処理部は、前記優先度情報に基づいて、前記ライブ画像の表示処理を実行する装置を決定処理によって決定する、
    請求項7に記載の内視鏡システム。
  10. 前記内視鏡装置は、優先度指示入力部を有し、
    前記優先度情報は、前記優先度指示入力部の指示入力に応じ、設定される、
    請求項9に記載の内視鏡システム。
  11. 前記第1制御部は、前記第1処理及び前記第2処理の各々の処理量を設定する処理量設定部を有し、
    前記第1制御部は、前記第2処理装置に、前記処理量に応じた量の前記並列処理情報を出力する、
    請求項1に記載の内視鏡システム。
  12. 前記処理量を指示入力するための処理量指示入力部を有し、
    前記処理量は、前記処理量指示入力部の指示入力に応じ、設定される、
    請求項11に記載の内視鏡システム。
  13. 第3処理装置を有し、
    前記内視鏡装置は、
    前記第3処理装置と通信を行う前記第1通信部と、
    前記第1通信部を介し、前記第3処理装置に前記並列処理を行うための並列処理情報を出力し、前記第1処理と並列して前記第3処理装置において実行される第3処理の制御を行う前記第1制御部と、
    を有し、
    前記第3処理装置は、
    前記内視鏡装置と通信を行う第3通信部と、
    前記第3通信部を介して入力された前記並列処理情報に基づいて、前記第1処理と並列し、前記第3処理を実行して第3情報を出力する第3制御部と、
    を有する、請求項11に記載の内視鏡システム。
  14. 前記処理量設定部は、前記第1処理、前記第2処理及び前記第3処理の各々の処理量を設定し、
    前記第1制御部は、前記第2処理装置及び前記第3処理装置の各々に、前記処理量に応じた量の前記並列処理情報を出力して前記第2処理及び前記第3処理の実行を指示し、第2処理装置から入力される第2情報と、前記第3処理装置から入力される第3情報とを合成し、合成情報を生成する、
    請求項13に記載の内視鏡システム。
  15. 所定の分割方法及び分割割合によって前記並列処理情報を分割処理する分割処理部を有し、
    前記第1制御部は、前記第2処理装置及び前記第3処理装置の各々に、前記分割処理部によって分割した前記並列処理情報を出力して前記第2処理及び前記第3処理の実行を指示し、第2処理装置から入力される第2情報と、前記第3処理装置から入力される第3情報とを合成し、合成情報を生成する、
    請求項13に記載の内視鏡システム。
  16. 前記第2処理装置及び前記第3処理装置の各々は、演算性能測定部を有し、
    前記演算性能測定部の各々は、演算性能を測定し、測定結果を前記処理量設定部に出力し、
    前記処理量設定部は、前記測定結果に基づいて、前記処理量を設定する、
    請求項14に記載の内視鏡システム。
  17. 前記第2処理装置及び前記第3処理装置の各々は、演算性能測定部を有し、
    前記演算性能測定部の各々は、演算性能を測定し、測定結果を前記分割処理部に出力し、
    前記分割処理部は、前記測定結果に基づいて、前記分割割合を設定する、
    請求項15に記載の内視鏡システム。
  18. 第1制御部を有する第1処理装置である内視鏡装置と、
    前記内視鏡装置の外部に設けられた、第2制御部を有する第2処理装置と、
    を用意し、
    前記第1制御部によって第1処理を実行して第1情報を出力し、
    前記第1制御部によって前記第2処理装置に並列処理を行うための並列処理情報を出力し、
    入力された前記並列処理情報に基づいて、前記第2制御部によって前記第1処理と並列し、第2処理を実行して第2情報を出力する、
    内視鏡システムの情報処理方法。
JP2016251713A 2016-12-26 2016-12-26 内視鏡システム及び内視鏡システムの情報処理方法 Pending JP2018102564A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016251713A JP2018102564A (ja) 2016-12-26 2016-12-26 内視鏡システム及び内視鏡システムの情報処理方法
US15/686,950 US10413156B2 (en) 2016-12-26 2017-08-25 Endoscope device, endoscopic system, method, and computer-readable storage device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016251713A JP2018102564A (ja) 2016-12-26 2016-12-26 内視鏡システム及び内視鏡システムの情報処理方法

Publications (1)

Publication Number Publication Date
JP2018102564A true JP2018102564A (ja) 2018-07-05

Family

ID=62625169

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016251713A Pending JP2018102564A (ja) 2016-12-26 2016-12-26 内視鏡システム及び内視鏡システムの情報処理方法

Country Status (2)

Country Link
US (1) US10413156B2 (ja)
JP (1) JP2018102564A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020069156A (ja) * 2018-10-31 2020-05-07 ソニー・オリンパスメディカルソリューションズ株式会社 制御装置及び観察システム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018133710A (ja) * 2017-02-15 2018-08-23 キヤノン株式会社 画像処理装置および撮像装置
JP2023039392A (ja) * 2021-09-08 2023-03-20 株式会社エビデント 検査支援方法、検査支援装置、検査支援システム、およびプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070009593A (ko) * 2004-04-01 2007-01-18 마츠시타 덴끼 산교 가부시키가이샤 반도체 장치 및 이것을 이용한 휴대 전화
JP2007215907A (ja) * 2006-02-20 2007-08-30 Pentax Corp 内視鏡プロセッサ、内視鏡システム、及びブラックバランス調整プログラム
JP5662418B2 (ja) * 2010-03-24 2015-01-28 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 表示処理装置、表示処理方法、及び集積回路
JP6230333B2 (ja) 2013-08-22 2017-11-15 オリンパス株式会社 画像処理装置、画像処理方法およびプログラム
JP2015195845A (ja) * 2014-03-31 2015-11-09 富士フイルム株式会社 内視鏡システム、内視鏡システムの作動方法、プロセッサ装置、プロセッサ装置の作動方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020069156A (ja) * 2018-10-31 2020-05-07 ソニー・オリンパスメディカルソリューションズ株式会社 制御装置及び観察システム

Also Published As

Publication number Publication date
US10413156B2 (en) 2019-09-17
US20180177382A1 (en) 2018-06-28

Similar Documents

Publication Publication Date Title
JP4900343B2 (ja) ビデオ撮像装置および露光ガイド表示方法
US8548235B2 (en) Signal processing apparatus and still image generation method
US20160227092A1 (en) Image capturing apparatus and method of controlling the same
US8368775B2 (en) Imaging apparatus and live-view image display method thereof
JP2018102564A (ja) 内視鏡システム及び内視鏡システムの情報処理方法
JP5963990B2 (ja) 医療用システム、その画像処理設定方法、及び画像処理装置
US20170280066A1 (en) Image processing method by image processing apparatus
KR101352842B1 (ko) 영상신호 처리 장치 및 방법
JP2012010190A (ja) 撮像装置及びその制御方法
JP5959331B2 (ja) 内視鏡装置
JP6557451B2 (ja) 撮像装置およびその制御方法ならびにプログラム
JP7199158B2 (ja) 画像処理装置およびその制御方法ならびにプログラム
CN112656352B (zh) 内窥镜摄像主机及其控制方法、内窥镜成像系统及存储介质
WO2016098716A1 (ja) 表示制御装置及び内視鏡システム
US11363245B2 (en) Image processing device, image processing method, and image processing program
US10555661B2 (en) Endoscope System
JP6200687B2 (ja) 画像処理装置および画像処理方法
JP2008219738A (ja) 撮像装置
JP5594055B2 (ja) 画像処理装置、電子機器及び画像処理方法
CN110400308B (zh) 一种图像显示方法、装置、设备及存储介质
JP2020053960A (ja) 撮像装置、該撮像装置の制御方法、及びプログラム
JP2004344555A (ja) 医療用画像記録装置
JP2020108108A (ja) 画像処理装置、画像処理装置の故障検知方法、及びプログラム
JP7159024B2 (ja) 撮像装置、撮像装置の制御方法、及びプログラム
WO2015115208A1 (ja) 映像出力装置