JP2008264313A - Endoscope system - Google Patents

Endoscope system Download PDF

Info

Publication number
JP2008264313A
JP2008264313A JP2007113324A JP2007113324A JP2008264313A JP 2008264313 A JP2008264313 A JP 2008264313A JP 2007113324 A JP2007113324 A JP 2007113324A JP 2007113324 A JP2007113324 A JP 2007113324A JP 2008264313 A JP2008264313 A JP 2008264313A
Authority
JP
Japan
Prior art keywords
image
endoscope
unit
information
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007113324A
Other languages
Japanese (ja)
Inventor
Tomoki Iwasaki
智樹 岩崎
Keisuke Tsutsui
啓介 筒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Medical Systems Corp
Original Assignee
Olympus Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Medical Systems Corp filed Critical Olympus Medical Systems Corp
Priority to JP2007113324A priority Critical patent/JP2008264313A/en
Publication of JP2008264313A publication Critical patent/JP2008264313A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an endoscope system capable of more shortening a period of time spent in endoscope observation with respect to a subject than heretofore. <P>SOLUTION: The endoscope system has: an endoscope provided with an image pickup part for picking up an image of a subject in a living body; an image recording instruction part for outputting an instruction signal for recording an image of the subject to a recording medium as a static image; a setting part for allocating observed part information showing which part of an image in the living body the image of the subject is to the image recording instruction part; a set content storage part for storing a set content in the setting part; and an image recording control unit for associating the static image with the observation part information and performing processing to output them to the recording medium on the basis of the set content stored in the set content storage part when it is detected that the instruction signal is outputted by the image recording instruction part. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、内視鏡システムに関し、特に、内視鏡により撮像された被写体の像の静止画像と、該静止画像に関する所定の情報とを関連付けつつ出力可能な内視鏡システムに関するものである。   The present invention relates to an endoscope system, and more particularly to an endoscope system that can output a still image of a subject image captured by an endoscope while associating predetermined information about the still image with each other.

内視鏡等を有して構成される内視鏡システムは、工業分野及び医療分野等において従来広く用いられている。特に、医療分野における内視鏡システムは、生体内の各種器官の観察等の用途において主に用いられている。そして、前述した用途において用いられる内視鏡システムとしては、例えば、特許文献1に提案されている内視鏡情報記録システムがある。   Endoscope systems configured with an endoscope or the like have been widely used in the industrial field, the medical field, and the like. In particular, endoscope systems in the medical field are mainly used for applications such as observation of various organs in a living body. As an endoscope system used in the above-described application, for example, there is an endoscope information recording system proposed in Patent Document 1.

特許文献1の内視鏡情報記録システムは、被検体所定部位を観察する内視鏡、前記内視鏡に接続配置され、前記内視鏡によって形成された画像を記録するための撮影手段、及び、内視鏡観察による所見等を口述した音声情報を記録するための録音手段を有する内視鏡用カメラと、前記内視鏡用カメラの内部に装着され、前記画像を記録する画像情報記録部、及び、前記音声情報を記録する音声情報記録部を有するフィルムと、前記画像情報記録部に記録された画像情報を読み取る画像情報読取手段と、前記音声情報記録部に記録された音声情報を読み取る音声情報読取手段と、前記画像情報読取手段によって読み取った画像情報、及び、前記音声情報読取手段によって読み取った音声情報をカード状記録媒体に記録する装置と、を有して構成されている。そして、特許文献1の内視鏡情報記録システムは、前述したような構成により、被検体部位の画像情報と、被検体部位の説明や観察所見等の情報とを同時に記録することを可能としている。
特開平6−96170号公報
An endoscope information recording system of Patent Document 1 is an endoscope that observes a predetermined part of a subject, an imaging unit that is connected to the endoscope and records an image formed by the endoscope, and , An endoscope camera having recording means for recording voice information dictating findings and the like by endoscopic observation, and an image information recording unit mounted inside the endoscope camera and recording the image And a film having an audio information recording unit for recording the audio information, image information reading means for reading image information recorded in the image information recording unit, and reading the audio information recorded in the audio information recording unit A voice information reading unit; and image information read by the image information reading unit, and a device for recording the voice information read by the voice information reading unit on a card-like recording medium. It has been. And the endoscope information recording system of patent document 1 makes it possible to simultaneously record the image information of the subject part and the information such as the explanation of the subject part and the observation findings by the configuration as described above. .
JP-A-6-96170

しかし、特許文献1の内視鏡情報記録システムは、内視鏡画像及び該内視鏡画像に対応する被検体の部位の名称を関連付けつつ記録媒体に記録する際に、例えば、内視鏡による観察を行いながら、該内視鏡画像の取得時に該名称を別途ユーザが入力する必要が生じるような構成を有しているため、その結果、該被検体に対する観察に費やされる時間が長時間化してしまうという課題を有している。   However, the endoscope information recording system of Patent Document 1 uses, for example, an endoscope when recording an endoscope image and a name of a part of a subject corresponding to the endoscope image in association with each other. Since the user needs to input the name separately when acquiring the endoscopic image while performing observation, the time required for observation of the subject is increased as a result. Have the problem of

本発明は、前述した点に鑑みてなされたものであり、被検体に対する内視鏡観察に費やされる時間を従来より短くすることが可能な内視鏡システムを提供することを目的としている。   The present invention has been made in view of the above-described points, and an object of the present invention is to provide an endoscope system that can shorten the time spent for endoscopic observation of a subject as compared to the conventional art.

本発明における第1の態様の内視鏡システムは、生体内の被写体の像を撮像する撮像部を具備した内視鏡と、前記被写体の像を静止画像として記録媒体に記録するための指示信号を出力する画像記録指示部と、前記被写体の像が前記生体内のどの部位の像であるかを示す観察部位情報を前記画像記録指示部に割り付ける設定部と、前記設定部における設定内容を格納する設定内容格納部と、前記指示信号が前記画像記録指示部から出力されたことを検出した際に、前記設定内容格納部に格納された前記設定内容に基づき、前記静止画像と前記観察部位情報とを関連付けつつ前記記録媒体へ出力させるための処理を行う画像記録制御部と、を有することを特徴とする。   An endoscope system according to a first aspect of the present invention includes an endoscope including an imaging unit that captures an image of a subject in a living body, and an instruction signal for recording the subject image as a still image on a recording medium. An image recording instructing unit for outputting the image, a setting unit for assigning observation part information indicating which part of the living body the image of the subject is to the image recording instructing unit, and setting contents in the setting unit A setting content storage unit, and when detecting that the instruction signal is output from the image recording instruction unit, based on the setting content stored in the setting content storage unit, the still image and the observation site information And an image recording control unit that performs processing for outputting to the recording medium in association with each other.

本発明における第2の態様の内視鏡システムは、前記第1の態様の内視鏡システムにおいて、前記画像記録指示部を複数有し、前記設定部は、複数の前記画像記録指示部各々に対して前記観察部位情報を割り付け可能であることを特徴とする。   An endoscope system according to a second aspect of the present invention is the endoscope system according to the first aspect, comprising a plurality of the image recording instruction units, and the setting unit is provided in each of the plurality of image recording instruction units. On the other hand, the observation site information can be assigned.

本発明における第3の態様の内視鏡システムは、前記第1または前記第2の態様の内視鏡システムにおいて、前記画像記録指示部は、前記内視鏡が有するスコープスイッチ、及び、前記設定部に接続可能なキーボードが有する所定のキーのうちの少なくとも一方であることを特徴とする。   The endoscope system according to a third aspect of the present invention is the endoscope system according to the first or second aspect, wherein the image recording instruction unit includes a scope switch included in the endoscope, and the setting. It is characterized by being at least one of the predetermined keys which the keyboard which can be connected to a part has.

本発明における第4の態様の内視鏡システムは、前記第1または前記第2の態様の内視鏡システムにおいて、さらに、音声入力が可能な音声入力部と、前記音声入力の内容を解析し、該解析した結果を音声解析データとして前記設定部へ出力する音声認識処理部と、を有し、前記設定部は、前記音声解析データに基づき、前記観察部位情報を前記画像記録指示部に割り付けることを特徴とする。   The endoscope system according to a fourth aspect of the present invention is the endoscope system according to the first or second aspect, further comprising a voice input unit capable of voice input, and analyzing the contents of the voice input. A speech recognition processing unit that outputs the analysis result as speech analysis data to the setting unit, and the setting unit assigns the observation site information to the image recording instruction unit based on the speech analysis data It is characterized by that.

本発明における第5の態様の内視鏡システムは、前記第1乃至前記第4の態様の内視鏡システムにおいて、さらに、前記内視鏡の種類に関する情報である内視鏡識別情報を出力する内視鏡識別情報出力部を有し、前記設定部は、前記画像記録指示部に割り付ける前記観察部位情報の内容を、前記内視鏡識別情報に応じて変更することを特徴とする。   An endoscope system according to a fifth aspect of the present invention is the endoscope system according to the first to fourth aspects, and further outputs endoscope identification information that is information relating to the type of the endoscope. It has an endoscope identification information output unit, and the setting unit changes contents of the observation site information allocated to the image recording instruction unit according to the endoscope identification information.

本発明における第6の態様の内視鏡システムは、生体内に挿入される挿入部と、該挿入部の先端部に設けられ、被写体の像を撮像する撮像部と、を具備した内視鏡と、前記生体内における前記挿入部の挿入形状を検出し、検出した該挿入形状を挿入形状情報として出力する内視鏡挿入形状検出部と、前記挿入形状情報に基づいて前記先端部の位置情報を取得し、該位置情報に基づいて前記被写体の像が前記生体内のどの部位の像であるかを推定するとともに、該推定した結果に応じた観察部位情報を取得する観察部位情報取得部と、前記被写体の像に応じた静止画像と前記観察部位情報とを関連付けつつ記録媒体へ出力させるための処理を行う画像記録制御部と、を有することを特徴とする。   An endoscope system according to a sixth aspect of the present invention includes an insertion section that is inserted into a living body, and an imaging section that is provided at the distal end of the insertion section and that captures an image of a subject. An endoscope insertion shape detection unit that detects an insertion shape of the insertion portion in the living body and outputs the detected insertion shape as insertion shape information, and positional information of the distal end portion based on the insertion shape information An observation site information acquisition unit that estimates which site in the living body the image of the subject is based on the position information, and acquires observation site information according to the estimation result; And an image recording control unit that performs processing for outputting the still image corresponding to the image of the subject and the observation site information to the recording medium while associating them.

本発明における第7の態様の内視鏡システムは、前記第1乃至前記第6の態様の内視鏡システムにおいて、前記画像記録制御部は、前記生体を識別するための生体識別情報を、前記静止画像及び前記観察部位情報に関連付けつつ前記記録媒体へ出力させるための処理を行うことを特徴とする。   The endoscope system according to a seventh aspect of the present invention is the endoscope system according to any one of the first to sixth aspects, wherein the image recording control unit obtains the biological identification information for identifying the biological body, A process for outputting to the recording medium in association with a still image and the observation site information is performed.

本発明における第8の態様の内視鏡システムは、前記第1乃至前記第7の態様の内視鏡システムにおいて、さらに、前記記録媒体に記録された前記静止画像を再生するための指示が行われた際に、前記静止画像と、前記観察部位情報とを併せて表示部に表示させるための処理を行う表示制御部を有することを特徴とする。   An endoscope system according to an eighth aspect of the present invention is the endoscope system according to any one of the first to seventh aspects, further comprising an instruction for reproducing the still image recorded on the recording medium. And a display control unit that performs processing for displaying the still image and the observation site information together on the display unit.

本発明における第9の態様の内視鏡システムは、前記第8の態様の内視鏡システムにおいて、前記表示制御部は、前記記録媒体に記録された前記生体識別情報に基づき、前記内視鏡による観察中の一の生体が、前記記録媒体に記録された前記生体識別情報により識別される生体と一致することを検出した場合に、前記記録媒体に記録された前記静止画像と、該観察中の動画像とを併せて前記表示部に表示させるための処理をさらに行うことを特徴とする。   The endoscope system according to a ninth aspect of the present invention is the endoscope system according to the eighth aspect, wherein the display control unit is configured to use the endoscope based on the biological identification information recorded on the recording medium. When it is detected that one living body being observed matches the living body identified by the biological identification information recorded on the recording medium, the still image recorded on the recording medium and the In addition, a process for displaying the moving image together with the moving image is further performed.

本発明における第10の態様の内視鏡システムは、前記第8または前記第9の態様の内視鏡システムにおいて、前記表示制御部は、前記記録媒体に記録された前記静止画像を再生するための指示が行われた際に、前記記録媒体に記録された前記観察部位情報に基づき、生体内において前記静止画像が取得された部位を示すテンプレート画像を生成させるための制御を行うとともに、前記静止画像と、前記観察部位情報と、該テンプレート画像とを併せて前記表示部に表示させるための処理をさらに行うことを特徴とする。   The endoscope system according to a tenth aspect of the present invention is the endoscope system according to the eighth or ninth aspect, wherein the display control unit reproduces the still image recorded on the recording medium. Is performed based on the observation site information recorded on the recording medium, and a control is performed to generate a template image indicating the site where the still image is acquired in the living body. A process for displaying the image, the observation site information, and the template image together on the display unit is further performed.

本発明における内視鏡システムによると、被検体に対する内視鏡観察に費やされる時間を従来より短くすることが可能である。   According to the endoscope system of the present invention, it is possible to shorten the time spent for endoscopic observation of a subject as compared with the prior art.

以下、図面を参照して本発明の実施の形態を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1から図10は、本発明の実施形態に係るものである。図1は、本発明の実施形態に内視鏡システムの要部の構成の一例を示す図である。図2は、図1のプロセッサに接続されるキーボードの構成の概要を示す図である。図3は、図1のプロセッサにおける設定画面の一例を示す図である。図4は、図1のプロセッサにおける設定画面の、図3とは異なる例を示す図である。図5は、図1のPCカードに記録された画像データを再生した際にモニタに表示される画像の一例を示す図である。図6は、図1のPCカードに記録された画像データを再生した際にモニタに表示される画像の、図5とは異なる例を示す図である。図7は、図1のPCカードに記録された画像データを再生した際にモニタに表示される画像の、図5及び図6とは異なる例を示す図である。図8は、図1の内視鏡システムに内視鏡挿入形状検出装置をさらに加えた場合の構成を示す図である。図9は、図8の内視鏡システムにおいて行われる処理を示すフローチャートである。図10は、図9の処理が行われることによりモニタに表示される画像の一例を示す図である。   1 to 10 relate to an embodiment of the present invention. FIG. 1 is a diagram illustrating an example of a configuration of a main part of an endoscope system according to an embodiment of the present invention. FIG. 2 is a diagram showing an outline of the configuration of the keyboard connected to the processor of FIG. FIG. 3 is a diagram showing an example of a setting screen in the processor of FIG. FIG. 4 is a diagram showing an example of the setting screen in the processor of FIG. 1 different from FIG. FIG. 5 is a diagram showing an example of an image displayed on the monitor when the image data recorded on the PC card in FIG. 1 is reproduced. FIG. 6 is a diagram showing an example different from FIG. 5 of an image displayed on the monitor when the image data recorded on the PC card of FIG. 1 is reproduced. FIG. 7 is a diagram showing an example different from FIGS. 5 and 6 of an image displayed on the monitor when the image data recorded on the PC card of FIG. 1 is reproduced. FIG. 8 is a diagram showing a configuration when an endoscope insertion shape detection device is further added to the endoscope system of FIG. FIG. 9 is a flowchart showing processing performed in the endoscope system of FIG. FIG. 10 is a diagram illustrating an example of an image displayed on the monitor by performing the processing of FIG. 9.

内視鏡システム1は、図1に示すように、被検体としての生体内部の被写体の像を撮像し、撮像した前記被写体の像を撮像信号として出力する内視鏡2と、内視鏡2から出力される撮像信号に対して信号処理を行うことにより、映像信号を生成及び出力するプロセッサ3と、プロセッサ3から出力される映像信号に応じた該被写体の像等を画像表示する、表示部としてのモニタ4と、を要部として有している。また、プロセッサ3には、各種文字入力及び指示入力が可能なキーボード5、及び、音声入力が可能な、音声入力部としての集音マイク6が各々接続されている。   As shown in FIG. 1, an endoscope system 1 captures an image of a subject inside a living body as a subject, and outputs an image of the captured subject as an imaging signal, and an endoscope 2. A processor 3 that generates and outputs a video signal by performing signal processing on the imaging signal output from the display, and a display unit that displays an image of the subject corresponding to the video signal output from the processor 3 And a monitor 4 as a main part. The processor 3 is connected with a keyboard 5 that can input various characters and instructions, and a sound collecting microphone 6 that can input a voice and serves as a voice input unit.

内視鏡2は、図1に示すように、各種操作指示を行うことが可能な複数のスコープスイッチ13が設けられた操作部2aと、操作部2aに連接され、被検体としての生体内部に挿入可能であるとともに、先端部に撮像部14を具備する細長な挿入部2bと、内部に信号線等が配置された図示しないケーブルの一端部を接続可能なコネクタ2cと、を有して構成される。なお、前記図示しないケーブルの他端部は、プロセッサ3に設けられたコネクタ21に接続可能であるものとする。さらに、内視鏡2は、被検体に対する各種処置を行うための処置具等を挿通可能な図示しない処置具チャンネルを、操作部2aから挿入部2bの先端部にかけての内部に有している。   As shown in FIG. 1, the endoscope 2 is connected to an operation unit 2a provided with a plurality of scope switches 13 capable of performing various operation instructions, and the operation unit 2a, and is placed inside a living body as a subject. An elongated insertion portion 2b that can be inserted and has an imaging portion 14 at the distal end portion, and a connector 2c that can be connected to one end portion of a cable (not shown) in which signal lines and the like are arranged. Is done. It is assumed that the other end of the cable (not shown) can be connected to a connector 21 provided in the processor 3. Furthermore, the endoscope 2 has a treatment tool channel (not shown) through which a treatment tool or the like for performing various treatments on the subject can be inserted from the operation portion 2a to the distal end portion of the insertion portion 2b.

また、内視鏡2は、スコープスイッチ13からの指示信号をプロセッサ3へ出力するとともに、プロセッサ3からの制御信号に応じた撮像部14の動作制御等の制御を行う内視鏡制御部15を操作部2aの内部に有している。   The endoscope 2 also outputs an instruction signal from the scope switch 13 to the processor 3 and an endoscope control unit 15 that performs control such as operation control of the imaging unit 14 according to the control signal from the processor 3. It is provided inside the operation unit 2a.

撮像部14は、対物光学系と、該対物光学系の結像位置に配置された撮像素子とを有して構成されている。そして、撮像部14は、内視鏡制御部15の動作制御に応じた撮像タイミング等により、前記対物光学系の視野内に存在する被写体の像を撮像し、撮像した該被写体の像を撮像信号として出力する。   The imaging unit 14 includes an objective optical system and an imaging element disposed at the image forming position of the objective optical system. Then, the imaging unit 14 captures an image of a subject existing in the field of view of the objective optical system at an imaging timing according to the operation control of the endoscope control unit 15, and captures the captured image of the subject as an imaging signal. Output as.

スコープスイッチ13は、例えばユーザにより操作されると、例えば、フリーズ指示及びキャプチャ指示等の種々の操作指示を行うための指示信号を、内視鏡制御部15等を介してプロセッサ3へ出力する。   When the scope switch 13 is operated by a user, for example, the scope switch 13 outputs an instruction signal for performing various operation instructions such as a freeze instruction and a capture instruction to the processor 3 via the endoscope control unit 15 or the like.

内視鏡識別情報出力部としての内視鏡制御部15は、(例えば上部消化管用といったような)内視鏡2の種類に関する情報を含む内視鏡識別情報を生成するとともに、該内視鏡識別情報をプロセッサ3に対して出力する。   The endoscope control unit 15 as an endoscope identification information output unit generates endoscope identification information including information related to the type of the endoscope 2 (for example, for the upper digestive tract), and the endoscope The identification information is output to the processor 3.

プロセッサ3は、前述した図示しないケーブルの他端部が接続可能なコネクタ21と、スイッチ等により構成され、ユーザの操作によりプロセッサ3等に対して種々の操作指示を行うための指示信号を出力する操作パネル22と、PCカード23を挿脱可能な図示しないPCカードスロットとを外装表面上に有している。   The processor 3 includes a connector 21 to which the other end of the cable (not shown) can be connected, a switch, and the like, and outputs instruction signals for giving various operation instructions to the processor 3 and the like by user operations. An operation panel 22 and a PC card slot (not shown) through which the PC card 23 can be inserted and removed are provided on the exterior surface.

プロセッサ3は、図1に示すように、プリプロセス部31と、A/D(アナログ/デジタル)変換部32と、デジタル映像信号処理部33と、RAM(Random Access Memory)34と、画像圧縮/伸張部35と、CPU36と、D/A(デジタル/アナログ)変換部37と、ポストプロセス部38と、描画制御部39と、記憶部40と、音声認識処理部41と、を有して構成される。   As shown in FIG. 1, the processor 3 includes a pre-processing unit 31, an A / D (analog / digital) conversion unit 32, a digital video signal processing unit 33, a RAM (Random Access Memory) 34, an image compression / A decompression unit 35, a CPU 36, a D / A (digital / analog) conversion unit 37, a post-processing unit 38, a drawing control unit 39, a storage unit 40, and a voice recognition processing unit 41 are configured. Is done.

アンプ及びアナログフィルタ等により構成されるプリプロセス部31は、内視鏡2から出力される撮像信号を増幅するとともに、増幅した該撮像信号に対してノイズ除去等の前処理を施して出力する。   The preprocessing unit 31 configured by an amplifier, an analog filter, and the like amplifies the imaging signal output from the endoscope 2 and outputs the amplified imaging signal after performing preprocessing such as noise removal.

A/D変換部32は、プリプロセス部31から出力される撮像信号に対してA/D変換を施して出力する。   The A / D conversion unit 32 performs A / D conversion on the imaging signal output from the preprocessing unit 31 and outputs the result.

デジタル映像信号処理部33は、A/D変換部32から出力される撮像信号に対してデジタルフィルタ処理等の処理を行って出力する。また、デジタル映像信号処理部33は、描画制御部39の制御に基づき、モニタ4に所定の文字列または(及び)所定の画像が表示されるように、A/D変換部32から出力される撮像信号に該所定の文字列または(及び)該所定の画像を重畳し、映像信号として出力する。   The digital video signal processing unit 33 performs processing such as digital filter processing on the imaging signal output from the A / D conversion unit 32 and outputs the processed signal. Also, the digital video signal processing unit 33 is output from the A / D conversion unit 32 so that a predetermined character string or (and) a predetermined image is displayed on the monitor 4 based on the control of the drawing control unit 39. The predetermined character string or (and) the predetermined image is superimposed on the imaging signal and output as a video signal.

RAM34は、デジタル映像信号処理部33から出力される映像信号を一時的に記憶するとともに、CPU36の制御に基づき、記憶した該映像信号を画像圧縮/伸張部35に対して出力する。また、RAM34は、画像圧縮/伸張部35から出力される映像信号を一時的に記憶するとともに、CPU36の制御に基づき、記憶した該映像信号をD/A変換部37に対して出力する。   The RAM 34 temporarily stores the video signal output from the digital video signal processing unit 33, and outputs the stored video signal to the image compression / decompression unit 35 based on the control of the CPU 36. The RAM 34 temporarily stores the video signal output from the image compression / decompression unit 35 and outputs the stored video signal to the D / A conversion unit 37 under the control of the CPU 36.

画像圧縮/伸張部35は、CPU36の制御に基づき、RAM34から出力される映像信号に対し、例えば、JPEG形式の圧縮処理を施して出力する。そして、画像圧縮/伸張部35は、前記圧縮処理を行った後の映像信号を画像信号として、図示しないPCカードスロットに装着された状態のPCカード23へ出力する。また、画像圧縮/伸張部35は、CPU36の制御に基づき、PCカード23から出力される、例えば、JPEG形式の圧縮処理が施された画像信号に対して伸張処理を行う。その後、画像圧縮/伸張部35は、前記伸張処理を行った後の画像信号を映像信号として、RAM34へ出力する。   Under the control of the CPU 36, the image compression / decompression unit 35 performs, for example, JPEG compression processing on the video signal output from the RAM 34, and outputs the result. Then, the image compression / decompression unit 35 outputs the video signal after the compression processing as an image signal to the PC card 23 in a state where it is inserted in a PC card slot (not shown). The image compression / decompression unit 35 performs decompression processing on an image signal that has been subjected to, for example, JPEG compression processing, which is output from the PC card 23, under the control of the CPU 36. Thereafter, the image compression / decompression unit 35 outputs the image signal after the decompression process to the RAM 34 as a video signal.

D/A変換部37は、デジタル映像信号処理部33またはRAM34から出力される映像信号に対してD/A変換を施して出力する。   The D / A converter 37 performs D / A conversion on the video signal output from the digital video signal processor 33 or the RAM 34 and outputs the result.

ポストプロセス部38は、D/A変換部37から出力される映像信号を、例えば、NTSC形式またはPAL形式等の映像形式に変換した後、変換後の映像信号をモニタ4に対して出力する。   The post-processing unit 38 converts the video signal output from the D / A conversion unit 37 into a video format such as NTSC format or PAL format, and then outputs the converted video signal to the monitor 4.

描画制御部39は、CPU36の制御に基づき、所定の文字列または(及び)所定の画像を生成してデジタル映像信号処理部33へ出力するとともに、該所定の文字列または(及び)該所定の画像を撮像信号に重畳させるような制御をデジタル映像信号処理部33に対して行う。   The drawing control unit 39 generates a predetermined character string or (and) a predetermined image based on the control of the CPU 36 and outputs the image to the digital video signal processing unit 33, and the predetermined character string or (and) the predetermined image. Control for superimposing an image on an imaging signal is performed on the digital video signal processing unit 33.

不揮発性のメモリ等からなる記憶部40は、CPU36が行う各種処理に関するプログラム及びテーブルデータ等を保持している。   The storage unit 40 including a non-volatile memory or the like holds programs and table data related to various processes performed by the CPU 36.

CPU36は、内視鏡制御部15及び操作パネル22から出力される指示信号等に応じ、該指示信号に基づき、撮像部14、PCカード23、デジタル映像信号処理部33、RAM34、画像圧縮/伸張部35等に対する制御を行う。   The CPU 36 responds to an instruction signal output from the endoscope control unit 15 and the operation panel 22 based on the instruction signal based on the instruction signal, the imaging unit 14, the PC card 23, the digital video signal processing unit 33, the RAM 34, the image compression / decompression. Control of the unit 35 and the like is performed.

音声認識処理部41は、集音マイク6において入力された音声の内容を解析し、該解析した結果を音声解析データとしてCPU36へ出力する。そして、CPU36は、前記音声解析データに基づく制御をプロセッサ3の各部に対して行う。   The voice recognition processing unit 41 analyzes the content of the voice input in the sound collecting microphone 6 and outputs the analyzed result to the CPU 36 as voice analysis data. Then, the CPU 36 performs control based on the voice analysis data for each part of the processor 3.

キーボード5は、内視鏡2を用いて観察を行う対象となる被検体のIDナンバー、名前及び年齢等の情報(以降、患者情報と称する)を入力可能な構成として、図2に示すように、キャプチャキー5a〜5f、文字入力キー及び数字キー等を含む複数のキーを有して構成されている。   As shown in FIG. 2, the keyboard 5 is configured to be able to input information (hereinafter referred to as patient information) such as an ID number, a name, and an age of a subject to be observed using the endoscope 2. And a plurality of keys including a capture key 5a to 5f, a character input key, a numeric key, and the like.

キャプチャキー5a〜5fは、内視鏡2の撮像部14により撮像された被写体の像を、静止画像としてPCカード23へ出力させるための指示を行うことが可能なキーである。   The capture keys 5a to 5f are keys that can issue an instruction to output the subject image captured by the imaging unit 14 of the endoscope 2 to the PC card 23 as a still image.

ユーザは、例えば図3に示すようなプロセッサ3の設定画面上において、キャプチャキー5a〜5f各々が操作された際に、PCカード23への出力対象となる静止画像に関連付けられる被検体の部位の名称を設定することができる。より具体的には、図3に示すように、ユーザは、例えば、キャプチャキー5aが操作された際には十二指腸を示す情報をPCカード23への出力対象となる静止画像に関連付けて出力させ、キャプチャキー5bが操作された際には噴門を示す情報をPCカード23への出力対象となる静止画像に関連付けて出力させ、キャプチャキー5cが操作された際には幽門を示す情報をPCカード23への出力対象となる静止画像に関連付けて出力させ、キャプチャキー5dが操作された際には大弯を示す情報をPCカード23への出力対象となる静止画像に関連付けて出力させ、キャプチャキー5eが操作された際には小弯を示す情報をPCカード23への出力対象となる静止画像に関連付けて出力させような設定を、図3に示す設定画面上において行うことができる。   When the user operates each of the capture keys 5a to 5f on the setting screen of the processor 3 as shown in FIG. 3, for example, the user selects the part of the subject associated with the still image to be output to the PC card 23. A name can be set. More specifically, as shown in FIG. 3, for example, when the capture key 5 a is operated, the user outputs information indicating the duodenum in association with a still image to be output to the PC card 23, When the capture key 5b is operated, information indicating the cardia is output in association with the still image to be output to the PC card 23, and when the capture key 5c is operated, information indicating the pylorus is output. When the capture key 5d is operated, the information indicating the vat is output in association with the still image to be output to the PC card 23, and the capture key 5e is output. On the setting screen shown in FIG. 3, the setting that causes the information indicating the gavel to be output in association with the still image to be output to the PC card 23 when Ukoto can.

なお、本実施形態においては、図3の「Capture settings」欄内の項目「Capture1」の設定内容がキャプチャキー5aの設定として、項目「Capture2」の設定内容がキャプチャキー5bの設定として、項目「Capture3」の設定内容がキャプチャキー5cの設定として、項目「Capture4」の設定内容がキャプチャキー5dの設定として、項目「Capture5」の設定内容がキャプチャキー5eの設定として、項目「Capture6」の設定内容がキャプチャキー5fの設定として各々反映されるものとする。   In the present embodiment, the setting content of the item “Capture1” in the “Capture settings” column of FIG. 3 is the setting of the capture key 5a, and the setting content of the item “Capture2” is the setting of the capture key 5b. The setting content of “Capture 3” is the setting content of the capture key 5c, the setting content of the item “Capture 4” is the setting of the capture key 5d, the setting content of the item “Capture 5” is the setting of the capture key 5e, and the setting content of the item “Capture 6” Are reflected as the settings of the capture key 5f.

キャプチャキー5a〜5f各々における設定は、例えば、図3に示すような(プロセッサ3の)設定画面上における、プルダウンメニューを用いた選択方式により実現可能である。また、前記プルダウンメニューは、キーボード5または図示しないマウス等における入力により直接選択されるものであっても良いし、また、集音マイク6における音声入力に応じて音声認識処理部41により生成及び出力される音声解析データに基づいて選択されるものであっても良い。   The setting in each of the capture keys 5a to 5f can be realized by a selection method using a pull-down menu on a setting screen (of the processor 3) as shown in FIG. The pull-down menu may be directly selected by input from the keyboard 5 or a mouse (not shown), or generated and output by the voice recognition processing unit 41 in response to voice input from the sound collection microphone 6. It may be selected based on the voice analysis data to be processed.

前記プルダウンメニューは、内視鏡2の内視鏡制御部15において生成及び出力される、内視鏡識別情報に基づいてCPU36が(描画制御部39等に対して)行う制御により適宜変更される。具体的には、CPU36は、前記内視鏡識別情報に基づいて記憶部40に格納されたテーブルデータを読み込むことにより、例えば内視鏡2が上部消化管用のものであれば、図3に示すような内容のメニュー(「十二指腸」、「噴門」及び「幽門」等の選択肢)を設定画面上に表示させ、また、例えば内視鏡2が下部消化管用のものであれば、図3に示すものとは異なる内容のメニュー(「直腸」、「下行結腸」及び「横行回腸」等の選択肢)を設定画面上に表示させるための制御を(描画制御部39等に対して)行う。   The pull-down menu is appropriately changed by control performed by the CPU 36 (for the drawing control unit 39 and the like) based on the endoscope identification information generated and output in the endoscope control unit 15 of the endoscope 2. . Specifically, the CPU 36 reads the table data stored in the storage unit 40 based on the endoscope identification information, for example, if the endoscope 2 is for the upper digestive tract, as shown in FIG. A menu with such contents (options such as “duodenum”, “cardia” and “pylorus”) is displayed on the setting screen, and for example, if the endoscope 2 is for the lower digestive tract, it is shown in FIG. Control for displaying a menu (options such as “rectum”, “descending colon”, and “transverse ileum”) different from those on the setting screen is performed (for the drawing control unit 39 and the like).

また、キャプチャキー5a〜5f各々における設定は、例えば、図4に示すような(プロセッサ3の)設定画面上において、スコープスイッチ13及び図示しないフットスイッチに対しても反映させることができる。具体的には、図4の「Scope switch settings」欄内の「Switch1」、「Switch2」、「Switch3」及び「Switch4」の各項目において、例えば最大で4つのスコープスイッチ13に対し、キャプチャキー5a〜5f各々における設定を選択及び反映させることができる。また、図4の「Foot switch settings」欄内に設けられた4つの項目において、例えば最大で4つのフットスイッチに対し、キャプチャキー5a〜5f各々における設定を選択及び反映させることができる。   Further, the settings in each of the capture keys 5a to 5f can be reflected on the scope switch 13 and a foot switch (not shown) on a setting screen (of the processor 3) as shown in FIG. Specifically, in each item of “Switch 1”, “Switch 2”, “Switch 3”, and “Switch 4” in the “Scope switch settings” column of FIG. The setting in each of ˜5f can be selected and reflected. Further, in the four items provided in the “Foot switch settings” column of FIG. 4, for example, the settings in each of the capture keys 5 a to 5 f can be selected and reflected for a maximum of four foot switches.

なお、本実施形態において、設定部としての機能を有するCPU36は、図3及び図4に示す設定画面上においてなされた設定内容を反映させるための各種処理を行うと共に、該設定内容に関する情報、及び、後述する位置情報等の情報を一時的に格納可能な、設定内容格納部としてのRAM36aを有しているものとする。   In the present embodiment, the CPU 36 having a function as a setting unit performs various processes for reflecting the setting contents made on the setting screens shown in FIGS. 3 and 4, and information on the setting contents, and Assume that a RAM 36a as a setting content storage unit capable of temporarily storing information such as position information described later is provided.

次に、本実施形態の内視鏡システム1の作用について説明を行う。   Next, the operation of the endoscope system 1 of the present embodiment will be described.

まず、ユーザは、内視鏡システム1の各部を接続した後、内視鏡システム1の各部の電源を投入して起動させる。また、ユーザは、プロセッサ3の図示しないPCカードスロットにPCカード23を挿入する。なお、キャプチャキー5a〜5f各々における設定は、内視鏡システム1の各部の起動時には、前述した、図3に示す設定内容として予め設定されているものとする。   First, after connecting each part of the endoscope system 1, the user turns on and activates each part of the endoscope system 1. In addition, the user inserts the PC card 23 into a PC card slot (not shown) of the processor 3. It should be noted that the settings in each of the capture keys 5a to 5f are set in advance as the setting contents shown in FIG. 3 described above when each part of the endoscope system 1 is activated.

内視鏡制御部15は、内視鏡2が起動したタイミングにおいて内視鏡識別情報を生成するとともに、該内視鏡識別情報をプロセッサ3のCPU36に対して出力する。   The endoscope control unit 15 generates endoscope identification information at the timing when the endoscope 2 is activated, and outputs the endoscope identification information to the CPU 36 of the processor 3.

その後、ユーザは、内視鏡2の挿入部2bを被検体内部に挿入した後、該被検体内部の所望の部位において、図示しない光源装置から供給される照明光により照明された、生体組織等の被写体を撮像する。そして、内視鏡2の撮像部14により撮像された被写体の像は、光電変換された後、撮像信号としてプロセッサ3へ出力される。   Thereafter, the user inserts the insertion portion 2b of the endoscope 2 into the subject, and then is illuminated with illumination light supplied from a light source device (not shown) at a desired site inside the subject. The subject is imaged. The subject image captured by the imaging unit 14 of the endoscope 2 is photoelectrically converted and then output to the processor 3 as an imaging signal.

内視鏡2から出力された撮像信号は、プロセッサ3に入力された後、プリプロセス部31により増幅及びノイズ除去の処理が施され、A/D変換部32によりA/D変換が施され、デジタル映像信号処理部33によりデジタルフィルタ処理等の処理が施され、D/A変換部37によりD/A変換が施され、ポストプロセス部38により信号変換処理が施された後、モニタ4に対して出力される。これにより、モニタ4には、内視鏡2により撮像された、被検体内部の所望の部位としての、例えば十二指腸における被写体の像が画像表示される。   After the imaging signal output from the endoscope 2 is input to the processor 3, the preprocessing unit 31 performs amplification and noise removal processing, and the A / D conversion unit 32 performs A / D conversion. The digital video signal processing unit 33 performs processing such as digital filter processing, the D / A conversion unit 37 performs D / A conversion, and the post-processing unit 38 performs signal conversion processing. Is output. As a result, an image of a subject in the duodenum, for example, as a desired part inside the subject, imaged by the endoscope 2 is displayed on the monitor 4 as an image.

そして、ユーザは、キーボード5のキャプチャキー5aを押下することにより、モニタ4に表示されている画面を画像としてPCカード23に記録するための指示を行う。   Then, the user gives an instruction to record the screen displayed on the monitor 4 as an image on the PC card 23 by pressing the capture key 5 a of the keyboard 5.

画像記録制御部の一部としてのCPU36は、RAM36aに格納された設定内容に基づき、キーボード5のキャプチャキー5aから指示信号が出力されたことを検出した際に、モニタ4に表示されている画像(記録対象となる画像)に、十二指腸を示す情報として、例えば十二指腸を示す所定の文字列が関連付けられるように、描画制御部39を制御する。そして、画像記録制御部の一部としての描画制御部39は、十二指腸を示す所定の文字列として、例えば「duodenum」という文字列を記録対象となる画像に重畳させるような制御をデジタル映像信号処理部33に対して行う。   When the CPU 36 as a part of the image recording control unit detects that the instruction signal is output from the capture key 5a of the keyboard 5 based on the setting contents stored in the RAM 36a, the image displayed on the monitor 4 is displayed. The drawing control unit 39 is controlled such that, for example, a predetermined character string indicating the duodenum is associated with (image to be recorded) as information indicating the duodenum. Then, the drawing control unit 39 as a part of the image recording control unit performs control such that a character string “dudenum”, for example, is superimposed on an image to be recorded as a predetermined character string indicating the duodenum. To the unit 33.

なお、本実施形態における画像記録制御部は、CPU36及び描画制御部39からなるものとする。   Note that the image recording control unit in the present embodiment includes the CPU 36 and the drawing control unit 39.

デジタル映像信号処理部33は、CPU36及び描画制御部39の制御に基づき、A/d変換部から出力される撮像信号に前記十二指腸を示す所定の文字列を重畳してRAM34へ出力する。   Based on the control of the CPU 36 and the drawing control unit 39, the digital video signal processing unit 33 superimposes a predetermined character string indicating the duodenum on the imaging signal output from the A / d conversion unit and outputs it to the RAM 34.

RAM34に出力された撮像信号は、画像圧縮/伸長部35において圧縮処理が施されることにより画像信号に変換された後、PCカード23へ出力される。   The imaging signal output to the RAM 34 is converted into an image signal by being subjected to compression processing in the image compression / decompression unit 35 and then output to the PC card 23.

以上により、PCカード23には、モニタ4において画像表示されている被写体の像の静止画像が、例えば、JPEG形式の画像データとして記録される。また、CPU36の制御により、PCカード23には、キーボード5において入力された患者情報、及び、RAM36aに格納されている設定内容(キャプチャキー5a〜5f及びスコープスイッチ13等に割り付けられた被検体の部位の名称)に応じた観察部位情報等の情報が前記画像データに各々関連付けられた状態として(または前記画像データ内に埋め込まれた状態として)記録される。また、前記画像データは、CPU36によりPCカード23に生成されたフォルダである、生体識別情報としての被検体のIDナンバーをフォルダ名として有するフォルダ内にまとめられて(患者毎のデータとしてまとめられた状態として)記録される。これにより、記録媒体としてのPCカード23には、一の被検体の観察の際に取得した静止画像の画像データと、該画像データに応じた観察部位情報と、該一の被検体のIDナンバーとが、各々関連付けられた状態として記録される。   As described above, the still image of the subject image displayed on the monitor 4 is recorded on the PC card 23 as, for example, JPEG image data. Also, under the control of the CPU 36, the patient information input from the keyboard 5 and the setting contents stored in the RAM 36a (the capture keys 5a to 5f, the scope switch 13 and the like of the subject assigned to the PC card 23) are controlled. Information such as observation site information corresponding to the name of the site is recorded as being associated with the image data (or embedded in the image data). The image data is a folder generated on the PC card 23 by the CPU 36 and is collected in a folder having the subject ID number as biometric identification information as a folder name (collected as data for each patient). Is recorded). Thereby, the PC card 23 as a recording medium stores image data of a still image acquired when observing one subject, observation site information corresponding to the image data, and an ID number of the one subject. Are recorded as associated states.

そして、ユーザは、内視鏡2による被検体内部の観察を終えた後、例えば、キーボード5の操作により、PCカード23に記録された画像データを再生するための指示をプロセッサ3に対して行う。   Then, after the user finishes observing the inside of the subject with the endoscope 2, for example, by operating the keyboard 5, the user instructs the processor 3 to reproduce the image data recorded on the PC card 23. .

表示制御部としての機能を有するCPU36は、キーボード5から出力される指示信号に基づき、PCカード23に記録された観察画像に応じた画像信号を画像圧縮/伸長部35へ出力させる。   The CPU 36 having a function as a display control unit causes the image compression / decompression unit 35 to output an image signal corresponding to the observation image recorded on the PC card 23 based on the instruction signal output from the keyboard 5.

CPU36の制御によりPCカード23から出力された画像信号は、画像圧縮/伸長部35により伸長処理及び映像信号への変換処理が施され、RAM34を介してD/A変換部37へ出力され、D/A変換部37によりD/A変換が施され、ポストプロセス部38により信号変換処理が施された後、モニタ4に対して出力される。   The image signal output from the PC card 23 under the control of the CPU 36 is subjected to expansion processing and conversion processing into a video signal by the image compression / expansion unit 35, and is output to the D / A conversion unit 37 via the RAM 34. After being subjected to D / A conversion by the / A conversion unit 37 and subjected to signal conversion processing by the post-processing unit 38, it is output to the monitor 4.

以上により、モニタ4には、図5に示すように、患者情報101と、観察情報102と、観察部位情報103と、観察画像104とが併せて表示される。   As described above, as shown in FIG. 5, the patient information 101, the observation information 102, the observation site information 103, and the observation image 104 are displayed on the monitor 4 together.

観察情報102は、図5に示すように、観察画像104を取得した日時、観察を行った医師の名前、観察画像104を取得した際の拡大率、及び、観察画像104を取得した際の強調の度合いを情報として含んでいる。また、観察部位情報103は、図5に示すように、観察画像104が(被検体としての生体内の)どの部位の画像であるかを示す情報である。   As shown in FIG. 5, the observation information 102 includes the date and time when the observation image 104 was acquired, the name of the doctor who performed the observation, the magnification when the observation image 104 was acquired, and the emphasis when the observation image 104 was acquired. Is included as information. Further, as shown in FIG. 5, the observation site information 103 is information indicating which site (in the living body as the subject) the observation image 104 is.

観察部位情報103は、前述したように、画像記録時に押下されたキャプチャキーの設定に応じて決定される情報である。そして、観察部位情報103は、例えば前述したような場合、すなわち、キーボード5のキャプチャキー5aの押下により画像が記録された場合には、「Part:duodenum」という文字列としてモニタ4に表示される。これにより、ユーザは、観察画像104が十二指腸を撮像したものであることを容易に認識することができる。   As described above, the observation site information 103 is information that is determined according to the setting of the capture key pressed during image recording. The observation site information 103 is displayed on the monitor 4 as a character string “Part: duedenum” in the case described above, for example, when an image is recorded by pressing the capture key 5a of the keyboard 5. . Thereby, the user can easily recognize that the observation image 104 is an image of the duodenum.

なお、PCカード23に記録された観察画像を再生した際にモニタ4に表示される内容は、患者情報101、観察情報102、観察部位情報103及び観察画像104のみに限るものではなく、例えば、観察部位情報103に応じた体腔内テンプレート画像105をさらに有するものであっても良い。   The content displayed on the monitor 4 when the observation image recorded on the PC card 23 is reproduced is not limited to the patient information 101, the observation information 102, the observation site information 103, and the observation image 104. A body cavity template image 105 corresponding to the observation site information 103 may be further included.

体腔内テンプレート画像105は、CPU36の制御及び観察部位情報103に応じて描画制御部39により生成される、一般的な臓器の形状を示す画像である。また、体腔内テンプレート画像105は、観察部位情報103に応じて一意的に定義された箇所を示すためのマーカー105aを有している。   The body cavity template image 105 is an image showing a general organ shape generated by the drawing control unit 39 according to the control of the CPU 36 and the observation site information 103. Further, the body cavity template image 105 has a marker 105 a for indicating a part uniquely defined according to the observation site information 103.

具体的には、例えば、観察画像104が十二指腸のものである場合には、図6に示すように、患者情報101と、観察情報102と、観察部位情報103としての「Part:duodenum」という文字列と、観察画像104と、十二指腸を示す画像を含む体腔内テンプレート画像105と、一般的な十二指腸の箇所を示すためのマーカー105aとが併せてモニタ4に表示される。   Specifically, for example, when the observation image 104 is of the duodenum, as shown in FIG. 6, the characters “Part: duedenum” as the patient information 101, the observation information 102, and the observation site information 103 are displayed. A column, an observation image 104, a template image 105 in the body cavity including an image showing the duodenum, and a marker 105a for indicating a general duodenum location are displayed on the monitor 4 together.

なお、図6に示す画面は、PCカード23に記録された各観察画像のうち、上部消化管用の内視鏡2による観察画像が再生された場合の画面を示すものである。そして、例えば、PCカード23に記録された各観察画像のうち、下部消化管用の内視鏡2による観察画像が再生された場合には、例えば図7に示す画面がモニタ4に表示される。   The screen shown in FIG. 6 shows the screen when the observation image by the endoscope 2 for the upper digestive tract is reproduced among the observation images recorded on the PC card 23. For example, when the observation image recorded by the endoscope 2 for the lower digestive tract is reproduced among the observation images recorded on the PC card 23, for example, the screen shown in FIG.

具体的には、例えば、観察画像104が直腸のものである場合には、図7に示すように、観察部位情報103として「Part:rectum」という文字列と、直腸を示す画像を含む体腔内テンプレート画像105と、一般的な直腸の箇所を示すためのマーカー105aとが併せてモニタ4に表示される。   Specifically, for example, if the observation image 104 is a rectum, as shown in FIG. 7, the body part includes a character string “Part: rectum” as the observation site information 103 and an image showing the rectum. A template image 105 and a marker 105a for indicating a general rectal location are displayed on the monitor 4 together.

なお、本実施形態の内視鏡システム1は、図1に示す構成を有するものに限らず、例えば、内視鏡2の挿入形状を検出するための装置をさらに有するような、図8に示す内視鏡システム1Aとして構成されるものであっても良い。   Note that the endoscope system 1 according to the present embodiment is not limited to the one having the configuration shown in FIG. 1, and for example, as shown in FIG. 8 that further includes a device for detecting the insertion shape of the endoscope 2. It may be configured as an endoscope system 1A.

具体的には、内視鏡システム1Aは、図8に示すように、前述した構成の内視鏡2と、前述した構成のプロセッサ3と、前述した構成のモニタ4と、被検体内に挿入された内視鏡2の挿入形状を検出するとともに、該検出した結果を挿入形状情報としてプロセッサ3へ出力する内視鏡挿入形状検出装置7と、を要部として有して構成されている。また、前述した内視鏡システム1と同様に、プロセッサ3には、各種文字入力及び指示入力が可能なキーボード5、及び、音声入力が可能な集音マイク6が各々接続されている。   Specifically, as shown in FIG. 8, the endoscope system 1A is inserted into a subject, the endoscope 2 having the above-described configuration, the processor 3 having the above-described configuration, the monitor 4 having the above-described configuration. The endoscope insertion shape detection device 7 that detects the insertion shape of the endoscope 2 and outputs the detected result to the processor 3 as insertion shape information is provided as a main part. Similarly to the endoscope system 1 described above, the processor 3 is connected to a keyboard 5 capable of inputting various characters and instructions and a sound collecting microphone 6 capable of inputting voice.

内視鏡挿入形状検出部としての内視鏡挿入形状検出装置7は、内視鏡2の図示しない処置具チャンネル内部に挿入可能なプローブ71と、内視鏡2に挿入されたプローブ71の形状を検出することにより、被検体内に挿入された内視鏡2の(挿入部2bの)挿入形状を検出可能な内視鏡挿入形状検出装置本体72と、を有して構成されている。   An endoscope insertion shape detection device 7 as an endoscope insertion shape detection unit includes a probe 71 that can be inserted into a treatment instrument channel (not shown) of the endoscope 2 and the shape of the probe 71 that is inserted into the endoscope 2. And an endoscope insertion shape detection device main body 72 capable of detecting the insertion shape (of the insertion portion 2b) of the endoscope 2 inserted into the subject.

プローブ71は、(内視鏡2の挿入部2bの形状に応じた)細長な形状を有して形成されているとともに、基端部から先端部にかけての長手軸方向に各々所定の間隔を有して配置された、図示しない複数のコイルを内部に有している。   The probe 71 has an elongated shape (according to the shape of the insertion portion 2b of the endoscope 2) and has a predetermined interval in the longitudinal axis direction from the proximal end portion to the distal end portion. A plurality of coils (not shown) are arranged inside.

内視鏡挿入形状検出装置本体72は、プロセッサ3及びプローブ71に接続されているとともに、プローブ71の内部に配置された図示しない複数のコイルを駆動させるための制御を行うことにより、該図示しない複数のコイル各々において磁界を発生させる。そして、内視鏡挿入形状検出装置本体72は、前記図示しない複数のコイル各々から発せられる磁界をアンテナユニット72aにおいて受信するとともに、該受信した結果に基づき、内視鏡2の図示しない処置具チャンネル内部に挿通されたプローブ71の形状を検出するとともに、該検出した結果を挿入形状情報としてプロセッサ3へ出力する。   The endoscope insertion shape detection device main body 72 is connected to the processor 3 and the probe 71, and performs control for driving a plurality of coils (not shown) arranged inside the probe 71, thereby not showing the figure. A magnetic field is generated in each of the plurality of coils. The endoscope insertion shape detection device main body 72 receives the magnetic field emitted from each of the plurality of coils (not shown) in the antenna unit 72a, and based on the received result, the treatment instrument channel (not shown) of the endoscope 2 While detecting the shape of the probe 71 inserted inside, the detected result is output to the processor 3 as insertion shape information.

アンテナユニット72aは、プローブ71から発せられる磁界を受信することができるような構成として、例えば、図示しない複数のコイルを有して構成されている。   The antenna unit 72a is configured to have a plurality of coils (not shown), for example, as a configuration that can receive a magnetic field emitted from the probe 71.

ここで、内視鏡システム1Aの作用について説明を行う。   Here, the operation of the endoscope system 1A will be described.

まず、ユーザは、内視鏡システム1Aの各部を接続した後、内視鏡システム1の各部の電源を投入して起動させる。また、ユーザは、プロセッサ3の図示しないPCカードスロットにPCカード23を挿入するとともに、プローブ71を内視鏡2の図示しない処置具チャンネル内部に挿通させる。   First, after connecting each part of the endoscope system 1A, the user turns on and activates each part of the endoscope system 1. Further, the user inserts the PC card 23 into a PC card slot (not shown) of the processor 3 and inserts the probe 71 into the treatment instrument channel (not shown) of the endoscope 2.

内視鏡制御部15は、内視鏡2が起動したタイミングにおいて内視鏡識別情報を生成するとともに、該内視鏡識別情報をプロセッサ3のCPU36に対して出力する。   The endoscope control unit 15 generates endoscope identification information at the timing when the endoscope 2 is activated, and outputs the endoscope identification information to the CPU 36 of the processor 3.

その後、ユーザは、内視鏡2の挿入部2bを被検体内部に挿入した後、該被検体内部の所望の部位において、図示しない光源装置から供給される照明光により照明された、生体組織等の被写体を撮像する。そして、内視鏡2の撮像部14により撮像された被写体の像は、光電変換された後、撮像信号としてプロセッサ3へ出力される。   Thereafter, the user inserts the insertion portion 2b of the endoscope 2 into the subject, and then is illuminated with illumination light supplied from a light source device (not shown) at a desired site inside the subject. The subject is imaged. The subject image captured by the imaging unit 14 of the endoscope 2 is photoelectrically converted and then output to the processor 3 as an imaging signal.

内視鏡2から出力された撮像信号は、プロセッサ3に入力された後、プリプロセス部31により増幅及びノイズ除去の処理が施され、A/D変換部32によりA/D変換が施され、デジタル映像信号処理部33によりデジタルフィルタ処理等の処理が施され、D/A変換部37によりD/A変換が施され、ポストプロセス部38により信号変換処理が施された後、モニタ4に対して出力される。これにより、モニタ4には、内視鏡2により撮像された、被検体内部の所望の部位における被写体の像が画像表示される。   After the imaging signal output from the endoscope 2 is input to the processor 3, the preprocessing unit 31 performs amplification and noise removal processing, and the A / D conversion unit 32 performs A / D conversion. The digital video signal processing unit 33 performs processing such as digital filter processing, the D / A conversion unit 37 performs D / A conversion, and the post-processing unit 38 performs signal conversion processing. Is output. As a result, the monitor 4 displays an image of the subject imaged by the endoscope 2 at a desired site inside the subject.

一方、内視鏡挿入形状検出装置本体72は、プローブ71から発せされた磁界をアンテナユニット72aにおいて受信し、該受信した結果に基づいて内視鏡2に挿入されたプローブ71の形状を検出するとともに、該検出した結果を挿入形状情報としてプロセッサ3へ出力する。   On the other hand, the endoscope insertion shape detection device main body 72 receives a magnetic field emitted from the probe 71 at the antenna unit 72a, and detects the shape of the probe 71 inserted into the endoscope 2 based on the received result. At the same time, the detected result is output to the processor 3 as insertion shape information.

プロセッサ3のCPU36は、内視鏡挿入形状検出装置本体72から随時出力される挿入形状情報に基づき、内視鏡2の先端部が被検体内のどの部位に存在しているかを示す位置情報を生成する。   The CPU 36 of the processor 3 obtains position information indicating in which part of the subject the distal end portion of the endoscope 2 exists based on the insertion shape information output from the endoscope insertion shape detection device main body 72 as needed. Generate.

その後、CPU36は、スコープスイッチ13またはキーボード5が有する各キーのうち、例えば図3及び図4の設定画面上において設定された以外のものにおいてキャプチャ指示がなされたことを(指示信号の入力により)検出すると、前記位置情報に基づき、内視鏡2の挿入部2bの先端部が生体内のどの臓器に配置されているか、すなわち、該先端部に設けられた撮像部14により撮像された被写体の像が生体内のどの部位の像であるかをを推定する。   Thereafter, the CPU 36 indicates that a capture instruction has been given (for example, by inputting an instruction signal) in each key of the scope switch 13 or the keyboard 5 other than those set on the setting screens of FIGS. 3 and 4, for example. Upon detection, based on the position information, the organ in which the distal end portion of the insertion portion 2b of the endoscope 2 is disposed, that is, the subject imaged by the imaging portion 14 provided at the distal end portion is detected. It is estimated which part in the living body the image is.

そして、CPU36は、モニタ4に表示されている画像(記録対象となる画像)に、前記推定を行った結果に応じて取得した情報としての、観察部位情報が関連付けられるように、描画制御部39を制御する。具体的には、記録対象となる画像が十二指腸を撮像したものである場合、CPU36は、該記録対象となる画像に十二指腸を示す所定の文字列が関連付けられるように、描画制御部39を制御する。そして、描画制御部39は、十二指腸を示す所定の文字列として、例えば「duodenum」という文字列を記録対象となる画像に重畳させるような制御をデジタル映像信号処理部33に対して行う。   Then, the CPU 36 renders the drawing control unit 39 so that the image displayed on the monitor 4 (image to be recorded) is associated with the observation site information as information acquired according to the estimation result. To control. Specifically, when the image to be recorded is an image of the duodenum, the CPU 36 controls the drawing control unit 39 so that a predetermined character string indicating the duodenum is associated with the image to be recorded. . Then, the drawing control unit 39 controls the digital video signal processing unit 33 to superimpose, for example, a character string “dudenum” on the image to be recorded as a predetermined character string indicating the duodenum.

以上に述べた処理等が内視鏡システム1Aの各部において行われることにより、PCカード23に記録された観察画像の再生時に、前述した、図5に示す画像と同様の画像がモニタ4に表示される。   By performing the above-described processing and the like in each part of the endoscope system 1A, an image similar to the image shown in FIG. 5 described above is displayed on the monitor 4 when the observation image recorded on the PC card 23 is reproduced. Is done.

なお、CPU36は、内視鏡2の先端部が存在する位置に存在する位置の臓器の推定を、キャプチャ指示が行われたタイミングのみにおいて行うものに限らず、例えば、内視鏡挿入形状検出装置本体72から随時出力される挿入形状情報に基づいてリアルタイムに行うものであっても良い。   Note that the CPU 36 is not limited to performing estimation of an organ at a position where the distal end portion of the endoscope 2 is present only at a timing when a capture instruction is given, for example, an endoscope insertion shape detection device It may be performed in real time based on insertion shape information output from the main body 72 as needed.

また、内視鏡システム1Aにおいては、PCカード23内に存在する過去の記録画像を、内視鏡2による観察中の画像と併せてモニタ4に表示させることができる。その具体的な作用を以降に述べる。なお、以降においては、説明の簡単のため、内視鏡システム1の作用の説明等において既述である箇所を適宜省略するものとする。   In the endoscope system 1 </ b> A, past recorded images existing in the PC card 23 can be displayed on the monitor 4 together with images being observed by the endoscope 2. The specific action will be described below. In the following, for simplicity of explanation, the portions already described in the description of the operation of the endoscope system 1 are omitted as appropriate.

内視鏡システム1Aの各部が起動した後、CPU36は、キーボード5において入力された被検体Dの患者情報のうち、該被検体DのIDナンバーを検出する(図9のステップS1)。   After each part of the endoscope system 1A is activated, the CPU 36 detects the ID number of the subject D from the patient information of the subject D input on the keyboard 5 (step S1 in FIG. 9).

CPU36は、図示しないPCカードスロットに挿入されたPCカード23に、被検体DのIDナンバーをフォルダ名として有するフォルダFDが存在するか否かの判定を行う(図9のステップS2)。そして、CPU36は、フォルダFDがPCカード23に存在しないことを検出すると、後述する図9のステップS11の処理をさらに行う。また、CPU36は、フォルダFDがPCカード23に存在することを検出すると、さらに、内視鏡挿入形状検出装置7の各部(プローブ71及び内視鏡挿入形状検出装置本体72)が動作しているか否かを検出する(図9のステップS3)。   The CPU 36 determines whether or not a folder FD having the ID number of the subject D as a folder name exists in the PC card 23 inserted in a PC card slot (not shown) (step S2 in FIG. 9). Then, when detecting that the folder FD does not exist in the PC card 23, the CPU 36 further performs a process of step S11 in FIG. Further, when the CPU 36 detects that the folder FD exists in the PC card 23, whether each part (the probe 71 and the endoscope insertion shape detection device main body 72) of the endoscope insertion shape detection device 7 is further operating. Whether or not is detected (step S3 in FIG. 9).

CPU36は、プローブ71及び内視鏡挿入形状検出装置本体72のうち、少なくとも一方が動作していないことを検出すると、後述する図9のステップS7の処理をさらに行う。また、CPU36は、プローブ71及び内視鏡挿入形状検出装置本体72がいずれも動作していることを検出すると、内視鏡挿入形状検出装置本体72から随時出力される挿入形状情報に基づいて位置情報を生成する(図9のステップS4)。   When the CPU 36 detects that at least one of the probe 71 and the endoscope insertion shape detection device main body 72 is not operating, the CPU 36 further performs a process of step S7 in FIG. 9 described later. Further, when the CPU 36 detects that both the probe 71 and the endoscope insertion shape detection device main body 72 are operating, the position is determined based on the insertion shape information output from the endoscope insertion shape detection device main body 72 as needed. Information is generated (step S4 in FIG. 9).

CPU36は、位置情報に応じた観察部位情報と同様のものがフォルダFD内に存在するか否かの判定を行う(図9のステップS5)。そして、CPU36は、位置情報に応じた観察部位情報と同様のものがフォルダFD内に存在しない場合、すなわち、内視鏡2による観察中の部位が、フォルダFD内に存在する観察部位情報が示す部位のうちのいずれかに到達するまでの間、図9のステップS4及びS5の処理を繰り返し行う。また、表示制御部としての機能を有するCPU36は、位置情報に応じた観察部位情報と同様のものがフォルダFD内に存在する場合、すなわち、内視鏡2による観察中の部位が、フォルダFD内に存在する観察部位情報が示す部位のうちのいずれかに到達した場合、該観察中の部位に対応する過去の記録画像をフォルダFDから出力させるとともに、該過去の記録画像をモニタ4に表示させるための制御を行う(図9のステップS6)。   The CPU 36 determines whether or not the same observation site information corresponding to the position information exists in the folder FD (step S5 in FIG. 9). Then, the CPU 36 indicates that the same part as the observation part information corresponding to the position information does not exist in the folder FD, that is, the part under observation by the endoscope 2 is indicated by the observation part information existing in the folder FD. Until reaching one of the parts, the processes of steps S4 and S5 in FIG. 9 are repeated. Further, the CPU 36 having a function as a display control unit has the same information as the observation part information corresponding to the position information in the folder FD, that is, the part being observed by the endoscope 2 is in the folder FD. When any one of the parts indicated by the observation part information existing in is reached, a past recorded image corresponding to the part being observed is output from the folder FD, and the past recorded image is displayed on the monitor 4 For this purpose (step S6 in FIG. 9).

以上に述べた一連の処理及び制御等により、モニタ4には、例えば図10に示すように、被検体Dにおける所望の部位の観察が行われている最中に、内視鏡2による該所望の部位のリアルタイム観察画像201と、PCカード23内に存在する該所望の部位の過去の記録画像202と、該記録画像202を取得した日時を示す日時情報202aと、患者情報101と、観察情報102と、リアルタイム観察画像201に応じた観察部位情報103とが併せて表示される。   Through the series of processing and control described above, the monitor 4 is displayed on the monitor 4 while the desired part of the subject D is being observed, for example, as shown in FIG. Real-time observation image 201 of the region, the past recorded image 202 of the desired region existing in the PC card 23, date and time information 202a indicating the date and time when the recorded image 202 was acquired, patient information 101, and observation information 102 and observation site information 103 corresponding to the real-time observation image 201 are displayed together.

なお、記録画像202としてモニタ4に表示される画像は、例えば、取得日時が最新の画像、取得日時が新しい順に選択された所定の枚数の画像、または、該当する全ての画像のいずれであっても良い。   Note that the image displayed on the monitor 4 as the recorded image 202 is, for example, any of an image with the latest acquisition date and time, a predetermined number of images selected in order of acquisition date and time, or all applicable images. Also good.

CPU36は、図9のステップS3の処理において、プローブ71及び内視鏡挿入形状検出装置本体72のうち、少なくとも一方が動作していないことを検出すると、キャプチャ指示に応じた指示信号の入力待ちの状態を保持する(図9のステップS7)。そして、CPU36は、キーボード5が有するキャプチャキー5a〜5fのいずれかにおいてなされたキャプチャ指示に応じた指示信号が入力されると、前記入力待ちの状態を解除するとともに、記録対象となる画像I1と、該画像I1の観察部位情報とを関連付ける処理を行う(図9のステップS8)。   When the CPU 36 detects that at least one of the probe 71 and the endoscope insertion shape detection device main body 72 is not operating in the process of step S3 in FIG. 9, the CPU 36 waits for input of an instruction signal corresponding to the capture instruction. The state is held (step S7 in FIG. 9). Then, when an instruction signal corresponding to a capture instruction made in any of the capture keys 5a to 5f of the keyboard 5 is input, the CPU 36 cancels the input waiting state and also records the image I1 to be recorded. Then, a process of associating with the observation site information of the image I1 is performed (step S8 in FIG. 9).

その後、画像I1に応じた画像データ及び該画像I1の観察部位情報が、フォルダFD内に併せて格納される(図9のステップS9)。   Thereafter, the image data corresponding to the image I1 and the observation site information of the image I1 are stored together in the folder FD (step S9 in FIG. 9).

CPU36は、画像I1に関連付けられたものと同様の観察部位情報がフォルダFD内に存在するか否かの判定を行う(図9のステップS10)。そして、CPU36は、画像I1に関連付けられたものと同様の観察部位情報がフォルダFD内に存在しないことを検出した場合、すなわち、画像I1を取得した部位が、フォルダFD内に存在する観察部位情報が示す部位のうちのいずれとも異なる場合、前述した図9のステップS7からステップS9までの処理を繰り返し行う。また、CPU36は、画像I1に関連付けられたものと同様の観察部位情報がフォルダFD内に存在することを検出した場合、すなわち、画像I1を取得した部位が、フォルダFD内に存在する観察部位情報が示す部位のうちのいずれかと一致した場合、前述した図9のステップS6と同様の処理を行う。これにより、モニタ4には、前述した図10に示す画像と略同様の画像が表示される。   The CPU 36 determines whether or not observation site information similar to that associated with the image I1 exists in the folder FD (step S10 in FIG. 9). When the CPU 36 detects that observation part information similar to that associated with the image I1 does not exist in the folder FD, that is, the observation part information in which the part from which the image I1 is acquired exists in the folder FD. Is different from any of the parts indicated by the above, the above-described processing from step S7 to step S9 in FIG. 9 is repeated. In addition, when the CPU 36 detects that observation part information similar to that associated with the image I1 exists in the folder FD, that is, the observation part information in which the part from which the image I1 is acquired exists in the folder FD. If it matches any of the parts indicated by, the same processing as in step S6 of FIG. 9 described above is performed. As a result, an image substantially similar to the image shown in FIG. 10 described above is displayed on the monitor 4.

さらに、CPU36は、図9のステップS2の処理において、フォルダFDがPCカード23に存在しないことを検出すると、キャプチャ指示に応じた指示信号の入力待ちの状態を保持する(図9のステップS11)。そして、CPU36は、キーボード5が有するキャプチャキー5a〜5fのいずれかにおいてなされたキャプチャ指示に応じた指示信号が入力されると、前記入力待ちの状態を解除するとともに、記録対象となる画像I1と、該画像I1の観察部位情報とを関連付ける処理を行うとともに(図9のステップS12)、PCカード23にフォルダFDを生成する(図9のステップS13)。これにより、画像I1に応じた画像データ及び該画像I1の観察部位情報が、フォルダFD内に併せて格納される(図9のステップS14)。   Further, when detecting that the folder FD does not exist in the PC card 23 in the process of step S2 in FIG. 9, the CPU 36 holds a state waiting for an instruction signal input in accordance with the capture instruction (step S11 in FIG. 9). . Then, when an instruction signal corresponding to a capture instruction made in any of the capture keys 5a to 5f of the keyboard 5 is input, the CPU 36 cancels the input waiting state and also records the image I1 to be recorded. Then, a process of associating the observation site information of the image I1 is performed (step S12 in FIG. 9), and a folder FD is generated on the PC card 23 (step S13 in FIG. 9). Thus, the image data corresponding to the image I1 and the observation site information of the image I1 are stored together in the folder FD (step S14 in FIG. 9).

なお、図9に示す、内視鏡システム1Aにおいて行われる各処理のうち、内視鏡挿入形状検出装置7に関する処理(図9のステップS3、ステップS4及びステップS5)以外の処理については、内視鏡システム1に対しても適用可能である。   Of the processes performed in the endoscope system 1A shown in FIG. 9, processes other than the processes related to the endoscope insertion shape detecting device 7 (steps S3, S4, and S5 in FIG. 9) The present invention can also be applied to the endoscope system 1.

以上に述べたように、本実施形態のプロセッサ3は、記録対象となる画像に応じた被検体の部位の名称を、ユーザが別途入力せずとも、該画像の取得時に自動的に関連付けつつ記録媒体に記録することができる、という構成を有している。その結果、本実施形態のプロセッサ3は、被検体に対する内視鏡観察に費やされる時間を従来より短くすることができる。   As described above, the processor 3 according to the present embodiment records the name of the part of the subject corresponding to the image to be recorded without being separately input by the user while automatically associating the image when acquiring the image. The recording medium can be recorded on a medium. As a result, the processor 3 of the present embodiment can shorten the time spent for endoscopic observation of the subject as compared with the conventional case.

なお、本発明は、上述した実施形態に限定されるものではなく、発明の趣旨を逸脱しない範囲内において種々の変更や応用が可能であることは勿論である。   In addition, this invention is not limited to embodiment mentioned above, Of course, a various change and application are possible in the range which does not deviate from the meaning of invention.

本発明の実施形態に係る内視鏡システムの要部の構成の一例を示す図。The figure which shows an example of a structure of the principal part of the endoscope system which concerns on embodiment of this invention. 図1のプロセッサに接続されるキーボードの構成の概要を示す図。The figure which shows the outline | summary of a structure of the keyboard connected to the processor of FIG. 図1のプロセッサにおける設定画面の一例を示す図。The figure which shows an example of the setting screen in the processor of FIG. 図1のプロセッサにおける設定画面の、図3とは異なる例を示す図。The figure which shows the example different from FIG. 3 of the setting screen in the processor of FIG. 図1のPCカードに記録された画像データを再生した際にモニタに表示される画像の一例を示す図。The figure which shows an example of the image displayed on a monitor, when reproducing the image data recorded on the PC card of FIG. 図1のPCカードに記録された画像データを再生した際にモニタに表示される画像の、図5とは異なる例を示す図。The figure which shows the example different from FIG. 5 of the image displayed on a monitor when image data recorded on the PC card of FIG. 1 is reproduced. 図1のPCカードに記録された画像データを再生した際にモニタに表示される画像の、図5及び図6とは異なる例を示す図。The figure which shows the example different from FIG.5 and FIG.6 of the image displayed on a monitor when reproducing | regenerating the image data recorded on the PC card | curd of FIG. 図1の内視鏡システムに内視鏡挿入形状検出装置をさらに加えた場合の構成を示す図。The figure which shows the structure at the time of further adding the endoscope insertion shape detection apparatus to the endoscope system of FIG. 図8の内視鏡システムにおいて行われる処理を示すフローチャート。The flowchart which shows the process performed in the endoscope system of FIG. 図9の処理が行われることによりモニタに表示される画像の一例を示す図。The figure which shows an example of the image displayed on a monitor by performing the process of FIG.

符号の説明Explanation of symbols

1、1A・・・内視鏡システム、2・・・内視鏡、3・・・プロセッサ、4・・・モニタ、5・・・キーボード、7・・・内視鏡挿入形状検出装置、36・・・CPU、39・・・描画制御部、101・・・患者情報、102・・・観察情報、103・・・観察部位情報、104・・・観察画像、105・・・体腔内テンプレート画像、201・・・リアルタイム観察画像、202・・・記録画像   DESCRIPTION OF SYMBOLS 1, 1A ... Endoscope system, 2 ... Endoscope, 3 ... Processor, 4 ... Monitor, 5 ... Keyboard, 7 ... Endoscope insertion shape detection apparatus, 36 ... CPU, 39 ... Drawing controller, 101 ... Patient information, 102 ... Observation information, 103 ... Observation site information, 104 ... Observation image, 105 ... Intracavity template image 201 ... Real-time observation image, 202 ... Recording image

Claims (10)

生体内の被写体の像を撮像する撮像部を具備した内視鏡と、
前記被写体の像を静止画像として記録媒体に記録するための指示信号を出力する画像記録指示部と、
前記被写体の像が前記生体内のどの部位の像であるかを示す観察部位情報を前記画像記録指示部に割り付ける設定部と、
前記設定部における設定内容を格納する設定内容格納部と、
前記指示信号が前記画像記録指示部から出力されたことを検出した際に、前記設定内容格納部に格納された前記設定内容に基づき、前記静止画像と前記観察部位情報とを関連付けつつ前記記録媒体へ出力させるための処理を行う画像記録制御部と、
を有することを特徴とする内視鏡システム。
An endoscope including an imaging unit that captures an image of a subject in a living body;
An image recording instruction unit for outputting an instruction signal for recording the subject image as a still image on a recording medium;
A setting unit that assigns observation part information indicating which part of the living body the image of the subject is to the image recording instruction unit;
A setting content storage unit for storing the setting content in the setting unit;
When it is detected that the instruction signal is output from the image recording instruction unit, the recording medium is associated with the still image and the observation site information based on the setting content stored in the setting content storage unit An image recording control unit that performs processing for output to
An endoscope system comprising:
前記画像記録指示部を複数有し、
前記設定部は、複数の前記画像記録指示部各々に対して前記観察部位情報を割り付け可能であることを特徴とする請求項1に記載の内視鏡システム。
A plurality of the image recording instruction unit;
The endoscope system according to claim 1, wherein the setting unit can assign the observation site information to each of the plurality of image recording instruction units.
前記画像記録指示部は、前記内視鏡が有するスコープスイッチ、及び、前記設定部に接続可能なキーボードが有する所定のキーのうちの少なくとも一方であることを特徴とする請求項1または請求項2に記載の内視鏡システム。   3. The image recording instruction unit is at least one of a scope switch included in the endoscope and a predetermined key included in a keyboard connectable to the setting unit. The endoscope system described in 1. さらに、音声入力が可能な音声入力部と、前記音声入力の内容を解析し、該解析した結果を音声解析データとして前記設定部へ出力する音声認識処理部と、を有し、
前記設定部は、前記音声解析データに基づき、前記観察部位情報を前記画像記録指示部に割り付けることを特徴とする請求項1または請求項2に記載の内視鏡システム。
A voice input unit capable of voice input; and a voice recognition processing unit that analyzes the content of the voice input and outputs the analysis result to the setting unit as voice analysis data.
The endoscope system according to claim 1, wherein the setting unit assigns the observation site information to the image recording instruction unit based on the audio analysis data.
さらに、前記内視鏡の種類に関する情報である内視鏡識別情報を出力する内視鏡識別情報出力部を有し、
前記設定部は、前記画像記録指示部に割り付ける前記観察部位情報の内容を、前記内視鏡識別情報に応じて変更することを特徴とする請求項1乃至請求項4のいずれか一に記載の内視鏡システム。
Furthermore, it has an endoscope identification information output unit that outputs endoscope identification information that is information on the type of the endoscope,
The said setting part changes the content of the said observation site | part information allocated to the said image recording instruction | indication part according to the said endoscope identification information, The Claim 1 characterized by the above-mentioned. Endoscope system.
生体内に挿入可能な挿入部と、該挿入部の先端部に設けられ、被写体の像を撮像する撮像部と、を具備した内視鏡と、
前記生体内における前記挿入部の挿入形状を検出し、検出した該挿入形状を挿入形状情報として出力する内視鏡挿入形状検出部と、
前記挿入形状情報に基づいて前記先端部の位置情報を取得し、該位置情報に基づいて前記被写体の像が前記生体内のどの部位の像であるかを推定するとともに、該推定した結果に応じた観察部位情報を取得する観察部位情報取得部と、
前記被写体の像に応じた静止画像と前記観察部位情報とを関連付けつつ記録媒体へ出力させるための処理を行う画像記録制御部と、
を有することを特徴とする内視鏡システム。
An endoscope provided with an insertion section that can be inserted into a living body, and an imaging section that is provided at the distal end of the insertion section and captures an image of a subject;
An endoscope insertion shape detector that detects an insertion shape of the insertion portion in the living body and outputs the detected insertion shape as insertion shape information;
Based on the insertion shape information, the position information of the distal end is acquired, and based on the position information, it is estimated which part of the living body the image of the subject is, and according to the estimated result An observation site information acquisition unit for acquiring the observed site information;
An image recording control unit that performs a process for outputting to a recording medium while associating the still image corresponding to the subject image and the observation site information;
An endoscope system comprising:
前記画像記録制御部は、前記生体を識別するための生体識別情報を、前記静止画像及び前記観察部位情報に関連付けつつ前記記録媒体へ出力させるための処理を行うことを特徴とする請求項1乃至請求項6のいずれか一に記載の内視鏡システム。   The image recording control unit performs processing for outputting biometric identification information for identifying the living body to the recording medium in association with the still image and the observation site information. The endoscope system according to claim 6. さらに、前記記録媒体に記録された前記静止画像を再生するための指示が行われた際に、前記静止画像と、前記観察部位情報とを併せて表示部に表示させるための処理を行う表示制御部を有することを特徴とする請求項1乃至請求項7のいずれか一に記載の内視鏡システム。   Furthermore, when an instruction to reproduce the still image recorded on the recording medium is given, display control for performing processing for displaying the still image and the observation site information together on the display unit The endoscope system according to any one of claims 1 to 7, further comprising a section. 前記表示制御部は、前記記録媒体に記録された前記生体識別情報に基づき、前記内視鏡による観察中の一の生体が、前記記録媒体に記録された前記生体識別情報により識別される生体と一致することを検出した場合に、前記記録媒体に記録された前記静止画像と、該観察中の動画像とを併せて前記表示部に表示させるための処理をさらに行うことを特徴とする請求項8に記載の内視鏡システム。   The display control unit, based on the biometric identification information recorded on the recording medium, is a living organism that is identified by the biometric identification information recorded on the recording medium. The process for further displaying the still image recorded on the recording medium and the moving image being observed on the display unit together when the coincidence is detected. The endoscope system according to 8. 前記表示制御部は、前記記録媒体に記録された前記静止画像を再生するための指示が行われた際に、前記記録媒体に記録された前記観察部位情報に基づき、生体内において前記静止画像が取得された部位を示すテンプレート画像を生成させるための制御を行うとともに、前記静止画像と、前記観察部位情報と、該テンプレート画像とを併せて前記表示部に表示させるための処理をさらに行うことを特徴とする請求項8または請求項9に記載の内視鏡システム。   The display control unit, when instructed to reproduce the still image recorded on the recording medium, based on the observation site information recorded on the recording medium, Performing control for generating a template image indicating the acquired part, and further performing processing for displaying the still image, the observation part information, and the template image together on the display unit The endoscope system according to claim 8 or 9, wherein the endoscope system is characterized.
JP2007113324A 2007-04-23 2007-04-23 Endoscope system Pending JP2008264313A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007113324A JP2008264313A (en) 2007-04-23 2007-04-23 Endoscope system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007113324A JP2008264313A (en) 2007-04-23 2007-04-23 Endoscope system

Publications (1)

Publication Number Publication Date
JP2008264313A true JP2008264313A (en) 2008-11-06

Family

ID=40044652

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007113324A Pending JP2008264313A (en) 2007-04-23 2007-04-23 Endoscope system

Country Status (1)

Country Link
JP (1) JP2008264313A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011048940A1 (en) 2009-10-21 2011-04-28 オリンパス株式会社 Endoscope and wireless endoscope system
JP2018047067A (en) * 2016-09-21 2018-03-29 富士通株式会社 Image processing program, image processing method, and image processing device
CN111770716A (en) * 2018-02-21 2020-10-13 奥林巴斯株式会社 Medical system and control method for medical system
JPWO2021111756A1 (en) * 2019-12-02 2021-06-10

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011048940A1 (en) 2009-10-21 2011-04-28 オリンパス株式会社 Endoscope and wireless endoscope system
JP2018047067A (en) * 2016-09-21 2018-03-29 富士通株式会社 Image processing program, image processing method, and image processing device
CN111770716A (en) * 2018-02-21 2020-10-13 奥林巴斯株式会社 Medical system and control method for medical system
CN111770716B (en) * 2018-02-21 2023-12-01 奥林巴斯株式会社 Medical system and control method for medical system
JPWO2021111756A1 (en) * 2019-12-02 2021-06-10
WO2021111756A1 (en) * 2019-12-02 2021-06-10 富士フイルム株式会社 Endoscope system, control program, and display method
JP7335976B2 (en) 2019-12-02 2023-08-30 富士フイルム株式会社 Endoscope system, control program, and display method

Similar Documents

Publication Publication Date Title
JP5368668B2 (en) MEDICAL IMAGE DISPLAY DEVICE, MEDICAL IMAGE DISPLAY SYSTEM, AND METHOD FOR OPERATING MEDICAL IMAGE DISPLAY SYSTEM
JP4716794B2 (en) Image display device
US11482318B2 (en) Medical information processing system
JP2009050321A (en) Image processor
JP2005007145A (en) Device for recording medical image, method for displaying endoscopic image, method for fetching endoscopic image, and program
JP2009022446A (en) System and method for combined display in medicine
JP2008029521A (en) Endoscope system
JP5451718B2 (en) MEDICAL IMAGE DISPLAY DEVICE, MEDICAL IMAGE DISPLAY SYSTEM, AND METHOD FOR OPERATING MEDICAL IMAGE DISPLAY SYSTEM
JP4009583B2 (en) Medical image recording system
JP5593008B1 (en) Image processing apparatus and image processing method
JP2006055262A (en) Image display device, image display method and image display program
JP2008264313A (en) Endoscope system
JP2005157227A (en) Image display apparatus, image display method, and image display program
JP5160110B2 (en) Image filing system and image display system
AU2019420384B2 (en) Diagnosis assistance device, diagnosis assistance method, and program
JP4445742B2 (en) Image display apparatus, image display method, and image display program
JP2018047067A (en) Image processing program, image processing method, and image processing device
JP2003070748A (en) Medical information processing system
JP5872976B2 (en) Medical image management device
JPH10155736A (en) Signal processing apparatus for endoscope
JP4813178B2 (en) Endoscope device
JP4827414B2 (en) Electronic endoscope system and filing system
JP2021133083A (en) Medical image recording apparatus and x-ray imaging apparatus
JP2004065822A (en) Remote diagnostic system
JP2009207610A (en) Image processor for endoscope, image processing method for endoscope and endoscope system