JP2008264312A - Image pickup system - Google Patents

Image pickup system Download PDF

Info

Publication number
JP2008264312A
JP2008264312A JP2007113323A JP2007113323A JP2008264312A JP 2008264312 A JP2008264312 A JP 2008264312A JP 2007113323 A JP2007113323 A JP 2007113323A JP 2007113323 A JP2007113323 A JP 2007113323A JP 2008264312 A JP2008264312 A JP 2008264312A
Authority
JP
Japan
Prior art keywords
unit
image
imaging
endoscope
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007113323A
Other languages
Japanese (ja)
Other versions
JP4989288B2 (en
Inventor
Keisuke Tsutsui
啓介 筒井
Yuji Kutsuma
祐二 久津間
Ryusuke Yoshida
龍介 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Medical Systems Corp
Original Assignee
Olympus Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Medical Systems Corp filed Critical Olympus Medical Systems Corp
Priority to JP2007113323A priority Critical patent/JP4989288B2/en
Publication of JP2008264312A publication Critical patent/JP2008264312A/en
Application granted granted Critical
Publication of JP4989288B2 publication Critical patent/JP4989288B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image pickup system capable of improving operability more than conventional one. <P>SOLUTION: The image pickup system has: a first image pickup part and a second image pickup part for performing processing to output image pickup signals in accordance with an image of an object; a display image output part for performing processing to output to a display part images in accordance with the images of the object on the basis of the image pickup signal; a recorded image output part for performing processing to convert the image of the object into image data and to output them to a recording medium on the basis of the image pickup signal; an identification information determination part for detecting the kind of the first image pickup part and the kind of the second image pickup part; and a control unit for setting and controlling over whether or not respective associated parts related to respective functions are coordinated to perform processing in each of the functions performed by combination of processing performed by at least two of the first image pickup part, a second image pickup part, a display image output part, and the recorded image output part, on the basis of the detection result by the identification information determination part. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、撮像システムに関し、特に、所望の機能を連動させつつ使用するか否かを設定可能な撮像システムに関するものである。   The present invention relates to an imaging system, and more particularly to an imaging system capable of setting whether or not to use a desired function in conjunction with each other.

内視鏡等を有して構成される撮像システムは、工業分野及び医療分野等において従来広く用いられている。特に、医療分野における撮像システムは、生体内の各種器官の観察等の用途において主に用いられている。そして、前述した用途において用いられる撮像システムとしては、例えば、特許文献1に提案されている電子内視鏡システムがある。   An imaging system including an endoscope or the like has been widely used in the industrial field and the medical field. In particular, imaging systems in the medical field are mainly used for applications such as observation of various organs in a living body. And as an imaging system used in the use mentioned above, there exists an electronic endoscope system proposed by patent documents 1, for example.

特許文献1の電子内視鏡システムは、第1のスコープ(第1の内視鏡)及び該第1のスコープが接続される第1の画像処理プロセッサを具備する第1の電子内視鏡と、第2のスコープ(第2の内視鏡)及び該第2のスコープが接続される第2の画像処理プロセッサを具備する第2の電子内視鏡と、を有して構成されている。また、特許文献1の電子内視鏡システムは、前述した構成において、前記第1の電子内視鏡及び前記第2の電子内視鏡のうち、一方の電子内視鏡の動作モードを、他方の電子内視鏡の制御が可能なモードであるマスターモード、または、前記第1の電子内視鏡と前記第2の電子内視鏡との間においてデータのやり取りを行わないスタンドアロンモードに切り替え可能な機能を有している。
特開2003−38432号公報
The electronic endoscope system of Patent Document 1 includes a first electronic endoscope including a first scope (first endoscope) and a first image processor to which the first scope is connected. A second scope (second endoscope) and a second electronic endoscope having a second image processor to which the second scope is connected. In the electronic endoscope system of Patent Document 1, in the configuration described above, the operation mode of one of the first electronic endoscope and the second electronic endoscope is set to the other. Can be switched to the master mode, which is the mode in which the electronic endoscope can be controlled, or the stand-alone mode in which no data is exchanged between the first electronic endoscope and the second electronic endoscope It has various functions.
JP 2003-38432 A

しかし、特許文献1の電子内視鏡システムは、例えば、一方の電子内視鏡のみにおいて使用されることが望ましい(2つの電子内視鏡が非連動の状態において行われることが望ましい)所定の機能を使用する毎に、該一方の電子内視鏡の設定をマスターモードからスタンドアロンモードに切り替える手間をユーザに強いてしまうため、その結果、操作性が低下してしまうという課題を有している。   However, the electronic endoscope system of Patent Document 1 is desirably used only in one electronic endoscope, for example (desirably, the two electronic endoscopes are performed in an unlinked state). Each time the function is used, the user is forced to change the setting of the one electronic endoscope from the master mode to the stand-alone mode. As a result, there is a problem that the operability is lowered.

本発明は、前述した点に鑑みてなされたものであり、従来に比べて操作性を向上させることが可能な撮像システムを提供することを目的としている。   The present invention has been made in view of the above-described points, and an object of the present invention is to provide an imaging system capable of improving operability as compared with the conventional art.

本発明における第1の態様の撮像システムは、第1の被写体の像に応じた第1の撮像信号を出力する処理を行う第1の撮像部と、第2の被写体の像に応じた第2の撮像信号を出力する処理を行う第2の撮像部と、前記第1の撮像信号に基づき、前記第1の被写体の像に応じた第1の画像を表示部へ出力する処理を行うとともに、前記第2の撮像信号に基づき、前記第2の被写体の像に応じた第2の画像を前記表示部へ出力する処理を行う表示画像出力部と、前記第1の撮像信号に基づき、前記第1の被写体の像を第1の画像データに変換して記録媒体へ出力するための処理を行うとともに、前記第2の撮像信号に基づき、前記第2の被写体の像を第2の画像データに変換して該記録媒体へ出力するための処理を行う記録画像出力部と、前記第1の撮像部の種類を識別するための第1の識別情報と、前記第2の撮像部の種類を識別するための第2の識別情報と、を検出する識別情報判別部と、前記識別情報判別部の検出結果に基づき、前記第1の撮像部、前記第2の撮像部、前記表示画像出力部及び前記記録画像出力部のうちの少なくとも2つが行う処理の組み合わせにより実現される各機能において、該各機能に関連する各部を連動させつつ処理を行わせるか否かの設定を行うとともに、該設定に応じて前記各機能に関連する各部に対する制御を行う制御部と、を有することを特徴とする。   An imaging system according to a first aspect of the present invention includes a first imaging unit that performs processing for outputting a first imaging signal corresponding to an image of a first subject, and a second corresponding to an image of a second subject. A second imaging unit that performs a process of outputting the imaging signal, and a process of outputting a first image corresponding to the image of the first subject to the display unit based on the first imaging signal, A display image output unit that performs processing for outputting a second image corresponding to the image of the second subject to the display unit based on the second imaging signal, and the first imaging signal based on the first imaging signal. A process for converting an image of one subject into first image data and outputting it to a recording medium is performed, and an image of the second subject is converted into second image data based on the second imaging signal. A recorded image output unit for performing processing for conversion and output to the recording medium; An identification information determination unit for detecting first identification information for identifying the type of the second imaging unit and second identification information for identifying the type of the second imaging unit, and the identification information determination In each function realized by a combination of processes performed by at least two of the first imaging unit, the second imaging unit, the display image output unit, and the recorded image output unit based on the detection result of the unit, A control unit configured to set whether to perform processing while linking each unit related to each function, and to control each unit related to each function according to the setting, To do.

本発明における第2の態様の撮像システムは、前記第1の態様の撮像システムにおいて、さらに、前記第1の撮像部、前記第2の撮像部、前記表示画像出力部及び前記記録画像出力部のうちの少なくとも2つが行う処理の組み合わせにより実現される各機能を使用するための指示を行うことが可能な1または複数の指示部を有し、前記制御部は、前記1または複数の指示部のうちの一の指示部において前記各機能のうちの一の機能を使用するための指示が行われた場合に、前記一の機能に関連する各部を連動させつつ処理を行わせるか否かの設定に応じ、前記一の機能に関連する各部に対する制御を行うことを特徴とする。   An imaging system according to a second aspect of the present invention is the imaging system according to the first aspect, further comprising: the first imaging unit, the second imaging unit, the display image output unit, and the recorded image output unit. It has one or a plurality of instructing units capable of instructing to use each function realized by a combination of processes performed by at least two of them, and the control unit includes the one or more instructing units. Setting whether to perform processing while linking each unit related to the one function when an instruction to use one of the functions is given in one of the instruction units In response to the above, control is performed for each unit related to the one function.

本発明における第3の態様の撮像システムは、前記第1または前記第2の態様の撮像システムにおいて、前記第1の撮像部及び前記第2の撮像部は、各々異なる撮像装置に設けられていることを特徴とする。   The imaging system according to a third aspect of the present invention is the imaging system according to the first or second aspect, wherein the first imaging unit and the second imaging unit are provided in different imaging devices. It is characterized by that.

本発明における第4の態様の撮像システムは、前記第1または前記第2の態様の撮像システムにおいて、前記第1の撮像部及び前記第2の撮像部は、同じ撮像装置に設けられていることを特徴とする。   The imaging system according to a fourth aspect of the present invention is the imaging system according to the first or second aspect, wherein the first imaging unit and the second imaging unit are provided in the same imaging device. It is characterized by.

本発明における第5の態様の撮像システムは、前記第3の態様の撮像システムにおいて、さらに、前記第1の識別情報及び前記第2の識別情報に基づき、前記第1の画像と前記第1の撮像部を有する第1の撮像装置との対応を視覚的に示すための第1の告知情報と、前記第2の画像と前記第2の撮像部を有する第2の撮像装置との対応を視覚的に示すための第2の告知情報と、を出力させるための制御を行う告知情報生成部を有することを特徴とする。   The imaging system according to a fifth aspect of the present invention is the imaging system according to the third aspect, further based on the first identification information and the second identification information, based on the first identification information and the first identification information. The first notice information for visually indicating the correspondence with the first imaging device having the imaging unit, and the correspondence between the second image and the second imaging device having the second imaging unit are visually confirmed. And a notification information generation unit that performs control for outputting the second notification information to be displayed.

本発明における第6の態様の撮像システムは、前記第5の態様の撮像システムにおいて、前記第1の告知情報及び前記第2の告知情報は、各々異なる色により示されることを特徴とする。   The imaging system according to a sixth aspect of the present invention is the imaging system according to the fifth aspect, characterized in that the first notification information and the second notification information are indicated by different colors.

本発明における第7の態様の撮像システムは、前記第5または第6の態様の撮像システムにおいて、前記告知情報生成部は、前記第1の告知情報を出力させるための制御として、前記第1の撮像装置が有する第1の発光部において発せされる光の色と、前記表示部において前記第1の画像の近傍に表示される色とを対応させる制御を行うことを特徴とする。   The imaging system according to a seventh aspect of the present invention is the imaging system according to the fifth or sixth aspect, wherein the notification information generation unit is configured to control the first notification information as a control for outputting the first notification information. Control is performed to associate the color of light emitted from the first light emitting unit of the imaging apparatus with the color displayed in the vicinity of the first image in the display unit.

本発明における第8の態様の撮像システムは、前記第7の態様の撮像システムにおいて、さらに、前記告知情報生成部は、前記第2の告知情報を出力させるための制御として、前記第2の撮像装置が有する第2の発光部において発せされる光の色と、前記表示部において前記第2の画像の近傍に表示される色とを対応させる制御を行うことを特徴とする。   The image pickup system according to an eighth aspect of the present invention is the image pickup system according to the seventh aspect, wherein the notification information generating unit controls the second image pickup as control for outputting the second notification information. Control is performed to associate the color of light emitted from the second light emitting unit of the apparatus with the color displayed in the vicinity of the second image on the display unit.

本発明における第9の態様の撮像システムは、前記第2乃至第8の態様の撮像システムにおいて、前記指示部のうちの少なくとも1つは、前記撮像装置に設けられていることを特徴とする。   The image pickup system according to a ninth aspect of the present invention is the image pickup system according to the second to eighth aspects, wherein at least one of the instruction units is provided in the image pickup apparatus.

本発明における第10の態様の撮像システムは、前記第2乃至第9の態様の撮像システムにおいて、前記撮像装置は、内視鏡であることを特徴とする。   An imaging system according to a tenth aspect of the present invention is the imaging system according to the second to ninth aspects, wherein the imaging device is an endoscope.

本発明における第11の態様の撮像システムは、前記第1乃至第10の態様の撮像システムにおいて、前記表示画像出力部は、前記第1の画像と第1のポインタとを併せて前記表示部へ出力する処理、及び、前記第2の画像と第2のポインタとを併せて前記表示部へ出力する処理をさらに行い、前記制御部は、前記表示画像出力部における各処理が連動している場合に、前記第1の画像内における前記第1のポインタの表示位置と、前記第2の画像内における前記第2のポインタの表示位置とを対応させるための制御を行うことを特徴とする。   In an imaging system according to an eleventh aspect of the present invention, in the imaging system according to the first to tenth aspects, the display image output unit combines the first image and the first pointer to the display unit. When the process of outputting and the process of outputting the second image and the second pointer together to the display unit are further performed, and the control unit is associated with each process in the display image output unit In addition, control is performed to associate the display position of the first pointer in the first image with the display position of the second pointer in the second image.

本発明における第12の態様の撮像システムは、前記第1乃至第11の態様の撮像システムにおいて、前記制御部は、前記記録画像出力部における各処理が連動している場合に、前記第1の画像データと、前記第2の画像データとを関連付けつつ前記記録媒体へ出力させる制御を行うことを特徴とする。   The imaging system according to a twelfth aspect of the present invention is the imaging system according to any one of the first to eleventh aspects, wherein the control unit is configured such that when each process in the recorded image output unit is linked, Control is performed to output image data to the recording medium while associating the image data with the second image data.

本発明における撮像システムによると、従来に比べて操作性を向上させることが可能である。   According to the imaging system of the present invention, it is possible to improve the operability as compared with the conventional system.

以下、図面を参照して本発明の実施の形態を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(第1の実施形態)
図1から図4Bは、本発明の第1の実施形態に係るものである。図1は、第1の実施形態に係る撮像システムとしての内視鏡システムの要部の構成の一例を示す図である。図2Aは、図1の内視鏡のうち、一方の内視鏡において利用可能な機能に関する設定画面の一例を示す図である。図2Bは、図1の内視鏡のうち、他方の内視鏡において利用可能な機能に関する設定画面の一例を示す図である。図3Aは、図2Aの設定画面に応じた第1の変形例の設定画面を示す図である。図3Bは、図2Bの設定画面に応じた第1の変形例の設定画面を示す図である。図4Aは、図2Aの設定画面に応じた第2の変形例の設定画面を示す図である。図4Bは、図2Bの設定画面に応じた第2の変形例の設定画面を示す図である。
(First embodiment)
1 to 4B relate to the first embodiment of the present invention. FIG. 1 is a diagram illustrating an example of a configuration of a main part of an endoscope system as an imaging system according to the first embodiment. FIG. 2A is a diagram illustrating an example of a setting screen related to functions that can be used in one of the endoscopes in FIG. 1. FIG. 2B is a diagram illustrating an example of a setting screen related to functions available in the other endoscope of the endoscopes in FIG. 1. FIG. 3A is a diagram showing a setting screen of a first modification example corresponding to the setting screen of FIG. 2A. FIG. 3B is a diagram showing a setting screen of the first modification example corresponding to the setting screen of FIG. 2B. FIG. 4A is a diagram showing a setting screen of a second modification example corresponding to the setting screen of FIG. 2A. FIG. 4B is a diagram showing a setting screen of a second modification example corresponding to the setting screen of FIG. 2B.

撮像システムとしての内視鏡システム1は、図1に示すように、生体内に挿入されるとともに、該生体内に存在する被写体の像を撮像し、撮像信号として出力する内視鏡2A及び2Bと、内視鏡2A及び2Bから出力される撮像信号に対して信号処理を施すプロセッサ3と、プロセッサ3から出力される映像信号に応じた該被写体の像を画像表示する、表示部としてのモニタ5と、を要部として有している。また、プロセッサ3には、各種指示入力が可能な指示入力部4と、プロセッサ3から出力される画像データを記録可能な外部記録媒体6と、が接続されている。   As shown in FIG. 1, an endoscope system 1 as an imaging system is inserted into a living body, captures an image of a subject existing in the living body, and outputs endoscopes 2A and 2B as imaging signals. A processor 3 that performs signal processing on the imaging signals output from the endoscopes 2A and 2B, and a monitor as a display unit that displays an image of the subject corresponding to the video signal output from the processor 3 5 as a main part. The processor 3 is connected to an instruction input unit 4 capable of inputting various instructions and an external recording medium 6 capable of recording image data output from the processor 3.

なお、指示部としての機能を有する指示入力部4は、プロセッサ3等に対する指示に応じた指示信号の出力が可能な装置として、例えば、キーボード41、操作パネル42及びフットスイッチ43を有して構成されている。また、外部記録媒体6は、プロセッサ3から出力される画像データを記録可能な媒体として、例えば、プリンタ61及び画像ファイリング装置62を有して構成されている。   The instruction input unit 4 having a function as an instruction unit includes, for example, a keyboard 41, an operation panel 42, and a foot switch 43 as a device capable of outputting an instruction signal according to an instruction to the processor 3 or the like. Has been. The external recording medium 6 includes, for example, a printer 61 and an image filing device 62 as a medium capable of recording image data output from the processor 3.

撮像装置としての内視鏡2Aは、図1に示すように、プロセッサ3に対する指示が可能な操作部21Aと、細長に形成され、生体内への挿入が可能な挿入部22Aと、を有している。また、挿入部22Aの先端部には、被写体の像を撮像し、撮像信号として出力する撮像部23Aが設けられている。   As shown in FIG. 1, an endoscope 2 </ b> A as an imaging apparatus includes an operation unit 21 </ b> A that can instruct the processor 3 and an insertion unit 22 </ b> A that is formed in an elongated shape and can be inserted into a living body. ing. An imaging unit 23A that captures an image of a subject and outputs it as an imaging signal is provided at the distal end of the insertion unit 22A.

さらに、内視鏡2Aの操作部21Aには、図1に示すように、内視鏡2Aの機種、撮像部23Aの種類及びIDナンバー等の情報からなる第1の内視鏡識別情報が格納されているメモリ24Aと、プロセッサ3の制御に基づいて点灯(及び消灯)する赤、青及び緑の3個のLEDを具備するLED部25Aと、プロセッサ3に対する指示が可能な複数のスイッチからなる、指示部としての機能を有するスコープスイッチ群26Aと、が設けられている。なお、LED部25Aは、内視鏡2Aの操作部21Aにおいて、点灯(及び消灯)状態をユーザが視認し易い箇所に設けられているものとする。   Further, as shown in FIG. 1, the operation unit 21A of the endoscope 2A stores first endoscope identification information including information such as the model of the endoscope 2A, the type of the imaging unit 23A, and the ID number. A memory unit 24A, an LED unit 25A having three LEDs of red, blue, and green that are turned on (and turned off) under the control of the processor 3, and a plurality of switches that can instruct the processor 3 A scope switch group 26A having a function as an instruction unit is provided. It is assumed that the LED unit 25A is provided at a location where the user can easily see the lighting (and extinguishing) state in the operation unit 21A of the endoscope 2A.

また、操作部21Aの基端側には、内視鏡2Aの各部に接続される複数の信号線を内部に具備したケーブル27Aが設けられている。そして、内視鏡2Aは、前記ケーブル27Aを介し、プロセッサ3のコネクタ31に対して電気的に接続される。さらに、操作部21Aの先端側には、内部に図示しない処置具チャンネルが形成された挿入部22Aが連接されている。   Further, a cable 27A having a plurality of signal lines connected to each part of the endoscope 2A is provided on the proximal end side of the operation unit 21A. The endoscope 2A is electrically connected to the connector 31 of the processor 3 via the cable 27A. Furthermore, an insertion portion 22A having a treatment instrument channel (not shown) formed therein is connected to the distal end side of the operation portion 21A.

撮像装置としての内視鏡2Bは、図1に示すように、プロセッサ3に対する指示が可能な操作部21Bと、挿入部22Aよりも小さい径を有して形成され、挿入部22Aの図示しない処置具チャンネルに挿通された状態のまま生体内への挿入が可能な挿入部22Bと、を有している。また、挿入部22Bの先端部には、被写体の像を撮像し、撮像信号として出力する撮像部23Bが設けられている。   As shown in FIG. 1, an endoscope 2B as an imaging device is formed with an operation unit 21B capable of giving instructions to the processor 3 and a diameter smaller than that of the insertion unit 22A, and a treatment (not shown) of the insertion unit 22A. And an insertion portion 22B that can be inserted into the living body while being inserted through the instrument channel. An imaging unit 23B that captures an image of a subject and outputs it as an imaging signal is provided at the distal end of the insertion unit 22B.

さらに、内視鏡2Bの操作部21Bには、図1に示すように、内視鏡2Bの機種、撮像部23Bの種類及びIDナンバー等の情報からなる第2の内視鏡識別情報が格納されているメモリ24Bと、プロセッサ3の制御に基づいて点灯(及び消灯)する赤、青及び緑の3個のLEDを具備するLED部25Bと、プロセッサ3に対する指示が可能な複数のスイッチからなる、指示部としての機能を有するスコープスイッチ群26Bと、が設けられている。なお、LED部25Bは、内視鏡2Bの操作部21Bにおいて、点灯(及び消灯)状態をユーザが視認し易い箇所に設けられているものとする。   Furthermore, as shown in FIG. 1, the operation unit 21B of the endoscope 2B stores second endoscope identification information including information such as the model of the endoscope 2B, the type of the imaging unit 23B, and the ID number. A memory unit 24B, an LED unit 25B having three red, blue, and green LEDs that are turned on (and turned off) based on the control of the processor 3, and a plurality of switches that can instruct the processor 3 A scope switch group 26B having a function as an instruction unit is provided. It is assumed that the LED unit 25B is provided at a location where the user can easily see the lighting (and extinguishing) state in the operation unit 21B of the endoscope 2B.

また、操作部21Bの内部には、図示しないアンテナ等を具備して構成され、プロセッサ3の無線通信部32との間において無線による電気信号のやりとりが可能な無線通信部27Bが設けられている。   The operation unit 21B is provided with a wireless communication unit 27B that includes an antenna (not shown) and the like, and that can wirelessly exchange electrical signals with the wireless communication unit 32 of the processor 3. .

プロセッサ3は、図1に示すように、内視鏡2Aのケーブル27Aが着脱自在に接続可能なコネクタ31と、内視鏡2Bとの間において無線による通信を行うことが可能な無線通信部32と、LED部33A及び33Bと、信号処理部34と、識別情報判別部35と、表示画像出力部36と、記録画像出力部37と、CPU38と、を有している。   As shown in FIG. 1, the processor 3 can wirelessly communicate between the connector 31 to which the cable 27A of the endoscope 2A can be detachably connected and the endoscope 2B. And LED units 33A and 33B, a signal processing unit 34, an identification information determination unit 35, a display image output unit 36, a recorded image output unit 37, and a CPU 38.

LED部33Aは、識別情報判別部35の制御により各々点灯(及び消灯)する赤、青及び緑の3個のLEDを具備して構成されている。また、LED部33Aは、プロセッサ3のコネクタ31の近傍において、点灯(及び消灯)状態をユーザが視認し易い個所に設けられている。   The LED unit 33A includes three LEDs, red, blue, and green, each of which is turned on (and turned off) under the control of the identification information determination unit 35. In addition, the LED unit 33A is provided in the vicinity of the connector 31 of the processor 3 at a location where the user can easily see the lighting (and extinguishing) state.

LED部33Bは、識別情報判別部35の制御により各々点灯(及び消灯)する赤、青及び緑の3個のLEDを具備して構成されている。また、LED部33Bは、プロセッサ3の無線通信部32の近傍において、点灯(及び消灯)状態をユーザが視認し易い個所に設けられている。   The LED unit 33B includes three LEDs of red, blue, and green that are turned on (and turned off) under the control of the identification information determination unit 35. In addition, the LED unit 33B is provided in the vicinity of the wireless communication unit 32 of the processor 3 at a location where the user can easily see the lighting (and extinguishing) state.

信号処理部34は、CPU38の制御に基づき、内視鏡2A及び2Bから出力される撮像信号各々に対し、例えばノイズ除去等の信号処理を施すとともに、該信号処理を施した後の撮像信号を、表示画像出力部36または(及び)記録画像出力部37へ出力する。また、信号処理部34は、識別情報判別部35の制御に基づき、内視鏡2A及び2Bの接続状態に応じた所定の告知情報を、前記信号処理を施した後の撮像信号に重畳して出力する。   Under the control of the CPU 38, the signal processing unit 34 performs signal processing such as noise removal on each of the imaging signals output from the endoscopes 2A and 2B, and outputs the imaging signal after the signal processing. The image is output to the display image output unit 36 or (and) the recorded image output unit 37. The signal processing unit 34 superimposes predetermined notification information according to the connection state of the endoscopes 2A and 2B on the imaging signal after the signal processing based on the control of the identification information determination unit 35. Output.

識別情報判別部35は、内視鏡2Aのメモリ24Aに格納された第1の内視鏡識別情報と、内視鏡2Bのメモリ24Bに格納された第2の内視鏡識別情報とを読み込むことにより、内視鏡2A及び内視鏡2Bの接続状態、及び、撮像部23A及び23Bの種類を検出する。そして、識別情報判別部35は、前記接続状態に基づく制御をLED部25A、25B、33A、33B及び信号処理部34に対して行う。   The identification information determination unit 35 reads the first endoscope identification information stored in the memory 24A of the endoscope 2A and the second endoscope identification information stored in the memory 24B of the endoscope 2B. Thus, the connection state of the endoscope 2A and the endoscope 2B and the types of the imaging units 23A and 23B are detected. And the identification information discrimination | determination part 35 performs control based on the said connection state with respect to LED part 25A, 25B, 33A, 33B, and the signal processing part 34. FIG.

表示画像出力部36は、信号処理部34から出力される撮像信号に対し、例えば、ホワイトバランス処理、強調処理、拡大処理、フリーズ画像の生成及び映像信号への変換処理等の処理を施すとともに、該処理を施した後の映像信号をモニタ5へ出力する。これにより、モニタ5には、内視鏡2Aにより撮像された被写体の像に応じた観察画像51Aと、内視鏡2Bにより撮像された被写体の像に応じた観察画像51Bと、内視鏡2Aの接続状態に応じた告知情報52Aと、内視鏡2Bの接続状態に応じた告知情報52Bと、が同一の画面上に併せて画像表示される。   The display image output unit 36 performs processing such as white balance processing, enhancement processing, enlargement processing, freeze image generation, and conversion processing to a video signal on the imaging signal output from the signal processing unit 34. The video signal after the processing is output to the monitor 5. Accordingly, the monitor 5 has an observation image 51A corresponding to the subject image captured by the endoscope 2A, an observation image 51B corresponding to the subject image captured by the endoscope 2B, and the endoscope 2A. The notification information 52A corresponding to the connection state of the camera and the notification information 52B corresponding to the connection state of the endoscope 2B are displayed together on the same screen.

記録画像出力部37は、信号処理部34から出力される撮像信号に対し、各記録媒体に応じたフォーマットによる圧縮処理及び画像データへの変換処理等の処理を施すとともに、該該処理を施した後の画像データを外部記録媒体6へ出力する。なお、本実施形態において、画像ファイリング装置62に対して出力される画像データは、例えば、キーボード41において入力された、観察対象の生体を識別するための生体識別情報に基づいて記録画像出力部37により生成されたフォルダ内に記録されるものとする。   The recorded image output unit 37 performs processing such as compression processing and conversion processing to image data in a format corresponding to each recording medium on the imaging signal output from the signal processing unit 34 and performs the processing. The subsequent image data is output to the external recording medium 6. In the present embodiment, the image data output to the image filing device 62 is, for example, the recorded image output unit 37 based on the biometric identification information for identifying the living body to be observed, which is input from the keyboard 41. It shall be recorded in the folder generated by.

制御部としての機能を有するCPU38は、指示入力部4の各部、スコープスイッチ群26A及びスコープスイッチ群26Bからの指示信号に基づく制御を、プロセッサ3の各部等に対して行う。   The CPU 38 having a function as a control unit performs control based on instruction signals from the units of the instruction input unit 4, the scope switch group 26 </ b> A and the scope switch group 26 </ b> B, and the like.

CPU38は、指示入力部4の各部からの指示信号に基づき、プロセッサ3の各種設定が可能な設定画面をモニタ5に表示させるための制御を信号処理部34に対して行う。そして、ユーザは、前記設定画面において、例えば、スコープスイッチ群26A及び26Bが有する各スイッチに関する設定等を行うことができる。なお、本実施形態のCPU38は、以降(図2A〜図4B)に例示する各設定画面上においてなされた設定内容を反映させるための各種制御及び処理を内視鏡2A(の撮像部23A)、内視鏡2B(の撮像部23B)及びプロセッサ3の各部に対して行うものとする。   The CPU 38 controls the signal processing unit 34 to display on the monitor 5 a setting screen on which various settings of the processor 3 can be made based on instruction signals from each unit of the instruction input unit 4. And the user can perform the setting regarding each switch which scope switch groups 26A and 26B have, for example on the setting screen. The CPU 38 of the present embodiment performs various controls and processes for reflecting the setting contents made on each setting screen exemplified in the following (FIGS. 2A to 4B), the endoscope 2A (the imaging unit 23A), It is assumed that this is performed for each part of the endoscope 2B (the imaging unit 23B) and the processor 3.

また、CPU38は、識別情報判別部35による撮像部23A及び23Bの種類の検出結果に基づき、前記設定画面に含まれる各項目に関する初期設定を行う。   Further, the CPU 38 performs initial setting for each item included in the setting screen based on the detection result of the types of the imaging units 23A and 23B by the identification information determination unit 35.

次に、本実施形態の内視鏡システム1の作用について説明を行う。   Next, the operation of the endoscope system 1 of the present embodiment will be described.

まず、ユーザは、内視鏡システム1の各部の電源を投入した後、内視鏡2Aをケーブル27Aによりプロセッサ3に接続するとともに、内視鏡2Bの無線通信部27Bを無線通信部32の近傍に配置する。   First, after turning on the power of each part of the endoscope system 1, the user connects the endoscope 2 </ b> A to the processor 3 with the cable 27 </ b> A, and connects the wireless communication unit 27 </ b> B of the endoscope 2 </ b> B to the vicinity of the wireless communication unit 32. To place.

前述した状態において、識別情報判別部35は、内視鏡2Aのメモリ24Aに格納された第1の内視鏡識別情報と、内視鏡2Bのメモリ24Bに格納された第2の内視鏡識別情報とを読み込むことにより、内視鏡2A及び2Bが両方ともプロセッサ3に接続されたことを検出する。そして、告知情報生成部としての識別情報判別部35は、前記検出した結果に基づき、告知情報としての第1の色によりLED部25A及び33Aを発光させるとともに、該第1の色とは異なる色である、告知情報としての第2の色によりLED部25B及び33Bを発光させるための制御を行う。また、告知情報生成部としての識別情報判別部35は、前記検出した結果に基づき、告知情報52Aとしての前記第1の色を観察画像51Aの近傍に表示させるとともに、告知情報52Bとしての前記第2の色を観察画像51Bの近傍に表示させるための制御を信号処理部34に対して行う。   In the state described above, the identification information discriminating unit 35 includes the first endoscope identification information stored in the memory 24A of the endoscope 2A and the second endoscope stored in the memory 24B of the endoscope 2B. By reading the identification information, it is detected that both the endoscopes 2A and 2B are connected to the processor 3. Then, the identification information determination unit 35 as the notification information generation unit causes the LED units 25A and 33A to emit light with the first color as the notification information based on the detected result, and a color different from the first color. Control for causing the LED portions 25B and 33B to emit light with the second color as the notification information is performed. In addition, the identification information determination unit 35 as the notification information generation unit displays the first color as the notification information 52A in the vicinity of the observation image 51A based on the detection result, and the first information as the notification information 52B. Control for displaying the two colors in the vicinity of the observation image 51 </ b> B is performed on the signal processing unit 34.

発光部としてのLED部25A及び33Aは、識別情報判別部35の制御に基づいて赤、青及び緑の3個のLEDの点灯状態を組み合わせることにより、前記第1の色を発するように動作する。また、発光部としてのLED部25B及び33Bは、識別情報判別部35の制御に基づいて赤、青及び緑の3個のLEDの点灯状態を組み合わせることにより、前記第2の色を発するように動作する。   The LED units 25A and 33A as the light emitting units operate to emit the first color by combining the lighting states of the three LEDs of red, blue, and green based on the control of the identification information determination unit 35. . Further, the LED units 25B and 33B as the light emitting units emit the second color by combining the lighting states of the three LEDs of red, blue, and green based on the control of the identification information determination unit 35. Operate.

信号処理部34は、識別情報判別部35の制御に基づき、所定の告知情報としての前記第1の色及び前記第2の色を撮像信号に重畳し、表示画像出力部36を介してモニタ5へ出力する。   The signal processing unit 34 superimposes the first color and the second color as predetermined notification information on the imaging signal based on the control of the identification information determination unit 35, and the monitor 5 via the display image output unit 36. Output to.

以上に述べた作用により、ユーザは、LED部25A、LED部33A及び告知情報52Aの各部に前記第1の色を視覚的に容易に認識することができ、また、LED部25B、LED部33B及び告知情報52Bの各部に前記第2の色を視覚的に容易に認識することができる。これにより、ユーザは、プロセッサ3に接続された内視鏡と、モニタ5に表示される被写体の像の画像との対応関係を、簡単かつ誤解のないように認識することができる。   By the operation described above, the user can easily visually recognize the first color in each part of the LED unit 25A, the LED unit 33A, and the notification information 52A, and the LED unit 25B and the LED unit 33B. In addition, the second color can be easily recognized visually in each part of the notification information 52B. Thereby, the user can recognize the correspondence between the endoscope connected to the processor 3 and the image of the subject image displayed on the monitor 5 easily and without misunderstanding.

そして、例えば、設定画面を表示させるための指示がキーボード41においてなされることにより、プロセッサ3の各種設定が可能な設定画面のうちの1つとして、図2Aに示す設定画面がモニタ5に表示される。さらに、例えば、設定画面を表示させるための指示がキーボード41においてなされることにより、プロセッサ3の各種設定が可能な設定画面のうちの1つとして、図2Bに示す設定画面がモニタ5に表示される。なお、図2A及び図2Bに示す設定画面に含まれる各項目の設定内容は、識別情報判別部35による撮像部23A及び23Bの種類の検出結果に基づいてCPU38が行う初期設定の内容の一例を示すものであるとする。   For example, when an instruction for displaying the setting screen is given on the keyboard 41, the setting screen shown in FIG. 2A is displayed on the monitor 5 as one of the setting screens on which various settings of the processor 3 can be performed. The Further, for example, when an instruction for displaying the setting screen is given on the keyboard 41, the setting screen shown in FIG. 2B is displayed on the monitor 5 as one of the setting screens capable of various settings of the processor 3. The 2A and 2B is an example of initial setting contents performed by the CPU 38 based on the detection results of the types of the imaging units 23A and 23B by the identification information determination unit 35. It is assumed to be shown.

図2Aに示す設定画面は、コネクタ31に接続された内視鏡2A(接続ID=1)のスコープスイッチ群26Aが有する各スイッチに関する設定画面である。また、図2Bに示す設定画面は、無線通信部32に対する通信が可能な位置に配置された内視鏡2B(接続ID=2)のスコープスイッチ群26Bが有する各スイッチに関する設定画面である。   The setting screen illustrated in FIG. 2A is a setting screen related to each switch included in the scope switch group 26A of the endoscope 2A (connection ID = 1) connected to the connector 31. The setting screen illustrated in FIG. 2B is a setting screen related to each switch included in the scope switch group 26B of the endoscope 2B (connection ID = 2) arranged at a position where communication with the wireless communication unit 32 is possible.

ユーザは、図2Aに示す設定画面上において、例えば、スコープスイッチ群26Aが有する各スイッチからの指示により利用可能な機能を、スコープスイッチ群26Bが有する各スイッチに連動させるか否かの設定を行うことができる。   On the setting screen shown in FIG. 2A, for example, the user sets whether or not to link a function that can be used in accordance with an instruction from each switch included in the scope switch group 26A to each switch included in the scope switch group 26B. be able to.

具体的には、図2Aの設定画面に示す設定においては、スコープスイッチ群26Aが有するスイッチのうち、第1のスイッチ(SW1)におけるフリーズ指示が連動、第2のスイッチ(SW2)におけるレリーズ指示が非連動、第3のスイッチ(SW3)における拡大指示が連動、及び、第4のスイッチ(SW4)におけるホワイトバランス指示が非連動として設定されている。また、図2Bの設定画面に示す設定においては、前述した、図2Aの設定画面に示す設定と略同一の設定が反映されている。   Specifically, in the setting shown in the setting screen of FIG. 2A, among the switches of the scope switch group 26A, the freeze instruction in the first switch (SW1) is linked and the release instruction in the second switch (SW2) is Non-interlocking, the enlargement instruction in the third switch (SW3) is set as interlocking, and the white balance instruction in the fourth switch (SW4) is set as non-interlocking. In the setting shown in the setting screen of FIG. 2B, the setting substantially the same as the setting shown in the setting screen of FIG. 2A described above is reflected.

図2A及び図2Bに示す設定が行われると、例えば、スコープスイッチ群26Aが有する第1のスイッチ、及び、スコープスイッチ群26Bが有する第1のスイッチのうちのいずれか一方においてフリーズ指示がなされた場合に、観察画像51A及び51Bの両画像がフリーズ画像(静止画像)としてモニタ5に表示される。   When the setting shown in FIG. 2A and FIG. 2B is performed, for example, a freeze instruction is given at one of the first switch of the scope switch group 26A and the first switch of the scope switch group 26B. In this case, both the observed images 51A and 51B are displayed on the monitor 5 as freeze images (still images).

また、図2A及び図2Bに示す設定が行われると、例えば、スコープスイッチ群26Aが有する第2のスイッチにおいてレリーズ指示がなされた場合には、観察画像51Aの画像データのみが外部記録媒体6に対して出力され、スコープスイッチ群26Bが有する第2のスイッチにおいてレリーズ指示がなされた場合には、観察画像51Bの画像データのみが外部記録媒体6に対して出力される。   2A and 2B are performed, for example, when a release instruction is given by the second switch of the scope switch group 26A, only the image data of the observation image 51A is stored in the external recording medium 6. On the other hand, when a release instruction is issued at the second switch of the scope switch group 26B, only the image data of the observation image 51B is output to the external recording medium 6.

さらに、図2A及び図2Bに示す設定が行われると、例えば、スコープスイッチ群26Aが有する第3のスイッチ、及び、スコープスイッチ群26Bが有する第3のスイッチのうちのいずれか一方において拡大指示がなされた場合に、観察画像51A及び51Bの両画像が同様に拡大されつつモニタ5に表示される。   Further, when the setting shown in FIGS. 2A and 2B is performed, for example, an enlargement instruction is given to one of the third switch of the scope switch group 26A and the third switch of the scope switch group 26B. When it is made, both the observation images 51A and 51B are displayed on the monitor 5 while being similarly enlarged.

そして、図2A及び図2Bに示す設定が行われると、例えば、スコープスイッチ群26Aが有する第4のスイッチにおいてホワイトバランス指示がなされた場合には、内視鏡2Aに応じたホワイトバランスの処理が行われスコープスイッチ群26Bが有する第4のスイッチにおいてホワイトバランス指示がなされた場合には、内視鏡2Bに応じたホワイトバランスの処理が行われる。   When the settings shown in FIGS. 2A and 2B are performed, for example, when a white balance instruction is given at the fourth switch of the scope switch group 26A, white balance processing corresponding to the endoscope 2A is performed. When a white balance instruction is given in the fourth switch of the scope switch group 26B, white balance processing corresponding to the endoscope 2B is performed.

以上に述べた作用により、ユーザは、内視鏡2A及び2Bを用いた観察の際に、スコープスイッチ群26A及び26Bが有する各スイッチのうちのいずれかからの指示により利用可能な各機能のうち、所望の機能を連動または非連動させつつ観察を行うことができる。   By the above-described operation, the user can use the functions that can be used according to an instruction from one of the switches of the scope switch groups 26A and 26B when observing using the endoscopes 2A and 2B. The observation can be performed while interlocking or not interlocking the desired function.

スコープスイッチ群26A及び26Bが有する各スイッチのうちのいずれかからの指示により利用可能な各機能を連動させるか否かを設定するための設定画面は、図2A及び図2Bにより示されるものに限らず、例えば、一方の内視鏡のスコープスイッチ群を操作した場合にのみ機能を連動させるような、図3A及び図3Bにより示されるものであっても良い。なお、図3A及び図3Bに示す設定画面に含まれる各項目の設定内容は、識別情報判別部35による撮像部23A及び23Bの種類の検出結果に基づいてCPU38が行う初期設定の内容の一例を示すものであるとする。   The setting screen for setting whether or not to link each function that can be used in accordance with an instruction from any of the switches included in the scope switch groups 26A and 26B is not limited to that shown in FIGS. 2A and 2B. Instead, for example, it may be the one shown in FIGS. 3A and 3B in which the functions are linked only when the scope switch group of one endoscope is operated. The setting contents of each item included in the setting screens shown in FIGS. 3A and 3B are examples of the initial setting contents performed by the CPU 38 based on the detection results of the types of the imaging units 23A and 23B by the identification information determination unit 35. It is assumed to be shown.

具体的には、図3Aの設定画面に示す設定においては、内視鏡2A(接続ID=1)のスコープスイッチ群26Aが有する各スイッチ(SW1〜SW4)に割り振られた、フリーズ指示、レリーズ指示、拡大指示及びホワイトバランス指示が連動として設定されている。また、図3Bの設定画面に示す設定においては、内視鏡2B(接続ID=2)のスコープスイッチ群26Bが有する各スイッチ(SW1〜SW4)に割り振られた、フリーズ指示、レリーズ指示、拡大指示及びホワイトバランス指示が非連動として設定されている。   Specifically, in the setting shown in the setting screen of FIG. 3A, a freeze instruction and a release instruction assigned to each switch (SW1 to SW4) included in the scope switch group 26A of the endoscope 2A (connection ID = 1). The enlargement instruction and the white balance instruction are set as interlocking. In the setting shown in the setting screen of FIG. 3B, a freeze instruction, a release instruction, and an enlargement instruction assigned to each switch (SW1 to SW4) included in the scope switch group 26B of the endoscope 2B (connection ID = 2). And the white balance instruction is set as non-interlocking.

図3A及び図3Bに示す設定が行われると、例えば、スコープスイッチ群26Aが有する第1のスイッチにおいてフリーズ指示がなされた場合には、観察画像51A及び51Bの両画像がフリーズ画像(静止画像)としてモニタ5に表示され、スコープスイッチ群26Bが有する第1のスイッチにおいてフリーズ指示がなされた場合には、観察画像51Bのみがフリーズ画像(静止画像)としてモニタ5に表示される。   When the setting shown in FIGS. 3A and 3B is performed, for example, when a freeze instruction is given in the first switch of the scope switch group 26A, both the observation images 51A and 51B are frozen images (still images). When the freeze instruction is given by the first switch of the scope switch group 26B, only the observation image 51B is displayed on the monitor 5 as a freeze image (still image).

また、図3A及び図3Bに示す設定が行われると、例えば、スコープスイッチ群26Aが有する第2のスイッチにおいてレリーズ指示がなされた場合には、観察画像51A及び51Bの両画像の画像データが外部記録媒体6に対して出力され、スコープスイッチ群26Bが有する第2のスイッチにおいてフリーズ指示がなされた場合には、観察画像51Bの画像データのみが外部記録媒体6に対して出力される。   When the settings shown in FIGS. 3A and 3B are performed, for example, when a release instruction is given by the second switch of the scope switch group 26A, the image data of both the observation images 51A and 51B are externally transmitted. When a freeze instruction is output to the recording medium 6 and the second switch of the scope switch group 26B is instructed, only the image data of the observation image 51B is output to the external recording medium 6.

さらに、図3A及び図3Bに示す設定が行われると、例えば、スコープスイッチ群26Aが有する第3のスイッチにおいて拡大指示がなされた場合には、観察画像51A及び51Bの両画像が同様に拡大されつつモニタ5に表示され、スコープスイッチ群26Bが有する第3のスイッチにおいて拡大指示がなされた場合には、観察画像51Bのみが拡大されつつモニタ5に表示される。   Furthermore, when the settings shown in FIGS. 3A and 3B are performed, for example, when an enlargement instruction is given at the third switch of the scope switch group 26A, both the observation images 51A and 51B are enlarged similarly. However, when an enlargement instruction is given by the third switch of the scope switch group 26B, only the observation image 51B is displayed on the monitor 5 while being enlarged.

そして、図3A及び図3Bに示す設定が行われると、例えば、スコープスイッチ群26Aが有する第4のスイッチにおいてホワイトバランス指示がなされた場合には、内視鏡2A及び2Bに応じたホワイトバランス処理が略同じタイミングにおいて行われ、スコープスイッチ群26Bが有する第4のスイッチにおいてホワイトバランス指示がなされた場合には、内視鏡2Bに応じたホワイトバランス処理が行われる。   When the settings shown in FIGS. 3A and 3B are performed, for example, when a white balance instruction is given at the fourth switch of the scope switch group 26A, white balance processing corresponding to the endoscopes 2A and 2B is performed. Are performed at substantially the same timing, and when a white balance instruction is given by the fourth switch of the scope switch group 26B, white balance processing corresponding to the endoscope 2B is performed.

スコープスイッチ群26A及び26Bが有する各スイッチのうちのいずれかからの指示により利用可能な各機能を連動させるか否かを設定するための設定画面は、図2A、図2B、図3A及び図3Bにより示されるものに限らず、例えば、所望の機能のみを連動させるような、図4A及び図4Bにより示されるものであっても良い。なお、図4A及び図4Bに示す設定画面に含まれる各項目の設定内容は、識別情報判別部35による撮像部23A及び23Bの種類の検出結果に基づいてCPU38が行う初期設定の内容の一例を示すものであるとする。   The setting screen for setting whether or not each function that can be used is linked according to an instruction from one of the switches included in the scope switch groups 26A and 26B is shown in FIGS. 2A, 2B, 3A, and 3B. For example, it may be the one shown in FIGS. 4A and 4B in which only a desired function is linked. It should be noted that the setting contents of each item included in the setting screen shown in FIGS. 4A and 4B are examples of the contents of the initial setting performed by the CPU 38 based on the detection results of the types of the imaging units 23A and 23B by the identification information determination unit 35. It is assumed to be shown.

具体的には、図4Aの設定画面に示す設定においては、内視鏡2A(接続ID=1)のスコープスイッチ群26Aが有するスイッチのうち、第1のスイッチ(SW1)におけるフリーズ指示が連動、第2のスイッチ(SW2)におけるレリーズ指示が非連動、第3のスイッチ(SW3)における拡大指示が連動、及び、第4のスイッチ(SW4)における強調指示が非連動として設定されている。また、図4Bの設定画面に示す設定においては、内視鏡2B(接続ID=2)のスコープスイッチ群26Bが有するスイッチのうち、第1のスイッチ(SW1)におけるレリーズ指示が非連動、第2のスイッチ(SW2)における強調指示が非連動、第3のスイッチ(SW3)における拡大指示が連動、及び、第4のスイッチ(SW4)におけるホワイトバランス指示が非連動として設定されている。すなわち、図4A及び図4Bの設定画面に示す設定においては、フリーズ指示及び拡大指示が連動させる機能として設定され、レリーズ指示、強調指示及びホワイトバランス指示が非連動させない機能として設定されている。   Specifically, in the setting shown in the setting screen of FIG. 4A, the freeze instruction in the first switch (SW1) among the switches of the scope switch group 26A of the endoscope 2A (connection ID = 1) is linked. The release instruction in the second switch (SW2) is set as non-linkage, the enlargement instruction in the third switch (SW3) is set in linkage, and the enhancement instruction in the fourth switch (SW4) is set as non-linkage. Further, in the setting shown in the setting screen of FIG. 4B, among the switches of the scope switch group 26B of the endoscope 2B (connection ID = 2), the release instruction in the first switch (SW1) is not linked, The highlight instruction in the switch (SW2) is set as non-interlocking, the enlargement instruction in the third switch (SW3) is linked, and the white balance instruction in the fourth switch (SW4) is set as non-linkage. That is, in the settings shown in the setting screens of FIGS. 4A and 4B, the function that links the freeze instruction and the enlargement instruction is set, and the function that does not link the release instruction, the enhancement instruction, and the white balance instruction is set.

図4A及び図4Bに示す設定が行われると、例えば、スコープスイッチ群26Aが有する第1のスイッチにおいてフリーズ指示がなされた場合には、観察画像51A及び51Bの両画像がフリーズ画像(静止画像)としてモニタ5に表示され、スコープスイッチ群26Bが有する第1のスイッチにおいてレリーズ指示がなされた場合には、観察画像51Bの画像データのみが外部記録媒体6に対して出力される。   When the settings shown in FIGS. 4A and 4B are performed, for example, when a freeze instruction is given at the first switch of the scope switch group 26A, both the observation images 51A and 51B are frozen images (still images). Is displayed on the monitor 5 and when the release instruction is given by the first switch of the scope switch group 26B, only the image data of the observation image 51B is output to the external recording medium 6.

また、図4A及び図4Bに示す設定が行われると、例えば、スコープスイッチ群26Aが有する第2のスイッチにおいてレリーズ指示がなされた場合には、観察画像51Aの画像データのみが外部記録媒体6に対して出力され、スコープスイッチ群26Bが有する第2のスイッチにおいて強調指示がなされた場合には、観察画像51Bのみに対して強調処理が施される。   4A and 4B is performed, for example, when a release instruction is given by the second switch of the scope switch group 26A, only the image data of the observation image 51A is stored in the external recording medium 6. On the other hand, when an instruction for emphasis is given in the second switch included in the scope switch group 26B, the emphasis process is performed only on the observation image 51B.

さらに、図4A及び図4Bに示す設定が行われると、例えば、スコープスイッチ群26Aが有する第3のスイッチ、及び、スコープスイッチ群26Bが有する第3のスイッチのうちのいずれか一方において拡大指示がなされた場合に、観察画像51A及び51Bの両画像が同様に拡大されつつモニタ5に表示される。   Furthermore, when the setting shown in FIGS. 4A and 4B is performed, for example, an enlargement instruction is given to one of the third switch of the scope switch group 26A and the third switch of the scope switch group 26B. When it is made, both the observation images 51A and 51B are displayed on the monitor 5 while being similarly enlarged.

そして、図4A及び図4Bに示す設定が行われると、例えば、スコープスイッチ群26Aが有する第4のスイッチにおいて強調指示がなされた場合には、観察画像51Aのみに対して強調処理が施され、スコープスイッチ群26Bが有する第4のスイッチにおいてホワイトバランス指示がなされた場合には、内視鏡2Bに応じたホワイトバランス処理が行われる。   When the setting shown in FIGS. 4A and 4B is performed, for example, when an enhancement instruction is given in the fourth switch of the scope switch group 26A, enhancement processing is performed only on the observation image 51A. When a white balance instruction is given by the fourth switch of the scope switch group 26B, white balance processing corresponding to the endoscope 2B is performed.

ユーザは、スコープスイッチ群26A及び26Bの設定を行った後、挿入部22A及び22Bを生体内に挿入して観察を行う。そして、ユーザは、スコープスイッチ群26A及び26Bが有する各スイッチのうち、レリーズ指示が割り振られたスイッチを操作することにより、被写体の像の画像データを、例えば、外部記録媒体6の画像ファイリング装置62に出力させるための指示をプロセッサ3に対して行う。   After setting the scope switch groups 26A and 26B, the user inserts the insertion portions 22A and 22B into the living body and performs observation. Then, the user operates the switch to which the release instruction is assigned among the switches of the scope switch groups 26A and 26B, so that the image data of the subject image is converted into, for example, the image filing device 62 of the external recording medium 6. The processor 3 is instructed to output to the processor 3.

プロセッサ3のCPU38は、レリーズ指示に応じた指示信号の入力を検出すると、信号処理を施した後の撮像信号を、記録画像出力部37を介し、画像ファイリング装置62に出力させるための制御を信号処理部34に対して行う。   When the CPU 38 of the processor 3 detects the input of the instruction signal according to the release instruction, the CPU 38 of the processor 3 outputs a control for causing the image filing device 62 to output the image pickup signal after the signal processing via the recorded image output unit 37. This is performed on the processing unit 34.

このとき、CPU38は、前述した各設定画面において、レリーズ指示が連動に設定されていることを検出すると、観察対象となる一の生体の生体識別情報に基づいて生成したフォルダ内に、さらに、第1の内視鏡識別情報に基づく第1のフォルダと、第2の内視鏡識別情報に基づく第2のフォルダとを生成させるとともに、観察画像51Aの画像データを該第1のフォルダに出力させ、観察画像51Bの画像データを該第2のフォルダに出力させるための制御を記録画像出力部37に対して行う。さらに、CPU38は、記録画像出力部37に対して前記制御を行う際に、前記第1のフォルダに出力される観察画像51Aの画像データと、前記第2のフォルダに出力される観察画像51Bの画像データとを関連付けるための連動記録情報を、前記一の生体の生体識別情報に基づいて生成したフォルダ内に併せて出力するための処理を行う。これにより、CPU38は、画像ファイリング装置62に記録された各画像データのうち、レリーズ指示が連動した状態において取得された画像データを再生するための指示が(指示入力部4において)なされた場合に、前記連動記録情報を参照しつつ、2つの画像データに応じた2枚の画像をモニタ5に併せて表示させることができる。   At this time, when the CPU 38 detects that the release instruction is set in conjunction with each other on the setting screens described above, the CPU 38 further stores the first in the folder generated based on the biometric identification information of one living body to be observed. Generating a first folder based on the first endoscope identification information and a second folder based on the second endoscope identification information, and outputting the image data of the observation image 51A to the first folder Then, control for outputting the image data of the observation image 51B to the second folder is performed on the recorded image output unit 37. Further, when the CPU 38 performs the control on the recorded image output unit 37, the image data of the observation image 51A output to the first folder and the observation image 51B output to the second folder are displayed. A process for outputting linked recording information for associating with image data together in a folder generated based on the biometric identification information of the one living body is performed. Thereby, the CPU 38 receives an instruction (in the instruction input unit 4) for reproducing the image data acquired in a state where the release instruction is interlocked among the image data recorded in the image filing device 62. The two images corresponding to the two image data can be displayed together on the monitor 5 while referring to the linked recording information.

以上に述べたように、本実施形態の内視鏡システム1は、2つの内視鏡を使用する際に、該2つの内視鏡間において連動させる機能と連動させない機能とを、内視鏡毎、スコープスイッチ毎、または、機能毎のいずれかにおいて選択することが可能である。その結果、本実施形態の内視鏡システム1は、従来に比べて操作性を向上させることが可能である。   As described above, the endoscope system 1 according to the present embodiment has a function of interlocking between a function that is interlocked between the two endoscopes and a function that is not interlocked when the two endoscopes are used. It is possible to select either for each scope switch or for each function. As a result, the endoscope system 1 of the present embodiment can improve operability as compared with the conventional system.

(第2の実施形態)
図5及び図6は、本発明の第2の実施形態に係るものである。図5は、第2の実施形態に係る撮像システムとしての内視鏡システムの要部の構成の一例を示す図である。図6は、図5の内視鏡において利用可能な機能に関する設定画面の一例を示す図である。
(Second Embodiment)
5 and 6 relate to the second embodiment of the present invention. FIG. 5 is a diagram illustrating an example of a configuration of a main part of an endoscope system as an imaging system according to the second embodiment. FIG. 6 is a diagram illustrating an example of a setting screen regarding functions available in the endoscope of FIG.

なお、第1の実施形態と同様の構成を持つ部分については、詳細説明は省略する。また、第1の実施形態と同様の構成要素については、同一の符号を用いて説明は省略する。   Note that detailed description of portions having the same configuration as in the first embodiment is omitted. Moreover, about the component similar to 1st Embodiment, description is abbreviate | omitted using the same code | symbol.

撮像システムとしての内視鏡システム101は、図5に示すように、生体内に挿入されるとともに、該生体内に存在する被写体の像を撮像し、撮像信号として出力する内視鏡102と、内視鏡102から出力される撮像信号に対して信号処理を施すプロセッサ103と、プロセッサ103から出力される映像信号に応じた該被写体の像を画像表示するモニタ5と、を要部として有している。また、プロセッサ103には、各種指示入力が可能な指示入力部4と、プロセッサ103から出力される画像データを記録可能な外部記録媒体6と、が接続されている。   As shown in FIG. 5, an endoscope system 101 as an imaging system is inserted into a living body, captures an image of a subject existing in the living body, and outputs an imaging signal as an imaging signal. The main part includes a processor 103 that performs signal processing on an imaging signal output from the endoscope 102, and a monitor 5 that displays an image of the subject corresponding to the video signal output from the processor 103. ing. The processor 103 is connected to an instruction input unit 4 capable of inputting various instructions and an external recording medium 6 capable of recording image data output from the processor 103.

内視鏡102は、図5に示すように、プロセッサ103に対する指示が可能な操作部21Cと、細長に形成され、生体内への挿入が可能な挿入部22Cと、を有している。   As shown in FIG. 5, the endoscope 102 includes an operation unit 21 </ b> C that can instruct the processor 103 and an insertion unit 22 </ b> C that is formed in an elongated shape and can be inserted into a living body.

また、挿入部22Cの先端部には、図示しないランプ等の光源から発せられた白色光により照明された被写体の像を撮像し、撮像信号として出力する白色光用撮像部23Cと、前記白色光に対して図示しない帯域制限フィルタ等による帯域制限を施した光である、特殊光により照明された被写体の像を撮像し、撮像信号として出力する特殊光用撮像部28Cと、が設けられている。なお、前記特殊光は、例えば、青色の狭帯域光、または、赤外領域の光等のうちのいずれか1つであるとする。また、特殊光用撮像部28Cは、先に挙げた各特殊光のうちの1つの種類に応じた撮像素子及び光学系を有して構成されているものとする。   Further, the white light imaging unit 23C that captures an image of a subject illuminated with white light emitted from a light source such as a lamp (not shown) and outputs it as an imaging signal at the distal end of the insertion unit 22C, and the white light A special light imaging unit 28C that captures an image of a subject illuminated with special light, which is light subjected to band limitation by a band limiting filter (not shown), and outputs the image as an imaging signal. . Note that the special light is, for example, one of blue narrow band light, infrared light, and the like. Further, it is assumed that the special light imaging unit 28 </ b> C includes an imaging element and an optical system corresponding to one type of each of the special lights mentioned above.

さらに、内視鏡102の操作部21Cには、図5に示すように、内視鏡102の機種、白色光用撮像部23Cの種類、特殊光用撮像部28Cの種類及びIDナンバー等の情報からなる内視鏡識別情報が格納されているメモリ24Cと、プロセッサ103に対する指示が可能な複数のスイッチからなる、スコープスイッチ群26Cと、が設けられている。   Furthermore, as shown in FIG. 5, the operation unit 21C of the endoscope 102 includes information such as the model of the endoscope 102, the type of the white light imaging unit 23C, the type of the special light imaging unit 28C, and the ID number. And a scope switch group 26 </ b> C composed of a plurality of switches that can instruct the processor 103.

また、操作部21Cの基端側には、内視鏡102の各部に接続される複数の信号線を内部に具備したケーブル27Cが設けられている。そして、内視鏡102は、前記ケーブル27Cを介し、プロセッサ103のコネクタ31に対して電気的に接続される。また、操作部21Cの先端側には、内部に図示しない処置具チャンネルが形成された挿入部22Cが連接されている。   A cable 27C having a plurality of signal lines connected to each part of the endoscope 102 is provided on the proximal end side of the operation unit 21C. The endoscope 102 is electrically connected to the connector 31 of the processor 103 via the cable 27C. Further, an insertion portion 22C having a treatment instrument channel (not shown) formed therein is connected to the distal end side of the operation portion 21C.

プロセッサ103は、図5に示すように、内視鏡2Aのケーブル27Aが着脱自在に接続可能なコネクタ31と、信号処理部34と、識別情報判別部35と、表示画像出力部36と、記録画像出力部37と、CPU38と、を有している。   As shown in FIG. 5, the processor 103 includes a connector 31 to which the cable 27 </ b> A of the endoscope 2 </ b> A can be detachably connected, a signal processing unit 34, an identification information determination unit 35, a display image output unit 36, a recording An image output unit 37 and a CPU 38 are included.

信号処理部34は、CPU38の制御に基づき、内視鏡102から出力される撮像信号各々に対し、例えばノイズ除去等の信号処理を施すとともに、該信号処理を施した後の撮像信号を、表示画像出力部36または(及び)記録画像出力部37へ出力する。   Based on the control of the CPU 38, the signal processing unit 34 performs signal processing such as noise removal on each imaging signal output from the endoscope 102, and displays the imaging signal after the signal processing is performed. The image is output to the image output unit 36 and / or the recorded image output unit 37.

識別情報判別部35は、内視鏡102のメモリ24Cに格納された内視鏡識別情報を読み込むことにより、内視鏡102の種類及び接続状態等を検出する。   The identification information determination unit 35 reads the endoscope identification information stored in the memory 24 </ b> C of the endoscope 102 to detect the type and connection state of the endoscope 102.

表示画像出力部36は、信号処理部34から出力される撮像信号に対し、映像信号への変換処理等の処理を施すとともに、該処理を施した後の映像信号をモニタ5へ出力する。これにより、モニタ5には、白色光用撮像部23Cにより撮像された被写体の像に応じた観察画像151Aと、特殊光用撮像部28Cにより撮像された被写体の像に応じた観察画像151Bと、が同一の画面上に併せて画像表示される。また、表示画像出力部36は、例えばスコープスイッチ群26C等の操作に応じて表示位置が変更される、観察画像151A内の所望の位置を指し示すためのアローポインタ152Aと、観察画像151B内の所望の位置を指し示すためのアローポインタ152Bと、を観察画像151A及び151に併せてモニタ5へ出力するための処理を行う。   The display image output unit 36 performs processing such as conversion to a video signal on the imaging signal output from the signal processing unit 34, and outputs the video signal after the processing to the monitor 5. Accordingly, the monitor 5 has an observation image 151A corresponding to the subject image captured by the white light imaging unit 23C, an observation image 151B corresponding to the subject image captured by the special light imaging unit 28C, and Are displayed together on the same screen. Further, the display image output unit 36, for example, an arrow pointer 152A for pointing a desired position in the observation image 151A whose display position is changed in accordance with an operation of the scope switch group 26C and the like, and a desired position in the observation image 151B. And an arrow pointer 152B for pointing to the position of the image, and processing for outputting to the monitor 5 together with the observation images 151A and 151.

記録画像出力部37は、信号処理部34から出力される撮像信号に対し、各記録媒体に応じたフォーマットによる圧縮処理及び画像データへの変換処理等の処理を施すとともに、該該処理を施した後の画像データを外部記録媒体6へ出力する。   The recorded image output unit 37 performs processing such as compression processing and conversion processing to image data in a format corresponding to each recording medium on the imaging signal output from the signal processing unit 34 and performs the processing. The subsequent image data is output to the external recording medium 6.

CPU38は、指示入力部4の各部及びスコープスイッチ群26Cからの指示信号に基づく制御を、プロセッサ3の各部等に対して行う。また、CPU38は、指示入力部4の各部からの指示信号に基づき、プロセッサ103の各種設定が可能な設定画面をモニタ5に表示させるための制御を信号処理部34に対して行う。そして、ユーザは、前記設定画面において、例えば、内視鏡102により利用可能な各機能に関する設定等を行うことができる。なお、本実施形態のCPU38は、図6に例示する各設定画面上においてなされた設定内容を反映させるための各種制御及び処理を内視鏡102(の白色光用撮像部23C及び特殊光用撮像部28C)と、プロセッサ103の各部とに対して行うものとする。   The CPU 38 performs control based on an instruction signal from each part of the instruction input unit 4 and the scope switch group 26C on each part of the processor 3 and the like. Further, the CPU 38 controls the signal processing unit 34 to display on the monitor 5 a setting screen on which various settings of the processor 103 can be made based on instruction signals from each unit of the instruction input unit 4. And the user can perform the setting regarding each function which can be used by the endoscope 102 on the setting screen, for example. Note that the CPU 38 of the present embodiment performs various controls and processes for reflecting the setting contents made on each setting screen illustrated in FIG. 6 as to the endoscope 102 (the white light imaging unit 23C and the special light imaging). Section 28C) and each section of the processor 103.

また、CPU38は、識別情報判別部35による、白色光用撮像部23Cの種類及び特殊光用撮像部28Cの種類の検出結果に基づき、前記設定画面に含まれる各項目に関する初期設定を行う。   Further, the CPU 38 performs initial setting for each item included in the setting screen based on the detection result of the type of the white light imaging unit 23C and the type of the special light imaging unit 28C by the identification information determination unit 35.

次に、本実施形態の内視鏡システム101の作用について説明を行う。   Next, the operation of the endoscope system 101 of this embodiment will be described.

まず、ユーザは、内視鏡システム101の各部の電源を投入した後、内視鏡102をケーブル27Cによりプロセッサ103に接続する。   First, after turning on the power of each part of the endoscope system 101, the user connects the endoscope 102 to the processor 103 by the cable 27C.

前述した状態において、識別情報判別部35は、内視鏡102のメモリ24Cに格納された内視鏡識別情報を読み込むことにより、内視鏡102の機種を検出する。   In the state described above, the identification information determination unit 35 detects the model of the endoscope 102 by reading the endoscope identification information stored in the memory 24C of the endoscope 102.

CPU38は、識別情報判別部35における検出結果と、キーボード41においてなされた設定画面を表示させるための指示に基づき、プロセッサ103の各種設定が可能な設定画面のうちの1つとして、図6に示す設定画面をモニタ5に表示させるための制御を行う。   The CPU 38 is shown in FIG. 6 as one of setting screens on which various settings of the processor 103 can be made based on the detection result in the identification information determination unit 35 and an instruction for displaying the setting screen made on the keyboard 41. Control for displaying the setting screen on the monitor 5 is performed.

図6に示す設定画面は、内視鏡102により利用可能な各機能のうち、白色光用撮像部23C及び特殊光用撮像部28Cに関する機能を連動するか否かの設定に関する設定画面である。なお、図6に示す設定画面に含まれる各項目の設定内容は、(識別情報判別部35による)内視鏡102の接続状態の検出結果に基づいてCPU38が行う初期設定の内容の一例を示すものであるとする。   The setting screen illustrated in FIG. 6 is a setting screen for setting whether to link the functions related to the white light imaging unit 23C and the special light imaging unit 28C among the functions available by the endoscope 102. The setting content of each item included in the setting screen shown in FIG. 6 shows an example of the initial setting content performed by the CPU 38 based on the detection result of the connection state of the endoscope 102 (by the identification information determination unit 35). Suppose it is a thing.

具体的には、図6の設定画面に示す設定においては、内視鏡102により利用可能な各機能のうち、フリーズ機能が連動、レリーズ機能が非連動、拡大機能が非連動、及び、アローポインタ表示機能が連動として設定されている。   Specifically, in the setting shown in the setting screen of FIG. 6, among the functions available by the endoscope 102, the freeze function is linked, the release function is not linked, the enlargement function is not linked, and the arrow pointer The display function is set as linked.

図6に示す設定が行われると、例えば、スコープスイッチ群26C等においてフリーズ指示がなされた場合に、観察画像151A及び151Bの両画像がフリーズ画像(静止画像)としてモニタ5に表示される。   When the setting shown in FIG. 6 is performed, for example, when a freeze instruction is given in the scope switch group 26C or the like, both images 151A and 151B are displayed on the monitor 5 as freeze images (still images).

また、図6に示す設定が行われると、例えば、スコープスイッチ群26C等においてレリーズ指示がなされた場合に、該フリーズ指示が出力されたスイッチ等の設定に応じ、観察画像151A及び151Bのうちのいずれかの画像データが外部記録媒体6に対して出力される。   When the setting shown in FIG. 6 is performed, for example, when a release instruction is given in the scope switch group 26C or the like, one of the observation images 151A and 151B is set according to the setting of the switch or the like to which the freeze instruction is output. One of the image data is output to the external recording medium 6.

さらに、図6に示す設定が行われると、例えば、スコープスイッチ群26C等において拡大指示がなされた場合に、該拡大指示が出力されたスイッチ等の設定に応じ、観察画像151A及び151Bのうちのいずれかが拡大されつつモニタ5に表示される。   Further, when the setting shown in FIG. 6 is performed, for example, when an enlargement instruction is given in the scope switch group 26C or the like, one of the observation images 151A and 151B is set according to the setting of the switch or the like to which the enlargement instruction is output. One of them is displayed on the monitor 5 while being enlarged.

そして、図6に示す設定が行われると、例えば、スコープスイッチ群26C等においてアローポインタの表示位置を変更するための指示がなされた場合に、CPU38の制御により、観察画像151A内のアローポインタ152Aの表示位置と、観察画像151B内のアローポインタ152Bとの表示位置とが対応しつつ変更される。これにより、白色光により照明された被写体の像の観察画像151Aと、特殊光により照明された該被写体の像の観察画像151Bと、において、同じ部位を指し示すことが可能である。   When the setting shown in FIG. 6 is performed, for example, when an instruction for changing the display position of the arrow pointer is given in the scope switch group 26C or the like, the arrow pointer 152A in the observation image 151A is controlled by the CPU 38. And the display position of the arrow pointer 152B in the observation image 151B are changed in correspondence with each other. Thereby, it is possible to indicate the same part in the observation image 151A of the image of the subject illuminated with white light and the observation image 151B of the image of the subject illuminated with special light.

以上に述べたように、本実施形態の内視鏡システム101は、2つの撮像部を有する内視鏡を使用する際に、該2つの撮像部間において連動させる機能と連動させない機能とを設定することが可能である。その結果、本実施形態の内視鏡システム101は、従来に比べて操作性を向上させることが可能である。   As described above, the endoscope system 101 according to the present embodiment sets a function that is interlocked between two imaging units and a function that is not interlocked when using an endoscope having two imaging units. Is possible. As a result, the endoscope system 101 of the present embodiment can improve operability as compared with the conventional system.

なお、本発明は、上述した実施形態に限定されるものではなく、発明の趣旨を逸脱しない範囲内において種々の変更や応用が可能であることは勿論である。   In addition, this invention is not limited to embodiment mentioned above, Of course, a various change and application are possible in the range which does not deviate from the meaning of invention.

第1の実施形態に係る撮像システムとしての内視鏡システムの要部の構成の一例を示す図。The figure which shows an example of a structure of the principal part of the endoscope system as an imaging system which concerns on 1st Embodiment. 図1の内視鏡のうち、一方の内視鏡において利用可能な機能に関する設定画面の一例を示す図。The figure which shows an example of the setting screen regarding the function which can be utilized in one endoscope among the endoscopes of FIG. 図1の内視鏡のうち、他方の内視鏡において利用可能な機能に関する設定画面の一例を示す図。The figure which shows an example of the setting screen regarding the function which can be utilized in the other endoscope among the endoscopes of FIG. 図2Aの設定画面に応じた第1の変形例の設定画面を示す図。The figure which shows the setting screen of the 1st modification according to the setting screen of FIG. 2A. 図2Bの設定画面に応じた第1の変形例の設定画面を示す図。The figure which shows the setting screen of the 1st modification according to the setting screen of FIG. 2B. 図2Aの設定画面に応じた第2の変形例の設定画面を示す図。The figure which shows the setting screen of the 2nd modification according to the setting screen of FIG. 2A. 図2Bの設定画面に応じた第2の変形例の設定画面を示す図。The figure which shows the setting screen of the 2nd modification according to the setting screen of FIG. 2B. 第2の実施形態に係る撮像システムとしての内視鏡システムの要部の構成の一例を示す図。The figure which shows an example of a structure of the principal part of the endoscope system as an imaging system which concerns on 2nd Embodiment. 図5の内視鏡において利用可能な機能に関する設定画面の一例を示す図。The figure which shows an example of the setting screen regarding the function which can be used in the endoscope of FIG.

符号の説明Explanation of symbols

1,101・・・内視鏡システム、2A,2B,102・・・内視鏡、3,103・・・プロセッサ、4・・・指示入力部、5・・・モニタ、6・・・外部記録媒体、51A,51B,151A,151B・・・観察画像、152A,152B・・・アローポインタ   DESCRIPTION OF SYMBOLS 1,101 ... Endoscope system, 2A, 2B, 102 ... Endoscope, 3,103 ... Processor, 4 ... Instruction input part, 5 ... Monitor, 6 ... External Recording medium, 51A, 51B, 151A, 151B ... Observation image, 152A, 152B ... Arrow pointer

Claims (12)

第1の被写体の像に応じた第1の撮像信号を出力する処理を行う第1の撮像部と、
第2の被写体の像に応じた第2の撮像信号を出力する処理を行う第2の撮像部と、
前記第1の撮像信号に基づき、前記第1の被写体の像に応じた第1の画像を表示部へ出力する処理を行うとともに、前記第2の撮像信号に基づき、前記第2の被写体の像に応じた第2の画像を前記表示部へ出力する処理を行う表示画像出力部と、
前記第1の撮像信号に基づき、前記第1の被写体の像を第1の画像データに変換して記録媒体へ出力するための処理を行うとともに、前記第2の撮像信号に基づき、前記第2の被写体の像を第2の画像データに変換して該記録媒体へ出力するための処理を行う記録画像出力部と、
前記第1の撮像部の種類を識別するための第1の識別情報と、前記第2の撮像部の種類を識別するための第2の識別情報と、を検出する識別情報判別部と、
前記識別情報判別部の検出結果に基づき、前記第1の撮像部、前記第2の撮像部、前記表示画像出力部及び前記記録画像出力部のうちの少なくとも2つが行う処理の組み合わせにより実現される各機能において、該各機能に関連する各部を連動させつつ処理を行わせるか否かの設定を行うとともに、該設定に応じて前記各機能に関連する各部に対する制御を行う制御部と、
を有することを特徴とする撮像システム。
A first imaging unit that performs a process of outputting a first imaging signal corresponding to an image of the first subject;
A second imaging unit that performs a process of outputting a second imaging signal corresponding to the image of the second subject;
Based on the first imaging signal, a process of outputting a first image corresponding to the image of the first subject to a display unit is performed, and the image of the second subject is based on the second imaging signal. A display image output unit that performs a process of outputting a second image according to the display unit to the display unit;
Based on the first imaging signal, processing for converting the image of the first subject into first image data and outputting it to a recording medium is performed, and based on the second imaging signal, the second image A recording image output unit that performs processing for converting the image of the subject to second image data and outputting the second image data to the recording medium;
An identification information discriminating unit for detecting first identification information for identifying the type of the first imaging unit and second identification information for identifying the type of the second imaging unit;
Based on the detection result of the identification information determination unit, it is realized by a combination of processes performed by at least two of the first imaging unit, the second imaging unit, the display image output unit, and the recorded image output unit. In each function, while setting whether to perform processing while linking each unit related to each function, a control unit that controls each unit related to each function according to the setting,
An imaging system comprising:
さらに、前記第1の撮像部、前記第2の撮像部、前記表示画像出力部及び前記記録画像出力部のうちの少なくとも2つが行う処理の組み合わせにより実現される各機能を使用するための指示を行うことが可能な1または複数の指示部を有し、
前記制御部は、前記1または複数の指示部のうちの一の指示部において前記各機能のうちの一の機能を使用するための指示が行われた場合に、前記一の機能に関連する各部を連動させつつ処理を行わせるか否かの設定に応じ、前記一の機能に関連する各部に対する制御を行うことを特徴とする請求項1に記載の撮像システム。
Further, instructions for using each function realized by a combination of processes performed by at least two of the first imaging unit, the second imaging unit, the display image output unit, and the recorded image output unit are provided. Having one or more indicators that can be performed;
The control unit, when an instruction to use one of the functions is given in one instruction unit of the one or more instruction units, each unit related to the one function 2. The imaging system according to claim 1, wherein control is performed on each unit related to the one function in accordance with a setting as to whether or not processing is performed in conjunction with each other.
前記第1の撮像部及び前記第2の撮像部は、各々異なる撮像装置に設けられていることを特徴とする請求項1または請求項2に記載の撮像システム。   The imaging system according to claim 1, wherein the first imaging unit and the second imaging unit are provided in different imaging devices, respectively. 前記第1の撮像部及び前記第2の撮像部は、同じ撮像装置に設けられていることを特徴とする請求項1または請求項2に記載の撮像システム。   The imaging system according to claim 1 or 2, wherein the first imaging unit and the second imaging unit are provided in the same imaging device. さらに、前記第1の識別情報及び前記第2の識別情報に基づき、前記第1の画像と前記第1の撮像部を有する第1の撮像装置との対応を視覚的に示すための第1の告知情報と、前記第2の画像と前記第2の撮像部を有する第2の撮像装置との対応を視覚的に示すための第2の告知情報と、を出力させるための制御を行う告知情報生成部を有することを特徴とする請求項3に記載の撮像システム。   Further, a first for visually indicating correspondence between the first image and the first imaging device having the first imaging unit based on the first identification information and the second identification information. Notification information for performing control to output notification information and second notification information for visually indicating correspondence between the second image and the second imaging device having the second imaging unit The imaging system according to claim 3, further comprising a generation unit. 前記第1の告知情報及び前記第2の告知情報は、各々異なる色により示されることを特徴とする請求項5に記載の撮像システム。   The imaging system according to claim 5, wherein the first notification information and the second notification information are indicated by different colors. 前記告知情報生成部は、前記第1の告知情報を出力させるための制御として、前記第1の撮像装置が有する第1の発光部において発せされる光の色と、前記表示部において前記第1の画像の近傍に表示される色とを対応させる制御を行うことを特徴とする請求項5または請求項6に記載の撮像システム。   As the control for outputting the first notification information, the notification information generation unit includes a color of light emitted from a first light emitting unit included in the first imaging device, and the display unit includes the first light information. 7. The imaging system according to claim 5, wherein control is performed so as to correspond to a color displayed in the vicinity of the image. さらに、前記告知情報生成部は、前記第2の告知情報を出力させるための制御として、前記第2の撮像装置が有する第2の発光部において発せされる光の色と、前記表示部において前記第2の画像の近傍に表示される色とを対応させる制御を行うことを特徴とする請求項7に記載の撮像システム。   Further, the notification information generation unit controls the color of the light emitted from the second light emitting unit of the second imaging device and the display unit as the control for outputting the second notification information. The imaging system according to claim 7, wherein control is performed to associate the color displayed in the vicinity of the second image. 前記指示部のうちの少なくとも1つは、前記撮像装置に設けられていることを特徴とする請求項2乃至請求項8のいずれか一に記載の撮像システム。   The imaging system according to claim 2, wherein at least one of the instruction units is provided in the imaging device. 前記撮像装置は、内視鏡であることを特徴とする請求項2乃至請求項9のいずれか一に記載の撮像システム。   The imaging system according to claim 2, wherein the imaging device is an endoscope. 前記表示画像出力部は、前記第1の画像と第1のポインタとを併せて前記表示部へ出力する処理、及び、前記第2の画像と第2のポインタとを併せて前記表示部へ出力する処理をさらに行い、
前記制御部は、前記表示画像出力部における各処理が連動している場合に、前記第1の画像内における前記第1のポインタの表示位置と、前記第2の画像内における前記第2のポインタの表示位置とを対応させるための制御を行うことを特徴とする請求項1乃至請求項10のいずれか一に記載の撮像システム。
The display image output unit outputs the first image and the first pointer together to the display unit, and outputs the second image and the second pointer together to the display unit. Further processing,
When each process in the display image output unit is linked, the control unit displays the display position of the first pointer in the first image and the second pointer in the second image. The imaging system according to any one of claims 1 to 10, wherein control is performed so as to correspond to the display position.
前記制御部は、前記記録画像出力部における各処理が連動している場合に、前記第1の画像データと、前記第2の画像データとを関連付けつつ前記記録媒体へ出力させる制御を行うことを特徴とする請求項1乃至請求項11のいずれか一に記載の撮像システム。   The control unit performs control to output the first image data and the second image data to the recording medium in association with each other when the processes in the recording image output unit are linked. The imaging system according to claim 1, wherein the imaging system is characterized.
JP2007113323A 2007-04-23 2007-04-23 Imaging system Active JP4989288B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007113323A JP4989288B2 (en) 2007-04-23 2007-04-23 Imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007113323A JP4989288B2 (en) 2007-04-23 2007-04-23 Imaging system

Publications (2)

Publication Number Publication Date
JP2008264312A true JP2008264312A (en) 2008-11-06
JP4989288B2 JP4989288B2 (en) 2012-08-01

Family

ID=40044651

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007113323A Active JP4989288B2 (en) 2007-04-23 2007-04-23 Imaging system

Country Status (1)

Country Link
JP (1) JP4989288B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5165813B2 (en) * 2010-07-07 2013-03-21 オリンパスメディカルシステムズ株式会社 Endoscope device
EP2674099A1 (en) * 2011-08-26 2013-12-18 Olympus Medical Systems Corp. Medical equipment system
WO2014034210A1 (en) * 2012-08-31 2014-03-06 オリンパスメディカルシステムズ株式会社 Cleaning disinfecting device
JP2017006260A (en) * 2015-06-18 2017-01-12 オリンパス株式会社 Endoscope apparatus
WO2019111403A1 (en) * 2017-12-08 2019-06-13 オリンパス株式会社 Endoscope system
WO2019239648A1 (en) * 2018-06-11 2019-12-19 オリンパス株式会社 Imaging device and endoscope

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06142029A (en) * 1992-11-05 1994-05-24 Olympus Optical Co Ltd Endoscope system
JPH07124106A (en) * 1993-11-01 1995-05-16 Olympus Optical Co Ltd Endoscope system
JP2001178734A (en) * 1999-08-24 2001-07-03 Olympus Optical Co Ltd Electric therapeutic system
JP2003038432A (en) * 2001-08-01 2003-02-12 Pentax Corp Electronic endoscope system
JP2003334163A (en) * 2002-03-14 2003-11-25 Olympus Optical Co Ltd Endoscopic image processor
JP2004089684A (en) * 2002-07-09 2004-03-25 Olympus Corp Surgery system
JP2004267461A (en) * 2003-03-07 2004-09-30 Olympus Corp Endoscopic surgery system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06142029A (en) * 1992-11-05 1994-05-24 Olympus Optical Co Ltd Endoscope system
JPH07124106A (en) * 1993-11-01 1995-05-16 Olympus Optical Co Ltd Endoscope system
JP2001178734A (en) * 1999-08-24 2001-07-03 Olympus Optical Co Ltd Electric therapeutic system
JP2003038432A (en) * 2001-08-01 2003-02-12 Pentax Corp Electronic endoscope system
JP2003334163A (en) * 2002-03-14 2003-11-25 Olympus Optical Co Ltd Endoscopic image processor
JP2004089684A (en) * 2002-07-09 2004-03-25 Olympus Corp Surgery system
JP2004267461A (en) * 2003-03-07 2004-09-30 Olympus Corp Endoscopic surgery system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5165813B2 (en) * 2010-07-07 2013-03-21 オリンパスメディカルシステムズ株式会社 Endoscope device
EP2674099A1 (en) * 2011-08-26 2013-12-18 Olympus Medical Systems Corp. Medical equipment system
EP2674099A4 (en) * 2011-08-26 2015-02-25 Olympus Medical Systems Corp Medical equipment system
WO2014034210A1 (en) * 2012-08-31 2014-03-06 オリンパスメディカルシステムズ株式会社 Cleaning disinfecting device
CN103796572A (en) * 2012-08-31 2014-05-14 奥林巴斯医疗株式会社 Cleaning disinfecting device
US9027574B2 (en) 2012-08-31 2015-05-12 Olympus Medical Systems Corp. Cleaning/disinfecting apparatus
JP2017006260A (en) * 2015-06-18 2017-01-12 オリンパス株式会社 Endoscope apparatus
WO2019111403A1 (en) * 2017-12-08 2019-06-13 オリンパス株式会社 Endoscope system
WO2019239648A1 (en) * 2018-06-11 2019-12-19 オリンパス株式会社 Imaging device and endoscope

Also Published As

Publication number Publication date
JP4989288B2 (en) 2012-08-01

Similar Documents

Publication Publication Date Title
US11107571B2 (en) Information processing apparatus, information processing method, program, and medical observation system
JP4989288B2 (en) Imaging system
US20120200683A1 (en) System for recording and reproducing images
US7951074B2 (en) Endoscope device
JP6495565B1 (en) Medical display
US20070013771A1 (en) Image processing device
CN110741334A (en) Display control apparatus, display control method, and display control program
WO2019012586A1 (en) Medical image processing apparatus and medical image processing method
JP2007075158A (en) Image display device
JP2009189654A (en) Signal processing system
JP2005021392A (en) Endoscope system
US10506915B2 (en) Signal processing apparatus and endoscope system
US20210076903A1 (en) Endoscope system, control method of endoscope system and storage medium
EP3533382A1 (en) Endoscopic system
JP4459564B2 (en) Endoscope system having an image signal processing device
JP2006340856A (en) Endoscopic image display device and control method thereof
JP6285373B2 (en) Endoscope system, processor device, and operation method of endoscope system
JP2006055350A (en) Endoscope
JPH10308896A (en) Image synthesis display device
JPH119547A (en) Endoscope system
US20240013392A1 (en) Processor device, medical image processing device, medical image processing system, and endoscope system
JP6833424B2 (en) Centralized control device
JP2002010974A (en) Electronic endoscope system provided with switching device of electronic endoscope
JP4436819B2 (en) Endoscope device
WO2017026277A1 (en) Processing device, processing method, and processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120229

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120403

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120427

R151 Written notification of patent or utility model registration

Ref document number: 4989288

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250