WO2012005108A1 - 画像記録再生システム - Google Patents

画像記録再生システム Download PDF

Info

Publication number
WO2012005108A1
WO2012005108A1 PCT/JP2011/064142 JP2011064142W WO2012005108A1 WO 2012005108 A1 WO2012005108 A1 WO 2012005108A1 JP 2011064142 W JP2011064142 W JP 2011064142W WO 2012005108 A1 WO2012005108 A1 WO 2012005108A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
endoscope
cpu
circuit
output
Prior art date
Application number
PCT/JP2011/064142
Other languages
English (en)
French (fr)
Inventor
龍 大島
隆 齊藤
剛 浦崎
Original Assignee
オリンパスメディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパスメディカルシステムズ株式会社 filed Critical オリンパスメディカルシステムズ株式会社
Priority to JP2012505912A priority Critical patent/JPWO2012005108A1/ja
Publication of WO2012005108A1 publication Critical patent/WO2012005108A1/ja
Priority to US13/367,463 priority patent/US20120200683A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • G03B37/005Photographing internal surfaces, e.g. of pipe
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion

Definitions

  • the present invention relates to an image recording / reproducing system, and more particularly, to an image recording / reproducing system capable of selecting an image compression method for an acquired medical image.
  • Endoscope systems having an endoscope, a medical image processing apparatus, and the like have been widely used in the medical field and the like.
  • endoscope systems in the medical field are mainly used for applications in which an operator or the like performs in-vivo observation or the like.
  • a medical image processing apparatus disclosed in Patent Document 1 has been proposed.
  • the medical image processing apparatus of Patent Document 1 performs a compression process on a medical image using either the first image compression method or the second image compression method.
  • the medical image processing apparatus causes the image recording unit to output a medical image compressed by the first image compression method.
  • the medical image processing apparatus detects the second instruction designated by the second recording support unit, the medical image processing apparatus compresses the medical image compressed by the second image compression method to the image recording unit. Output.
  • a medical image processing device When using a medical image processing device to display multiple images such as an image captured by an endoscope, an image of an endoscope shape detection device, an image obtained by an ultrasound device, character information, etc. on a display device A composite image obtained by combining these images and character information is displayed and recorded.
  • an image recording / reproducing system that enables a layout change of an endoscope composite image displayed on a display device and enables such a layout change not only in a processor but also in a device other than the processor. I will provide a.
  • an image recording / reproducing system for recording and reproducing a composite image of images input from a plurality of input sources includes a component image constituting the composite image, information related to the composite image, Composite image data group output means for outputting a composite image data group having image layout information, composite image data group recording means for recording the output composite image data group, and at least one or more components constituting a reproduced image
  • Reproduction image designation information setting means for setting reproduction image designation information comprising information for designating an image, information related to the reproduction image, and image layout information of the reproduction image, and the set reproduction image designation information
  • a reproduction image forming means for forming a reproduction image from the recorded composite image data group, and a reproduction image output for outputting the formed reproduction image Receives and stages, the outputted the reproduced image, and a reproduction means for reproducing.
  • the image recording / reproducing system is connected to an external device for inputting an external image, and includes an endoscope system connected to an endoscope, and an image recording device, and the endoscope system includes: The composite image data group output means, the reproduction image designation information setting means, the means for transmitting the reproduction image designation information, and the reproduction means, wherein the image recording apparatus records the synthetic image data group recording Means, a means for receiving the reproduction image designation information, the reproduction image forming means, and the reproduction image output means.
  • the image recording / reproducing system includes an endoscope system connected to an endoscope, an image recording device, and an image reproducing device, and is connected to an external device for inputting an external image.
  • the mirror system includes the composite image data group output means
  • the image recording device includes the composite image data group recording means, means for receiving the reproduction image designation information, the reproduction image forming means,
  • a reproduction image output unit, and the image reproduction device includes the reproduction image designation information setting unit, a unit for transmitting the reproduction image designation information, and the reproduction unit.
  • the information relating to the composite image and the information relating to the reproduced image include at least one of examination management number, examination site, examination date, patient ID, patient name, patient sex, and patient age.
  • the image layout information of the composite image and the image layout information of the reproduced image include at least one of an image type, an image width, and an image height.
  • the image layout information of the reproduced image further includes at least one of information for determining whether or not to display the image for each image and a display disclosure position of the image.
  • each component image constituting the composite image included in the composite image data group and information related to the composite image are independent from each other.
  • the present invention it is possible to change the layout of the endoscope composite image displayed on the display device, and such a layout change is possible not only in the processor but also in devices other than the processor.
  • FIG. 1 It is a figure which shows an example of a structure of the principal part of the endoscope system of this embodiment. It is a figure which shows an example of a structure of 2 A of endoscopes which the endoscope system of FIG. 1 has. It is a figure which shows an example of a structure of the endoscope 2B which the endoscope system of FIG. 1 has. It is a figure which shows an example of a structure of the endoscope 2C which the endoscope system of FIG. 1 has. It is a figure which shows an example of a structure of the light source device which the endoscope system of FIG. 1 has. It is a figure which shows an example of a structure of the processor which the endoscope system of FIG. 1 has.
  • FIG. 1 shows an example of a structure of the principal part of the endoscope system of this embodiment. It is a figure which shows an example of a structure of 2 A of endoscopes which the endoscope system of FIG. 1 has. It is a figure which shows an example of
  • FIG. 7 is a first diagram illustrating an example of a configuration of an image processing unit included in the processor of FIG. 6;
  • FIG. 7 is a second diagram illustrating an exemplary configuration of an image processing unit included in the processor of FIG. 6.
  • 7 is a diagram illustrating an example of a screen displayed when both the endoscope of FIG. 2 and the endoscope of FIG. 3 are connected to the processor of FIG. 6. It is a figure which shows an example of a structure of the main control part which the processor of FIG. 6 has. It is a figure which shows an example of a structure of the one extended control part connected to the processor of FIG. It is a figure which shows an example of a structure of the other expansion control part different from the expansion control part of FIG. 10 connected to the processor of FIG.
  • FIG. 10 is a flowchart illustrating an example of processing performed when the main control unit in FIG. 9 detects (and detects) the connection of the extension control unit. It is a figure which shows an example of a structure of the front panel 76 which the processor of FIG. 6 has. It is a figure which shows the modification of a structure of SIO142 which the main control part of FIG. 9 has. It is a figure which shows an example of the peripheral device which can be connected to the processor of FIG. FIG. 16 is a diagram showing an example different from FIG. 15 of peripheral devices that can be connected to the processor of FIG. 6. It is a figure which shows the example different from FIG.15 and FIG.16 of the peripheral device which can be connected to the processor of FIG. FIG.
  • FIG. 18 is a diagram showing an example different from FIGS. 15, 16, and 17 of peripheral devices that can be connected to the processor of FIG. 6.
  • FIG. 19 is a diagram showing an example different from FIGS. 15, 16, 17, and 18 of peripheral devices that can be connected to the processor of FIG. It is a figure which shows an example of a structure of the keyboard which can be connected to the processor of FIG. It is a figure which shows an example of the display size (output size) (16: 9) of an image. It is a figure which shows an example of the display size (output size) (4: 3) of an image. It is a figure which shows an example of a structure of the image compression expansion part which the processor of FIG. 6 has.
  • FIG. 24 shows a configuration example of a synchronization signal check circuit 631 included in the image compression / decompression unit of FIG.
  • FIG. 8 is a diagram showing an example of an endoscope composite image generated by the image processing unit in FIGS. 7A and 7B. Details of the time information 308 of FIG. 25 are shown.
  • the display form of the thumbnail image in the case of HDTV is shown.
  • the display form of the thumbnail image in the case of SDTV is shown. It is a figure which shows an example of the setting screen of the processor of FIG. It is a figure which shows an example of another setting screen which is a screen after changing from the setting screen of FIG. 29 among the setting screens of the processor of FIG.
  • FIG. It is a figure for demonstrating storing an image according to display size, image size, and the kind (endoscope connection detection signal) of an endoscope. It is a figure which shows an example of the directory structure used when recording an image in each filing apparatus shown in FIGS. 15-19, each optical recording device, etc.
  • FIG. It is a figure for demonstrating the DCIM folder of FIG. 32, a test
  • An example of an examination information management file and an imaging information management file for the endoscope composite image 300-1 generated in the synthesis circuit 108H or 108S is shown.
  • FIG. 33 is a diagram showing an example of the data configuration of an image file of a thumbnail image and an image file of an image that is the source of the thumbnail image among the files in the directory structure shown in FIG. 32. It is a figure which shows the example different from FIG. 38 of the data structure of the image file of a thumbnail image and the image file of the image which became the origin of this thumbnail image among each file in the directory structure shown in FIG. It is a figure which shows an example of a directory name and a file name displayed on a monitor etc. as a display format matched with the directory structure.
  • FIG. 33 is a diagram showing an example of the data configuration of an image file of a thumbnail image and an image file of an image that is the source of the thumbnail image among the files in the directory structure shown in FIG. 32. It is a figure which shows the example different from FIG. 38 of the data structure of the image file of a thumbnail image and the image file of the image which became the origin of this thumbnail image among each file in the directory structure shown in FIG. It is a figure which
  • FIG. 20 is a flowchart (part 1) illustrating an example of control and processing performed by the main control unit of FIG. 9 when still images recorded on the peripheral devices and the like shown in FIGS. 15 to 19 are displayed.
  • FIG. 20 is a flowchart (part 2) illustrating an example of control and processing performed by the main control unit of FIG. 9 when still images recorded on the peripheral devices and the like shown in FIGS. 15 to 19 are displayed. It is a figure which shows the example of a display of a screen in case the HDTV image is memorize
  • FIG. 42 is a diagram showing an example of a multi-image generated by the processing of FIGS. 41A-41B.
  • FIG. 42 is a diagram showing an example of a multi-image generated by the processing of FIGS. 41A-41B.
  • FIG. 42 is a diagram showing an example of page switching when a plurality of multi-images are generated by the processing of FIGS. 41A-41B.
  • FIG. 45 is a diagram showing an example of screen transition when one selected image is displayed in the multi-image of FIG. 44. It is a figure which shows an example of the process which the processor of FIG. 6 performs when a recording instruction
  • FIG. 48 is a diagram illustrating an example of processing performed by the processor of FIG. 6 subsequent to the processing of FIG. 47 when a recording instruction is issued.
  • FIG. 49 is a diagram showing an example different from FIG. 48 of the processing performed by the processor of FIG. 6 following the processing of FIG. 47 when a recording instruction is issued.
  • FIG. 50 is a diagram illustrating an example different from FIGS.
  • FIG. 51 is a diagram illustrating an example different from FIGS. 48, 49, and 50 of the process performed by the processor of FIG. 6 following the process of FIG. 47 when a recording instruction is issued.
  • 49 is a flowchart showing an example of compression processing and recording processing included in the processing of FIG. 48 (FIGS. 49 and 50).
  • 53 is a flowchart illustrating an example of processing that is performed when an image in a low-compression rate format that is stored in a buffer by the processing in FIG. 52 is recorded on a peripheral device or the like.
  • 53 is a flowchart illustrating an example different from that of FIG.
  • FIG. 54 is a diagram illustrating an example of a multi-image generated in order to select an image to be recorded from each image stored in a buffer in the process of FIG.
  • An example of a screen for managing the contents of image data stored in the buffer 166 is shown.
  • the multi image at the time of displaying using an annotation function is shown. It is a figure for demonstrating the change of the display mode of an endoscopic composite image.
  • An example of the examination information management file and the imaging information management file before and after the change of the display mode of the endoscope composite image is shown.
  • FIG. 11 is a diagram (No. 1) illustrating a state where the display form of an endoscope composite image is switched each time a “display format” key is pressed when PinP display is selected.
  • FIG. 11 is a diagram (No.
  • the endoscope system 1 includes endoscopes 2A, 2B, and 2C, a light source device 3, and a processor 4, as shown in FIG.
  • the endoscopes 2A, 2B, and 2C can be inserted into a patient's body cavity and image a subject in the body cavity.
  • the endoscopes 2A and 2B are connected to the processor 4.
  • the endoscope 2A is detachably connected to the processor 4 by a connector 34A provided on the other end side of a cable 33A extending from the connector 29A.
  • the endoscope 2B is detachably connected to the processor 4 by a connector 34B provided on the other end side of the cable 33B extending from the connector 29B.
  • the endoscope 2 ⁇ / b> C is connected to the processor 4 through the light source device 3.
  • the connectors 34A and 34B may be one (common) connector. In this case, when the cables 33A and 33B of the endoscopes 2A and 2B are connected to the common connector, among the plurality of pins in the connector, the pins used depending on the type of endoscope (endoscopes 2A and 2B). Are different.
  • the light source device 3 supplies illumination light for illuminating the subject to the endoscopes 2A and 2B via the light guide cable 3a.
  • the endoscope 2C is detachably connected to the light source device 3 by a connector 29C and a connector 34C.
  • the light source device 3 is detachably connected to the processor 4 by a connector 62 provided on the other end side of a cable 61 for dimming signal transmission extending from the connector 60.
  • the light source device 3 is detachably connected to the processor 4 by a connector 62C provided on the other end side of the cable 61C for transmitting an endoscope image signal extending from the connector 60C.
  • the light source device 3 has a light guide connector (not shown) in which the light guide cable 3a can be attached and detached at the center of the connector 34C.
  • a pin for electrical connection with the endoscope 2C is disposed around the light guide connector.
  • a pin for electrical connection is connected together with the light guide connector.
  • the processor 4 performs control and the like for each part of the endoscope system 1.
  • a keyboard 5 and a foot switch 6 as an operation device capable of giving an operation instruction to each part of the endoscope system 1 are detachable (or integrated) to the processor 4 as a medical image processing apparatus. It is connected. 1 shows a case where the light guide cable 3a is connected to the endoscope 2A. Note that the connector 62 ⁇ / b> C connected to the endoscope 2 ⁇ / b> C via the light source device 3 may be provided on the back surface of the processor 4.
  • the endoscope 2A has an insertion portion 21A, an objective optical system 22A, an actuator 23A, a CCD (charge coupled device) 24A, and a plurality of source coils 25A.
  • the insertion portion 21A can be inserted into a body cavity of a patient.
  • the objective optical system 22A is provided at the distal end of the insertion portion 21A and forms an image of the subject.
  • the actuator 23A moves the objective optical system 22A in the axial direction of the insertion portion 21A based on the drive signal output from the expansion board connected to the processor 4.
  • the CCD 24A is provided at the imaging position of the objective optical system 22A.
  • the plurality of source coils 25A are arranged over substantially the entire insertion portion 21A, and generate a magnetic field based on a drive signal output from an endoscope shape detection device described later.
  • the endoscope 2A includes a light guide 26A, an operation unit 27A, an operation switch unit 28A, a connector 29A, a memory 30A, a CPU 31A, and a reset circuit 32A.
  • the light guide 26A guides illumination light supplied from the light source device 3 through the light guide cable 3a to the distal end portion of the insertion portion 21A.
  • the operation unit 27A is used to give an operation instruction to the endoscope 2A and the like.
  • the operation switch unit 28A is an operation device including one or more switches provided in the operation unit 27A.
  • the memory 30A stores a program, endoscope specific information data, and the like.
  • the endoscope 2A is detachably connected to the processor 4 by a connector 34A provided on the other end side of the cable 33A extending from the connector 29A. Then, the connector 29A outputs an endoscope connection detection signal indicating that the endoscope 2A is connected to the processor 4 to the processor 4 via the signal line 29a.
  • One end of the signal line 29a is connected to the connector 29A and is arranged so as to be inserted through the cable 33A. The other end of the signal line 29 a is connected to the internal circuit of the processor 4.
  • the CCD 24A captures an image of the subject formed by the objective optical system 22A.
  • the CCD 24A outputs the captured image of the subject to the processor 4 through the signal line 24a1 as an imaging signal.
  • One end of the signal line 24a1 is connected to the CCD 24A, and is arranged so as to be inserted through the cable 33A.
  • the other end of the signal line 24 a 1 is connected to the internal circuit of the processor 4.
  • the CCD 24A is driven in accordance with the CCD drive signal generated by the processor 4 and then input through the signal line 24a2.
  • One end of the signal line 24a2 is connected to the CCD 24A, and is arranged so as to pass through the cable 33A.
  • the other end of the signal line 24 a 2 is connected to the internal circuit of the processor 4.
  • the memory 30A is a non-volatile memory such as an EEPROM, FLASH ROM, FRAM (registered trademark), FeRAM, MRAM, OUM, or SRAM with battery. Further, in the memory 30A, as the endoscope specific information data described above, for example, the type of the CCD 24A, the type of the endoscope 2A, the serial number of the endoscope 2A, the white balance data (one or more), the endoscope The number and channel diameter of forceps channels (not shown) of the mirror 2A, the number of energizations to the CPU 31A, the number of times each switch provided on the operation switch unit 28A is pressed, the bending characteristics of the insertion unit 21A, the value of the diameter of the insertion unit 21A, The diameter of the distal end of the insertion portion 21A, the enlarged scale of the objective optical system 22A, the forceps position information on the endoscope composite image, the inspection instruction information, the date of first use of the endoscope 2A, the number of inspection
  • the CPU 31A includes an interface circuit (serial interface circuit or parallel interface circuit), a watchdog timer, a timer, SRAM, FLASH ROM, and the like.
  • the CPU 31A performs reading of various data stored in the memory 30A and writing control of various data to the memory 30A via an interface circuit (not shown).
  • the CPU 31A performs arithmetic processing such as the number of connections of the endoscope 2A, the number of times each switch provided in the operation switch unit 28A is pressed, and the number of times the CPU 31A is energized.
  • the CPU 31A transmits / receives the calculation processing result performed by the CPU 31A itself and the various data stored in the memory 30A to / from the processor 4 via the signal line 31a.
  • One end of the signal line 31a is connected to the CPU 31A and is disposed so as to pass through the inside of the cable 33A.
  • the other end of the signal line 31 a is connected to the internal circuit of the processor 4.
  • the reset circuit 32A performs a reset process according to the timing at which the power supplied from the processor 4 fluctuates or the timing based on the watchdog timer in the CPU 31A.
  • the switch ON / OFF signal generated by operating each switch of the operation switch unit 28A is output to the processor 4 through the signal line 28a.
  • the endoscope connection detection signal generated in the connector 29A is output to the processor 4 via the signal line 28a.
  • One end of the signal line 28a is connected to each switch of the operation switch unit 28A, and is arranged so as to be inserted through the cable 33A. Further, the other end side of the signal line 28 a is connected to the internal circuit of the processor 4.
  • the switch ON / OFF signal generated by operating each switch of the operation switch unit 28A and the endoscope connection detection signal generated in the connector 29A are drive voltages supplied from the drive circuit 71 of the processor 4. It is assumed that it is generated using
  • the endoscope 2B includes an insertion portion 21B, an objective optical system 22B, an actuator 23B, a CCD (charge coupled device) 24B, and a plurality of source coils 25B.
  • the insertion portion 21B can be inserted into a patient's body cavity.
  • the objective optical system 22B is provided at the distal end of the insertion portion 21B and forms an image of the subject.
  • the actuator 23B moves the objective optical system 22B in the axial direction of the insertion portion 21B based on the drive signal output from the drive circuit 602 of the processor 4.
  • the CCD 24B is provided at the imaging position of the objective optical system 22B.
  • the plurality of source coils 25B are arranged over substantially the entire insertion portion 21B, and generate a magnetic field based on a drive signal output from an endoscope shape detection device to be described later.
  • the endoscope 2B includes a light guide 26B, an operation unit 27B, an operation switch unit 28B, a connector 29B, a memory 30B, a control circuit 31B, and a reset circuit 32B.
  • the light guide 26B guides illumination light supplied from the light source device 3 through the light guide cable 3a to the distal end portion of the insertion portion 21B.
  • the operation unit 27B issues an operation instruction to the endoscope 2B and the like.
  • the operation switch unit 28B is an operation device that includes one or more switches provided in the operation unit 27B.
  • the memory 30B stores a program, endoscope specific information data, and the like.
  • the endoscope 2B is detachably connected to the processor 4 by a connector 34B.
  • the connector 34B is provided on the other end side of the cable 33B extending from the connector 29B.
  • the CCD 24B captures an image of the subject formed by the objective optical system 22B.
  • the CCD 24B outputs the captured image of the subject to the CDS (correlated double sampling) circuit 35B via the signal line 24b1 as an imaging signal.
  • the CDS circuit 35B performs correlated double sampling processing on the imaging signal output from the CCD 24B.
  • the CDS circuit 35B converts the imaging signal after the correlated double sampling processing into an analog / digital (A / D) conversion unit (hereinafter abbreviated as A / D) via the signal line 35b. Output to 36B.
  • a / D analog / digital
  • the A / D 36B converts the analog imaging signal output from the CDS circuit 35B into a digital signal.
  • the A / D 36B outputs the digital signal obtained by the conversion to the P / S 37B through the signal line 36b.
  • the memory 30B is a non-volatile memory such as an EEPROM, FLASH ROM, FRAM, FeRAM, MRAM, OUM, or battery-equipped SRAM. Further, in the memory 30B, as the endoscope specific information data, for example, the type of the CCD 24B, the type of the endoscope 2B, the serial number of the endoscope 2B, the white balance data (one or more), the endoscope The number and channel diameter of forceps channels (not shown) of the mirror 2B, the number of energizations to the control circuit 31B, the number of times each switch provided in the operation switch unit 28B is pressed, the bending characteristics of the insertion unit 21B, and the diameter of the insertion unit 21B Value, diameter value of the distal end of the insertion portion 21B, magnification scale of the objective optical system 22B, forceps position information on the endoscope composite image, inspection instruction information, first use date of the endoscope 2B, number of inspections, service Information, manufacturer comment, service comment,
  • control circuit 31B includes an interface circuit (serial interface circuit or parallel interface circuit), a watchdog timer, a timer, SRAM, FLASH ROM, and the like.
  • the control circuit 31B performs reading control of various data stored in the memory 30B and writing control of various data to the memory 30B via an interface circuit (not shown).
  • control circuit 31B performs arithmetic processing such as, for example, the number of connections of the endoscope 2B, the number of times each switch provided in the operation switch unit 28B is pressed, and the number of energizations to the control circuit 31B.
  • the control circuit 31B outputs the calculation processing result performed by the control circuit 31B itself and various data stored in the memory 30B to the P / S 37B via the signal line 31b1, the driver 38B, and the signal line 38b1. To do.
  • Various signals and data output from an S / P converter 39B (hereinafter abbreviated as S / P in the drawings and below) 39B are transmitted to the control circuit 31B via the signal line 38b2, the driver 38B, and the signal line 31b2. Is input.
  • control circuit 31B controls the threshold value and determination range of the CDS circuit 35B.
  • the reset circuit 32B performs a reset process according to the timing at which the power supplied from the processor 4 fluctuates or the timing based on the watchdog timer in the control circuit 31B.
  • Switch ON / OFF signal generated by operating each switch of the operation switch unit 28B is output to the P / S 37B via the signal line 28b. It is assumed that the switch ON / OFF signal generated by operating each switch of the operation switch unit 28B is generated using the drive voltage supplied from the drive circuit 71 of the processor 4.
  • the P / S 37B includes a switch ON / OFF signal input via the signal line 28b, a digital signal input via the signal line 36b, various data input via the signal line 38b1, and an arithmetic processing result. Is subjected to parallel / serial conversion. As a result, the P / S 37B generates a serial signal. The P / S 37B outputs the generated serial signal to the processor 4 via the transceiver 40B and a signal line arranged so as to be inserted through the cable 33B.
  • the S / P 39B performs serial / synchronization on various signals and data input as serial signals via the signal line arranged so as to be inserted through the cable 33B after being output from the processor 4 and the receiver 41B. Perform parallel conversion. Thereafter, the S / P 39B outputs the various parallel signals and data to the driver 38B via the signal line 38b2. In addition, the S / P 39B outputs the various parallelized signals and data to the D / A conversion unit (hereinafter abbreviated as D / A in the drawings) 42B via the signal line 42b.
  • D / A conversion unit hereinafter abbreviated as D / A in the drawings
  • the D / A 42B converts the CCD drive signal generated in the processor 4 based on the endoscope connection detection signal out of various signals and data output from the S / P 39B into an analog signal. Thereafter, the D / A 42B outputs the analog signal to the CCD 24B via the signal line 24b2.
  • the CCD 24B is driven in accordance with a CCD drive signal input via the signal line 24b2.
  • the connector 29B outputs an endoscope connection detection signal indicating that the endoscope 2B is connected to the processor 4 to the processor 4 via the signal line 29b.
  • One end of the signal line 29b is connected to the connector 29B and is arranged so as to pass through the inside of the cable 34B.
  • the other end of the signal line 29 b is connected to the internal circuit of the processor 4.
  • P / S 37B, S / P 39B, driver 38B, control circuit 31B, and reset circuit 32B are arranged in an FPGA (Field Programmable). Gate (Array), ASIC (Application Specific Integrated Circuit), or DSP (Digital Signal Processor) may be used.
  • the endoscope 2C includes an insertion portion 21C, an objective optical system 22C, an actuator 23C, a CCD (charge coupled device) 24C, and a plurality of source coils 25C.
  • the insertion part 21C can be inserted into the body cavity of a patient.
  • the objective optical system 22C is provided at the distal end of the insertion portion 21C and forms an image of the subject.
  • the actuator 23C moves the objective optical system 22C in the axial direction of the insertion portion 21C based on the drive signal output from the drive circuit 602 of the processor 4.
  • the CCD (charge coupled device) 24C is provided at the image forming position of the objective optical system 22C.
  • the plurality of source coils 25C are arranged over substantially the entire insertion portion 21C, and generate a magnetic field based on a drive signal output from an endoscope shape detection device described later.
  • the endoscope 2C includes a light guide 26C, an operation unit 27C, an operation switch unit 28C, a connector 29C, a memory 30C, a control circuit 31C, and a reset circuit 32C.
  • the light guide 26C guides illumination light supplied from the light source device 3 through the light guide cable 3a to the distal end portion of the insertion portion 21C.
  • the operation unit 27C is used to give an operation instruction to the endoscope 2C and the like.
  • the operation switch unit 28C is an operation device configured by one or more switches provided in the operation unit 27C.
  • the memory 30C stores a program, endoscope specific information data, and the like.
  • the endoscope 2C is detachably connected to the processor 4 by a connector 34C connected to the connector 29C.
  • the CCD 24C captures an image of a subject formed by the objective optical system 22C.
  • the CCD 24C outputs the captured image of the subject to the CDS (correlated double sampling) circuit 35C via the signal line 24c1 as an imaging signal.
  • the CDS circuit 35C performs correlated double sampling processing on the imaging signal output from the CCD 24C.
  • the CDS circuit 35C outputs the image signal after the correlated double sampling processing to an A / D converter (hereinafter abbreviated as A / D) 36C via the signal line 35c.
  • a / D A / D converter
  • the A / D 36C converts the analog imaging signal output from the CDS circuit 35C into a digital signal.
  • the A / D 36C outputs the digital signal obtained by the conversion to the P / S 37C via the signal line 36c.
  • the memory 30C is a non-volatile memory such as an EEPROM, FLASH ROM, FRAM, FeRAM, MRAM, OUM, or battery-equipped SRAM. Further, in the memory 30C, as the endoscope specific information data described above, for example, the type of the CCD 24C, the type of the endoscope 2C, the serial number of the endoscope 2C, the white balance data (one or more), the endoscope The number and channel diameter of forceps channels (not shown) of the mirror 2C, the number of energizations to the control circuit 31C, the number of times each switch provided in the operation switch unit 28C is pressed, the bending characteristics of the insertion unit 21C, and the diameter of the insertion unit 21C Value, diameter value of the distal end of the insertion portion 21C, magnification scale of the objective optical system 22C, forceps position information on the endoscope composite image, inspection instruction information, first use date of the endoscope 2C, number of inspections, service Information, manufacturer comment, service
  • control circuit 31C includes an interface circuit (serial interface circuit or parallel interface circuit), a watchdog timer, a timer, SRAM, FLASH ROM, and the like.
  • the control circuit 31C performs reading control of various data stored in the memory 30C and writing control of various data to the memory 30C via an interface circuit (not shown).
  • control circuit 31C performs arithmetic processing such as the number of connections of the endoscope 2C, the number of times each switch provided in the operation switch unit 28C is pressed, and the number of times of energization to the control circuit 31C.
  • the control circuit 31C outputs the calculation processing result performed by the control circuit 31C itself and various data stored in the memory 30C to the P / S 37C via the signal line 31c1, the driver 38C, and the signal line 38c1. To do.
  • Various signals and data output from the S / P converter 39C (hereinafter abbreviated as S / P in the drawings and below) 39C via the signal line 38c2, the driver 38C, and the signal line 31c2 It is input to 31C.
  • control circuit 31C controls the threshold value and determination range of the CDS circuit 35C.
  • the reset circuit 32C performs a reset process according to the timing at which the power supplied from the processor 4 fluctuates or the timing based on the watchdog timer in the control circuit 31C.
  • the switch ON / OFF signal generated when each switch of the operation switch unit 28C is operated is output to the P / S 37C via the signal line 28c. It is assumed that the switch ON / OFF signal generated by operating each switch of the operation switch unit 28C is generated using the drive voltage supplied from the drive circuit 71 of the processor 4.
  • the P / S 37C includes a switch ON / OFF signal input through the signal line 28c, a digital signal input through the signal line 36c, various data input through the signal line 38c1, and an arithmetic processing result. Is subjected to parallel / serial conversion. As a result, the P / S 37C generates a serial signal. The P / S 37C outputs the generated serial signal to the processor 4 via the transceiver 40C and the connector 29C-connector 34C.
  • the S / P 39C performs serial / parallel conversion on various signals and data input as serial signals via the connector 34C-connector 29C and the receiver 41C after being output from the processor 4. Thereafter, the S / P 39C outputs the various parallelized signals and data to the driver 38C via the signal line 38c2. In addition, the S / P 39C outputs the various parallelized signals and data to a D / A conversion unit (hereinafter abbreviated as D / A in the drawing) 42C through the signal line 42c.
  • D / A conversion unit hereinafter abbreviated as D / A in the drawing
  • the D / A 42C converts the CCD drive signal generated in the processor 4 based on the endoscope connection detection signal out of various signals and data output from the S / P 39C into an analog signal. Thereafter, the D / A 42C outputs the analog signal obtained by the conversion to the CCD 24C via the signal line 24c2.
  • the CCD 24C is driven in accordance with a CCD drive signal input via the signal line 24c2.
  • the connector 29C outputs an endoscope connection detection signal indicating that the endoscope 2C is connected to the processor 4 to the processor 4 via the signal line 29c.
  • One end of the signal line 29c is connected to the connector 29C.
  • the other end of the signal line 29c is connected to the internal circuit of the processor 4 through the connector 34C, the light source device 3, and the connectors 60C and 62C.
  • P / S 37C, S / P 39C, driver 38C, control circuit 31C, and reset circuit 32C are arranged in an FPGA (Field Programmable). Gate (Array), ASIC (Application Specific Integrated Circuit)), DSP (Digital Signal Processor), or the like.
  • the endoscope 2C is detachably connected to the light source device 3 through the connector 29C and the connector 34C provided on the other end side without using the light guide 3a.
  • the endoscope 2C introduces not only a signal to the endoscope but also illumination light by the connector 34C.
  • the illumination light passes through the connectors 34C and 29C through the light guide 3b inside the endoscope 2C, and is irradiated from the distal end of the endoscope 2C.
  • the connector 29C outputs an endoscope connection detection signal indicating that the endoscope 2C is connected to the processor 4 to the processor 4 via the signal line 29c.
  • One end of the signal line 29c is connected to the connector 29C.
  • the other end of the signal line 29c is connected to the connector 34C of the light source device 3.
  • variation correction information of the actuator 23C may be stored in the memory 30C.
  • the variation correction information may be stored in association with the serial number of the processor 4 or the serial number of the board on which the receiver 78 and the transceiver 81 of the processor 4 are realized.
  • each of the endoscopes 2A, 2B, and 2C may be configured as a flexible endoscope, or may be configured as a rigid endoscope.
  • the light source device 3 includes a lamp 51, RGB filters 52, a plurality of (for example, three) special light filters 53 ⁇ / b> A, 53 ⁇ / b> B and 53 ⁇ / b> C, a throttle 54, an RGB filter 52, and a light source device control unit 55.
  • the lamp 51 emits white light.
  • the RGB filter 52 converts white light emitted from the lamp 51 into RGB frame sequential light.
  • the plurality of (for example, three) special light filters 53A, 53B, and 53C generate a narrow band light by cutting a predetermined band of the white light emitted from the lamp 51.
  • the aperture 54 controls the amount of white light emitted from the lamp 51.
  • the light source device control unit 55 inserts and removes the special light filters 53A, 53B, and 53C with respect to the outgoing optical axis of white light emitted from the lamp 51 in accordance with a dimming signal described later.
  • the light source device 3 includes an operation panel 56, a memory 57, a CPU 58, a connector 60, and a connector 64.
  • the operation panel 56 can perform various settings and operation instructions such as adjustment of the amount of emitted illumination light, power ON / OFF of the apparatus, lighting / extinguishing of the lamp 51, transmitted illumination, and filter switching.
  • the memory 57 stores programs and various data.
  • the light source device 3 is detachably connected to the processor 4 by a connector 62 provided on the other end side of the cable 61 extending from the connector 60.
  • the connector 64 can communicate with other devices via a serial interface.
  • the serial interface may be constituted by any of asynchronous, clock synchronous, USB (registered trademark) HOST / DEVICE, CAN, FLEX RAY, or I2C.
  • the light source device control unit 55 detects light amount information that is information relating to the amount of white light emitted from the lamp 51, and inputs / outputs the detected light amount information to the processor 4 via the signal line 59a as a light amount detection signal. To do.
  • the memory 57 is a non-volatile memory, such as an EEPROM, FLASH ROM, FRAM, FeRAM, MRAM, OUM, or battery-equipped SRAM. Further, the memory 57 stores, for example, the light amount adjustment data, the life of the lamp 51, the serial number of the apparatus, the RGB filter 52, the types of the special light filters 53A, 53B, and 53C, and maintenance information as the various data described above. Has been.
  • the CPU 58 includes a SIO (Serial Input / Output) 58A and a PIO (Parallel input / output) 58B. Then, the CPU 58 performs reading control of various data stored in the memory 57 and writing control of various data to the memory 57 via either the SIO 58A or the PIO 58B.
  • the CPU 58 controls the light source device control unit 55 and the operation panel 56. Note that for writing and reading data between the CPU 58 and the memory 57, either a parallel interface or a serial interface may be used. Such a configuration is assumed to be the same between the control circuit 31B and the memory 30B, between the control circuit 31C and the memory 30C, and between the CPU 31A and the memory 30A.
  • the CPU 58 transmits / receives the arithmetic processing result performed by the CPU 58 itself and various data stored in the memory 57 to / from the processor 4 through the signal line 58a.
  • One end side of the signal line 58 a is connected to the CPU 58 and is arranged so as to pass through the cable 61.
  • the other end of the signal line 58 a is connected to the internal circuit of the processor 4.
  • the CPU 58 outputs various signals and data from the SIO 58A to the signal line 58a.
  • the various signals and data output to the signal line 58a are input to the internal circuit of the processor 4.
  • the grounding point 63 provided in the light source device 3 is connected to the signal line 63a.
  • a light source detection signal for determining whether or not the light source device 3 is a model capable of communicating with the processor 4 is a ground point 63. To the processor 4 via the signal line 63a.
  • the processor 4 includes a drive circuit 71, an image processing unit 72, an image compression / decompression unit 73, a main control unit 75, a front panel 76, an expansion control unit 77, and an insulation circuit 599.
  • the image processing unit 72 performs various processes on the image according to the subject image captured by the endoscopes 2A, 2B, and 2C.
  • the main control unit 75 controls each part of the processor 4.
  • the front panel 76 can perform various settings and operation instructions to the processor 4 and the like.
  • the expansion control unit 77 is configured to be detachable from the processor 4 as one or a plurality of expansion boards that can be replaced with other boards having a desired function.
  • the drive circuit 71 determines which of the endoscopes 2A, 2B, and 2C is connected based on the endoscope connection detection signals generated at the connector 29A, the connector 29B, and the connector 29C.
  • the drive circuit 71 generates a CCD drive signal for driving any one of the CCDs 24A, 24B, and 24C.
  • the drive circuit 71 outputs the generated CCD drive signal to the endoscopes 2A, 2B, and 2C via the signal lines 24a2, 603, and 604.
  • the drive circuit 71 supplies drive power for operating the ICs in the endoscopes 2A, 2B, and 2C.
  • the drive circuit 71 controls the selector 600 so as to select the receiver input input from the endoscope that is being driven. For example, when the endoscope having the CCD being driven is 2C, the drive circuit 71 controls the selector 600 so as to select the input of the receiver input from the endoscope 2C.
  • the driving endoscope is 2A
  • the endoscope 2A selects a signal input via the receiver so as not to become indefinite.
  • the drive circuit 71 determines that the endoscope is not connected and does not output the CCD drive signal.
  • the drive circuit 71 when two or all of the endoscopes 2A, 2B, and 2C are connected, the drive circuit 71 performs the following. That is, the drive circuit 71 is based on a predetermined priority order (switching order by the selector 94 described later in FIGS. 7A to 7B) and based on an endoscope connection detection signal generated in the connectors 29A, 29B, and 29C. Thus, a CCD drive signal for driving any one of the CCDs 24A, 24B, and 24C is generated.
  • priority order may be changed by the CPU 131 (to be described later) including the switching order by the selector 94 (to be described later in FIGS. 7A to 7B).
  • the image processing unit 72 may each be provided on one board, and, like the expansion control unit 77, exchange with other boards. It may have a possible configuration.
  • the signal transmission between the units included in the processor 4 may be performed using a parallel method, or LVDS (Low voltage differential) and RSDS (reduced voltage swing differential) for noise reduction and miniaturization. signaling) or a differential serial system such as LVPECL (low voltage positive emitter coupled logic) may be used. Further, when signals are transmitted between the units included in the processor 4, the signals may be transmitted in an encrypted state. As a result, when signals are transmitted between the units included in the processor 4, the contents of the signals are not easily confirmed from outside the board, and as a result, the security of the processor 4 is improved.
  • the S / P 79 includes various signals input as serial signals at the S / P 79 via the signal line arranged so as to be inserted through the cable 33B after being output from the endoscope 2B and the receiver 78. Serial / parallel conversion is performed on the data. Thereafter, the S / P 79 outputs the various parallel signals and data to the image processing unit 72.
  • the P / S 80 generates a serial signal by performing parallel / serial conversion on the signal output from the image processing unit 72, and outputs the serial signal to the transceiver 81.
  • the transceiver 81 outputs the signal output from the P / S 80 to the endoscope 2B via a signal line arranged to be inserted through the cable 33B, and is arranged to be inserted through the cable 61C. And output to the endoscope 2C through the signal line.
  • signals passing through the connectors 34B and 62C of the processor 4 of this embodiment are insulated by passing through the insulation circuit 599.
  • the image processing unit 72 of the processor 4 has a configuration as shown in FIGS. 7A to 7B (described below), for example.
  • the image pickup signal output via the signal line 24a1 is subjected to CDS processing by the CDS circuit 91 of the image processing unit 72. Thereafter, the image pickup signal subjected to the CDS process is digitally converted by an A / D converter 92 (hereinafter abbreviated as A / D) 92.
  • the digitally converted image signal is converted to a predetermined frequency (for example, 13.5 MHz) by a frequency converter (not shown). Thereafter, the imaging signal converted to the predetermined frequency is input to the selector 94 via an insulation circuit 93 configured by a photocoupler or the like.
  • the endoscope connection detection signal output via the signal line 29 a is input to the selector 94 via the insulation circuit 93.
  • Various signals and data output via the signal line 31 a are input to the selector 94 via the insulation circuit 93.
  • the switch ON / OFF signal output via the signal line 28 a is input to the selector 94 via the insulation circuit 93.
  • an imaging signal which is an output signal of S / P 79 is input to the selector 94 via a signal line 79b.
  • a switch ON / OFF signal is input to the selector 94 via a signal line 79c.
  • Various signals and data are input to the selector 94 via a driver 82 and a signal line 82a.
  • endoscope connection detection signals from the endoscopes 2A, 2B, and 2C are input to the selector 94 via signal lines 29a, 29b, and 29c, respectively.
  • the selector 94 includes an endoscope connection detection signal input via the signal line 29a and an endoscope connection detection signal from the endoscope 2B input via the signal line 29b. And the connection state of the endoscopes 2A, 2B, and 2C are detected based on the endoscope connection detection signal from the endoscope 2C input through the signal line 29c.
  • the selector 94 determines that the endoscope 2C is connected in any one of the following four cases.
  • the first case is a case where the endoscopes 2A, 2B, and 2C are all connected to the processor 4.
  • the second case is a case where the endoscopes 2B and 2C are connected to the processor.
  • the third case is a case where the endoscopes 2A and 2C are connected to the processor.
  • the fourth case is a case where only the endoscope 2C is connected to the processor.
  • the selector 94 receives the imaging signal input via the signal line 79b via the receiver 605, the selector 600, and the S / P 79.
  • the selector 94 outputs the switch ON / OFF signal input via the signal line 79 c to the signal line 94 b and stores it in the setting holding unit 606.
  • the selector 94 outputs the endoscope connection detection signal from the endoscope 2 ⁇ / b> C input via the signal line 29 c to the signal line 94 b and stores it in the setting holding unit 606.
  • the selector 94 outputs various signals and data, which are input via the signal line 82 a and stored in the memory 30 ⁇ / b> C in the endoscope 2 ⁇ / b> C, to the signal line 94 b and stores them in the setting holding unit 606.
  • the selector 94 is used for the endoscope in either one of the case where the endoscope 2A and the endoscope 2B are connected to the processor 4, or the case where only the endoscope 2B is connected to the processor. It is determined that the mirror 2B is connected. In this case, the imaging signal input via the signal line 79b via the receiver 78, the selector 600, and the S / P 79 is output to the signal line 94a.
  • the selector 94 outputs the switch ON / OFF signal input via the signal line 79 c to the signal line 94 b and stores it in the setting holding unit 606.
  • the selector 94 outputs the endoscope connection detection signal from the endoscope 2B input via the signal line 29b to the signal line 94b and stores it in the setting holding unit 606.
  • the selector 94 causes the various signals and data stored in the memory 30B in the endoscope 2B input via the signal line 82a to be output to the signal line 94b and stored in the setting holding unit 606.
  • the selector 94 when only the endoscope 2A is connected to the processor, the selector 94 outputs an imaging signal input via the selector 94 and the insulating circuit 93 to the signal line 94a.
  • the selector 94 outputs the endoscope connection detection signal input via the signal line 29 a and the insulation circuit 93 to the signal line 94 b and stores the signal in the setting holding unit 606. Further, the selector 94 outputs the switch ON / OFF signal input via the signal line 28 a and the insulating circuit 93 to the signal line 94 b and stores it in the setting holding unit 606.
  • the setting holding unit 606 may be configured by a logic circuit such as a flip-flop, or may be configured by a memory such as a FIFO or a Dual Port RAM.
  • the setting holding unit 606 holds the endoscope connection detection signal of the endoscope 2A, the endoscope 2B, and the endoscope 2C and the determination result of which endoscope is connected. When the endoscope is not connected, the setting holding unit 606 holds a determination result indicating that the endoscope is not connected.
  • the selector 94 is switched when the signals obtained by one of the endoscopes connected first when the two or more of the endoscopes 2A, 2B and 2C are connected.
  • a process of outputting and displaying an image may be performed.
  • the following may be performed. That is, among the units disposed in the subsequent stage of the selector 94 in the processor 4, a graphic circuit 106H (or 106S) described later generates and displays a warning display image indicating that simultaneous connection is performed, for example, as shown in FIG. It may be output.
  • the selector 94 may automatically output an image obtained by the other endoscope when it is detected that one of the endoscopes has been removed.
  • the processor 4 promptly prompts the user when two or more endoscopes of the endoscope 2A, the endoscope 2B, and the endoscope 2C are connected to the processor 4. Can be announced to remove
  • the processor 4 automatically displays the image of the other connected endoscope when one of the endoscopes is removed. As a result, the user can perform the inspection easily and promptly, the inspection efficiency can be improved, and the inspection time can be shortened.
  • each unit arranged in the subsequent stage of the selector 94 in the processor 4 includes the front panel 76 and / or An LED (not shown) provided on the keyboard 5 indicates a warning. Therefore, a process for turning on or blinking the LED may be performed, or a process for sounding a warning sound by a buzzer (not shown) may be performed.
  • the CPU 131 can store various other signals and data in the setting holding unit 606 via the CPU 131 and the BUF 139.
  • the various signals and data stored can be stored in the memories 30B and 30C in the endoscopes 2B and 2C via the selector 94, the signal line 601, the P / S 80, and the transceiver 81, respectively.
  • the imaging signal output from the selector 94 to the signal line 94a is subjected to OB (Optical Black) clamp processing, frequency conversion (for example, 27 MHz) processing, white balance processing, and AGC (Automatic Gain Control) processing by the pre-stage image processing circuit 95. Applied. Thereafter, the imaged signal subjected to such processing is output to the freeze circuit 96 as an image signal.
  • the endoscope connection detection signal, the switch ON / OFF signal, various signals, and data output from the selector 94 to the signal line 94 b are stored in the setting holding unit 606.
  • the main control unit 75 inputs / outputs storage information of the setting holding unit via the BUF 139.
  • various signals and data output from the insulation circuit 93 to the signal line 94c are input / output to / from the main control unit 75 (SIO 142 which the main control unit 75 has, which will be described later) (shown as A2 in the figure). ).
  • the image signal output from the pre-stage image processing circuit 95 is input to the freeze circuit 96.
  • the freeze switch hereinafter referred to as the freeze switch
  • the first freeze instruction hereinafter referred to as the freeze instruction
  • a freeze image is output to 97.
  • the first freeze image acquired when the freeze instruction is given is referred to as a freeze image.
  • the freeze switch provided in the operation device may be capable of toggle operation (the operation of freeze ON ⁇ OFF ⁇ ON... Is repeated each time the switch is pressed).
  • the operation device refers to the keyboard 5, the foot switch 6, the front panel 76, the operation switch units 28 ⁇ / b> A and 28 ⁇ / b> B, and each HID (Human Interface® Device) described later.
  • the freeze circuit 96 may output a pre-freeze image in addition to the above-described freeze image.
  • the image signal output from the freeze circuit 96 is input to the subsequent image processing circuit 98.
  • the image signal input to the subsequent image processing circuit 98 is subjected to processing such as IHb color enhancement processing, moving image color shift correction processing, R (red) or B (blue) tone adjustment processing, and ⁇ correction processing. Is output as a status.
  • the image signal output from the post-stage image processing circuit 98 includes a processing system for generating an SDTV (Standard Definition-TeleVision) image as a standard image and an HDTV (High Definition TeleVision) image as a high-quality image. Each is output to a processing system for generation.
  • the processor 4 outputs both SDTV output (in the case of NTSC ... output equivalent to 720 ⁇ 480, in the case of PAL ... output equivalent to 720 ⁇ 576) and HDTV output (output equivalent to 1920 ⁇ 1080).
  • the image can be output by the method.
  • Enlargement / reduction processing (electronic enlargement / reduction processing, image size change processing, and the like) is performed on the image signal output from the subsequent image processing circuit 98 by the enlargement / enhancement circuit 99S according to the operation and setting of each operation device ), An edge enhancement process, a structure enhancement process, and the like are performed. Then, the image signal is subjected to processing such as up / down / left / right inversion processing and 90 ° rotation processing by the image rotation processing circuit 100S. Thereafter, the image signal is subjected to synchronization processing by the synchronization circuit 101S.
  • the synchronization circuit 101S operates at 27 MHz when an image signal is input, and operates at 13.5 NHz when an image signal is output.
  • the memory 102S is configured by a nonvolatile memory such as FLASH ROM, FRAM, FeRAM (Ferroelectric Random Access Memory), MRAM (Magnetoresistive Random Access Memory), or OUM (Ovonic Unified Memory).
  • the memory 102S stores processing parameters such as an enlargement (reduction) coefficient, an enhancement coefficient, and an image rotation parameter, for example, as parameters relating to processing of the enlargement / enhancement circuit 99S and the image rotation processing circuit 100S.
  • the controller 103S controls processing of the enlargement / enhancement circuit 99S and the image rotation processing circuit 100S according to each processing parameter stored in the memory 102S.
  • the memory 102S is an SRAM (Static Random Access Memory), SDRAM (Synchronous Dynamic Random Access Memory), EDORAM (Extended Data Random Access Memory), DRAM (Dynamic Random Access Memory), RDRAM (Rambus Dynamic Random Access Memory), or the like. It may be configured as a volatile memory.
  • the memory 102S may be configured such that necessary parameters are written by the main control unit 75 each time the main power supply of the processor 4 is turned on. The following description will be made assuming that the same configuration as that of the memory 102S described above can be applied to all the memories included in the image processing unit 72.
  • the memory 104S stores each frame image so that the R, G (green) and B frame images are simultaneously output by the synchronization processing by the synchronization circuit 101S.
  • the mask processing circuit 611S performs mask processing on the image signal output as a state synchronized by the synchronization circuit 101S.
  • the graphic circuit 106S generates and outputs character and graphic information indicating information related to an image corresponding to the image signal masked by the mask processing circuit 611S (hereinafter referred to as endoscope related information).
  • the graphic information is information relating to each image such as error display, menu display, HELP image, GUI, CUI, and the like.
  • the memory 107S is a memory used when the graphic circuit 106S generates characters and graphic information indicating endoscope related information.
  • the synthesizing circuit 108S for the image signal masked by the mask processing circuit 611S, character and graphic information generated in the graphic circuit 106S, an enlargement / reduction / image arrangement circuit 122S, an image compression / decompression unit 73, and expansion control described later.
  • the output from each unit of the unit 77 is synthesized.
  • the combining circuit 108S outputs the combined image signal as an endoscope combined image.
  • the endoscope composite image output from the synthesis circuit 108S is converted into an analog signal by a D / A conversion unit (hereinafter abbreviated as D / A in the drawings) 110S, and level adjustment is performed by the adjustment circuit 111S.
  • D / A conversion unit hereinafter abbreviated as D / A in the drawings
  • the image signal output from the post-stage image processing circuit 98 is subjected to frequency conversion (for example, 74 MHz) by a frequency conversion unit (not shown). Thereafter, the image signal subjected to the frequency conversion processing is subjected to processing such as enlargement / reduction processing, contour enhancement processing, and structure enhancement processing by the enlargement / enhancement circuit 99H according to the operation and setting in each operation device. Is done. Then, the image rotation processing circuit 100H performs processing such as up / down / left / right reversal processing and 90-degree rotation processing on the image signal subjected to such processing. Thereafter, a synchronization process is performed by the synchronization circuit 101H on the image signal subjected to the processes.
  • frequency conversion processing for example, 74 MHz
  • processing such as enlargement / reduction processing, contour enhancement processing, and structure enhancement processing by the enlargement / enhancement circuit 99H according to the operation and setting in each operation device. Is done.
  • the image rotation processing circuit 100H performs processing such as
  • processing parameters such as an enlargement (reduction) coefficient, an enhancement coefficient, and an image rotation parameter are stored as parameters relating to the processing of the enlargement / enhancement circuit 99H and the image rotation processing circuit 100H. Then, the controller 103H controls processing of the enlargement / enhancement circuit 99H and the image rotation processing circuit 100H according to each processing parameter stored in the memory 102H.
  • the memory 104H stores the respective frame images so that the R, G (green) and B frame images are simultaneously output by the synchronization processing by the synchronization circuit 101H.
  • the mask processing circuit 611H performs a mask process on the image signal output as a state synchronized by the synchronization circuit 101H.
  • the graphic circuit 106H generates and outputs character and graphic information indicating information related to an image corresponding to the image signal masked by the mask processing circuit 611H (hereinafter referred to as endoscope related information).
  • the graphic information is information relating to each image such as error display, menu display, HELP image, GUI, CUI, and the like.
  • the memory 107H is a memory used when the graphic circuit 106H generates characters and graphic information indicating endoscope-related information.
  • the synthesizing circuit 108H performs character and graphic information generated in the graphic circuit 106H on the image signal masked by the mask processing circuit 611H, an enlargement / reduction / image arrangement circuit 122H, an image compression / decompression unit 73, and an expansion control described later.
  • the output from each unit of the unit 77 is combined, and the combined image signal is output as an endoscope combined image.
  • the endoscope composite image output from the combining circuit 108H is converted into an analog signal by a D / A conversion unit (hereinafter abbreviated as D / A in the drawings) 110H, and level adjustment is performed by an adjustment circuit 111H. , And output via the signal line 111Ha.
  • D / A conversion unit hereinafter abbreviated as D / A in the drawings
  • the image output unit 121 performs an encoding process on one of the endoscope composite image output from the composite circuit 108S and the endoscope composite image output from the composite circuit 108H. After that, the endoscope combined images are output via the signal line 121a. As a result, images are output (as digital images or analog images) via interfaces such as LVDS, SDI, H-SDI, DV (IEEE 1394), DVI, D1, D2, D3, D4, D5, D6, D9 or HDMI. it can.
  • interfaces such as LVDS, SDI, H-SDI, DV (IEEE 1394), DVI, D1, D2, D3, D4, D5, D6, D9 or HDMI. it can.
  • a / D or DEC circuit 612, frame synchronization + RGB conversion circuit 613, enlargement / reduction / image arrangement S, enlargement / reduction / image arrangement H are one set, there are two sets.
  • Each of the A / D or DEC circuits 612 and 612 ′ is a device capable of outputting an analog signal in the SDTV system (for example, a monitor 201A, a printer 202A, a VTR 203A, a filing device 204A, and a photography device 205A) among peripheral devices described later.
  • an apparatus capable of outputting an analog signal in the HDTV system for example, a monitor 201B1, a printer 202B1, a VTR 203B1, a filing device 204B1 and a photography device 205B1, an analog signal in the SDTV system and the HDTV system, or Devices capable of outputting digital signals (LVDS, SDI, H-SDI, DV (IEEE 1394), DVI, D1, D2, D3, D4, D5, D6, D9, HDMI, etc.) 201C1, printer 202C1, VTR 203C1, filing device 204C1, photography device 205C1, endoscope shape detection device 206C1 and ultrasonic device 207C1, monitor 201C2, printer 202C2, VTR 203C2, filing device 204C2, photography device 205C2, endoscope Signals output from the shape detection device 206C2 and the ultrasonic device 207C2 are input, and decoding processing (including digitization processing by A / D conversion) is performed.
  • each of the A / D or DEC circuits 612 and 612 ′ determines whether the input image is an HDTV image or an SDTV image, and SD / HD determination signals 615 and 615 ′ indicating the determination result. Is output.
  • SSG synchronization signal generation circuit
  • the image signal decoded by the A / DAor DEC circuit 612 is synthesized at an appropriate timing by the synthesis circuit 108S or 108H based on the discrimination signal of the SD / HD discrimination 615, 615 '.
  • each of the frame synchronization + RGB conversion circuit 613 (or 613 ') performs RGB conversion on the image signal.
  • the frame synchronization + RGB conversion circuit 613 (or 613 ′) converts the RGB signal (or YCrCb signal) obtained by the conversion into the enlargement / reduction / image arrangement circuits 122S and 122H (or 122S ′ and 122H ′), The signal is output to the image compression / decompression unit 73 via the signal lines 607 and 607 ′.
  • the RGB signals are synthesized at an appropriate timing by the synthesis circuit 108S.
  • the image is appropriately arranged in the endoscope composite image.
  • the enlargement / reduction / image arrangement circuits 122S and 122S ′ respectively output the RGB signals to the synthesis circuit 108S (FIGS. 7A to 7B). In A4 and A4 ′).
  • the RGB signals are synthesized at an appropriate timing by the synthesis circuit 108H.
  • the image is appropriately arranged in the endoscope composite image.
  • the enlargement / reduction / image arrangement circuits 122H and 122H ′ respectively output the RGB signals subjected to the HDTV synchronization processing to the synthesis circuit 108H. (Shown as A3 and A3 'in the figure).
  • the “74 MHz” is accurately indicated as either (74.25 / 1.001) MHz or 74.25 MHz.
  • the image compression / decompression unit 73 is configured as a programmable circuit such as an FPGA, a DSP, or a dynamic reconfigurable processor.
  • the image compression / decompression unit 73 may be configured to be able to switch functions as either a circuit having a still image compression processing function or a circuit having a moving image compression processing function. (Note that details of the image compression / decompression unit 73 used in the processor 4 of this embodiment will be described later with reference to FIG.
  • the compression format is (JPEG, JPEG2000, TIFF, BMP, AVI, MPEG, H.264 or WMV 1) may be selected, or a block (firmware or configuration data) corresponding to the selection result may be downloaded.
  • the block download may be performed by the CPU 151 of the expansion control unit 77A via the bus bridge 163, or from a ROM (not shown) provided in the image compression / decompression unit 73. good.
  • an error message indicating that the download is in progress may be displayed on the endoscope composite image, and a predetermined LED (not shown) of the operation device may be lit (or flashing). . Further, when the download of the block is normally completed, a message indicating that the block has been normally completed may be displayed on the screen.
  • the SSG 123 provided in the processor 4 is an endoscope connection detection signal output from the endoscope 2A via the signal line 29a and the insulation circuit 93, and an endoscope output from the endoscope 2B via the signal line 29b.
  • a plurality of vertical synchronization signals are generated as signals corresponding to the types of the endoscopes 2A, 2B, 2C.
  • a signal, a horizontal synchronization signal, an ODD / EVEN discrimination signal, and a clock are output.
  • the vertical synchronization signal VD1 (for example, 60 Hz) and the horizontal synchronization signal HD1 (for example, 15.75 kHz) are included in each part from the CDS circuit 91 to the subsequent image processing circuit 98, and the enlargement / enhancement circuit 99S.
  • VD1 for example, 60 Hz
  • HD1 for example, 15.75 kHz
  • the vertical synchronization signal VD2 for example, 50 Hz or 60 Hz
  • the vertical synchronization signal VD3 for example, 50 Hz or 60 Hz
  • the ODD / EVEN determination signal ODD2 the ODD / EVEN determination signal ODD3
  • the horizontal synchronization the vertical synchronization signal
  • the signal HD2 (for example, 15.75 kHz or 15.625 kHz) and the horizontal synchronization signal HD3 (for example, 33.75 kHz or 28.125 kHz) are transmitted to the synchronization circuit 101S, each part from the memory 104S to the synthesis circuit 108S, and the enlarged / reduced image
  • the data is output to the arrangement circuit 122S, the synchronization circuit 101H, each unit from the memory 104H to the synthesis circuit 108H, the enlargement / reduction / image arrangement circuit 122H, and the image output unit 121.
  • the SSG 123 is a standard clock in the SDTV system, which is 13.5 MHz which is a standard clock in the SDTV system, 27 MHz which is a clock having a frequency twice that of the standard clock, and a standard clock in the HDTV system. Each 74 MHz clock signal is output.
  • a 13.5 MHz clock signal includes components from the A / D 92 to the preceding image processing circuit 95, components from the enlargement / enhancement circuit 99S to the memory 104S, and a D / A 110S.
  • a 27 MHz clock signal includes components from the pre-stage image processing circuit 95 to the post-stage image processing circuit 98, units from the enlargement / enhancement circuit 99S to the controller 103S, and an image output unit 121.
  • a 74 MHz clock signal is enlarged / reduced to each part from the enlargement / enhancement circuit 99H to the D / A 110H, the image output part 121, the frame synchronization + RGB conversion circuits 613, 613 ′. Output to the image placement circuits 122H and 122H ′.
  • the main control unit 75 of the processor 4 has a configuration as shown in FIG. 9, for example.
  • the CPU 131 of the main control unit 75 controls writing and reading of data in the RAMs 132 and 133 via a parallel interface (or serial interface) (not shown) and the system bus 131a.
  • the RAMs 132 and 133 are configured as volatile memories such as SRAM, SDRAM, DRAM, or RDRAM, for example.
  • the RAMs 132 and 133 can store program-related data, endoscope information data, endoscope image data, and the like.
  • the RAMs 132 and 133 can also be used as a cache.
  • the CPU 131 of the main control unit 75 controls a real-time clock (hereinafter abbreviated as RTC) 134 that is configured by a clock or the like and manages time via the system bus 131a.
  • RTC real-time clock
  • the CPU 131 of the main control unit 75 controls the ROMs 135 and 136 for storing data such as program data and program version data via the system bus 131a.
  • the CPU 131 of the main control unit 75 controls the backup RAM 137 via the system bus 131a.
  • the backup RAM 137 includes an EEPROM (Electrically-Erasable-and Programmable-Read-Only-Memory), FLASH-ROM, FRAM, FeRAM, MRAM, OUM, SRAM with battery, and the like.
  • the backup RAM 137 retains program operation logs, maintenance information, setting information on the front panel 69 and keyboard 14, various setting screen information, white balance data, and the like after the processor 4 is turned off. Endoscope related information as information to be stored is stored.
  • the CPU 131 of the main control unit 75 controls the address decoder 138 and a bus driver (hereinafter abbreviated as BUF) 139 via the system bus 131a.
  • the address decoder 138 outputs a chip select signal to each unit included in the processor 4.
  • the BUF 139 performs control for supplying a signal of the system bus 131a to each unit of the m processor 4.
  • the CPU 131 of the main control unit 75 controls the RESET circuit 140 and controls the timer 141 for performing time management via the system bus 131a.
  • the RESET circuit 140 has a watchdog timer (not shown) and the like.
  • the RESET circuit 140 performs a reset process when detecting either one of the power supply of the processor 4 being turned on or the program being executed in the processor 4 being hung up.
  • the CPU 131 of the main control unit 75 controls the SIO 142 and the PIO 143 via the system bus 131a.
  • the SIO 142 includes each unit of the processor 4 (SIO of the expansion control unit 77, each unit of the front panel 76 and the image processing unit 72, etc.), peripheral devices connected to the processor 4, the keyboard 5, and the CPU 31A of the endoscope 2A. Communication with SIO58A etc. which CPU58 of the light source device 3 has can be performed via a serial interface.
  • the serial interface is composed of any of asynchronous, clock synchronous, USB (Universal Serial Bus) (registered trademark) HOST / DEVICE, CAN (Controller Area Network), FLEX RAY, or I2C. May be.
  • USB Universal Serial Bus
  • HOST Registered trademark
  • DEVICE Controller Area Network
  • CAN Controller Area Network
  • FLEX RAY Controller Area Network
  • I2C I2C
  • the PIO 143 includes a parallel interface with each part of the processor 4 (PIO and board connection information storage circuit included in the expansion control unit 77, each part of the image processing unit 72, etc.), peripheral devices connected to the processor 4, the foot switch 6 and the like. Communication can be performed.
  • the connection between the PIO 143 and the PIO included in the expansion control unit 77 is indicated as B2 in the figure.
  • a signal line for connecting the PIO 143 and the peripheral device is shown as 143a in the figure.
  • the PIO 143 outputs a light source detection signal input via the signal line 63a to the CPU 131 via the system bus 131a. Further, the endoscope connection detection signal, the switch ON / OFF signal, various signals, and data are input to the CPU 131 via the setting holding unit 606 and the BUF 139 via the system bus 131a. Then, the dimming signal generated and output in the pre-stage image processing circuit 95 is output to the light source device controller 55 via the signal line 59a. Further, the PIO 143 outputs a board connection detection signal output from the expansion control unit 77 to the CPU 131 via the system bus 131a. In addition, the connection of the path
  • the CPU 131 of the main control unit 75 controls a DDR-RAM (Double-Data-Rate Random Access Memory) 620 connected via a dedicated line.
  • DDR-RAM Double-Data-Rate Random Access Memory
  • the CPU 131, the RAM 132, the ROM 135, the address decoder 138, the reset circuit 140, the timer 141, the SIO 142, and the PIO 143 included in the main control unit 75 are configured by dedicated ICs. It is not limited. For example, each of these units may be configured by a programmable IC such as an FPGA, a DSP, or a reconfigurable processor. In addition, among the units included in the image processing unit 72, the image compression / decompression unit 73, and the expansion control unit 77, portions having the same functions as the units included in the main control unit 75 described above are configured by a dedicated IC. However, the present invention is not limited to this, and may be a programmable IC.
  • the CPU 131 of the main control unit 75 can communicate with the light source device 3 when detecting that the signal level of the light source detection signal is L level.
  • the light source device 3 is a model having a communication function.
  • the CPU 131 of the main control unit 75 detects that the signal level of the light source detection signal is H level, communication with the light source device 3 is performed. It is determined that it is impossible (the light source device 3 is a model having no communication function).
  • Each operation performed by the selector 94 based on the endoscope connection detection signal described above is performed by the CPU 131 of the main control unit 75 via the signal line 29a, the signal line 29b, or the signal line 29c. May be performed based on table data stored in the ROM 135.
  • the expansion control unit 77 configured as an expansion board that is detachably connected to the processor 4 is, for example, an expansion having a network communication function as shown in FIG. 10 (described below).
  • the controller 77A is configured.
  • the CPU 151 of the extension control unit 77A controls writing and reading of data in the RAM 152 via a parallel interface (or serial interface) (not shown) and the system bus 151a.
  • the RAM 152 is configured as a volatile memory such as SRAM, SDRAM, DRAM, or RDRAM.
  • the RAM 152 can store program-related data, endoscope information data, endoscope image data, and the like.
  • the RAM 152 can also be used as a cache.
  • the CPU 151 of the extension control unit 77A controls a real-time clock (hereinafter abbreviated as RTC) 153 that is configured by a clock or the like and manages time via the system bus 151a.
  • RTC real-time clock
  • the CPU 151 of the extension control unit 77A controls the ROM 154 that stores data such as program data, program version data, Ethernet (registered trademark) MAC address, and IP address via the system bus 151a.
  • the CPU 151 of the extension control unit 77A controls the backup RAM 155 via the system bus 151a.
  • the ROM 154 and the backup RAM 155 are configured by EEPROM, FLASH ROM, FRAM, FeRAM, MRAM, OUM, SRAM with battery, and the like.
  • the backup RAM 155 holds program operation logs, maintenance information, setting information on the front panel 69 and the keyboard 14, various setting screen information, white balance data, and the like after the processor 4 is turned off. Endoscope related information as information to be stored is stored.
  • the CPU 151 of the extension control unit 77A controls the address decoder 156 that outputs a chip select signal to each unit of the processor 4 via the system bus 151a.
  • the CPU 151 of the extension control unit 77A controls the RESET circuit 157 and controls the timer 158 for performing time management via the system bus 151a.
  • the RESET circuit 157 has a watchdog timer (not shown) or the like, and detects one of the fact that the power of the processor 4 is turned on or the program being executed in the processor 4 is hung up. Perform reset processing.
  • the CPU 151 of the extension control unit 77A controls the SIO 159 and the PIO 160 via the system bus 151a.
  • the SIO 159 can communicate with each unit included in the processor 4 (SIO included in the image output unit 121 and the main control unit 75) and peripheral devices connected to the processor 4 via a serial interface.
  • the serial interface may be constituted by any of asynchronous, clock synchronous, USB (registered trademark) HOST / DEVICE, CAN, FLEX RAY, or I2C.
  • the PIO 160 communicates with each unit (image compression / decompression unit 73, image output unit 121, main control unit 75, etc.) included in the processor 4 and peripheral devices connected to the processor 4 through a parallel interface. It can be carried out.
  • the CPU 151 of the extension control unit 77A controls writing and reading of data in the DDR-RAM 625 connected via a dedicated line.
  • the CPU 151 of the extension control unit 77A controls the dual port RAM 626 via the system bus 151a.
  • the Dual Port RAM 626 is used for inputting / outputting endoscope related information via the BUF 139, so that endoscope related information can be transmitted and received between the CPU 151 and the CPU 131.
  • the CPU 151 of the extension control unit 77A controls the controller 161 and the HUB 162 via the system bus 151a.
  • the controller 161 is configured to include circuits such as Ethernet (registered trademark) MAC layer and physical layer and middleware as a configuration capable of communication by Ethernet (registered trademark).
  • the controller 161 can communicate with peripheral devices connected to the processor 4 via the HUB 162 and the signal line 162a connected to the HUB 162.
  • the CPU 151 of the extension control unit 77A controls the bus bridge 163 via the system bus 151b.
  • the system bus 151b may be configured by any of PCI (Peripheral Component Interconnect), RAPIDIO, PCI-X, PCI EXPRESS, COMPACT PCI, ISA (Industry Standard Architecture), and the like.
  • PCI Peripheral Component Interconnect
  • RAPIDIO Peripheral Component Interconnect
  • PCI-X PCI EXPRESS
  • COMPACT PCI COMPACT PCI
  • ISA Industry Standard Architecture
  • the CPU 151 of the extension control unit 77A controls the controller 164 as a USB (registered trademark) interface via the system bus 151b and the bus bridge 163.
  • the CPU 151 of the expansion control unit 77A controls the card controller 165 via the system bus 151b and the bus bridge 163.
  • the card controller 165 controls the PC card 167 and the memory card 168 as image recording units connected to slots (not shown).
  • the memory card 168 is a compact flash (registered trademark), smart media (registered trademark), SD card, miniSD (registered trademark) card, PC card type memory card, flash drive, HDD, multimedia card, xDPture card, or Any of Memory Stick (registered trademark) may be used.
  • the card controller 165 controls the buffer 166.
  • the buffer 166 serving as an image recording unit is used for communication between the controller 161 and peripheral devices. For example, even when the power of the processor 4 is turned off before completion of data transmission / reception, data before transmission / reception is stored. It can be stored so that it does not disappear.
  • the buffer 166 is a compact flash (registered trademark), smart media (registered trademark), SD card, miniSD (registered trademark) card, PC card type memory card, flash drive, HDD, multimedia card, xDPture card, memory stick. (Registered trademark) or a PC card may be used. Further, instead of the buffer 166, a USB (registered trademark) memory (not shown) connected to the controller 164 may be used.
  • the CPU 131 of the main control unit 75 and the CPU 151 of the expansion control unit 77A store the recording state information in the backup RAM 137 of the main control unit 75 or the backup RAM 155 of the expansion control unit 77A, so that the buffer 166 is in the middle of recording. It can be determined whether or not.
  • the CPU 151 of the extension control unit 77A controls the graphic circuit 169 via the system bus 151b and the bus bridge 163.
  • the graphic circuit 169 performs graphic processing related to a moving image, a still image, a WEB display, and the like based on the synchronization signal output from the SSG 123 of the image processing unit 72. It is assumed that the connection between the graphic circuit 169 and the synthesis circuit 108H and the synthesis circuit 108S of the image processing unit 72 is shown as A5 and A6 in the figure.
  • the CPU 151 of the extension control unit 77A controls the cryptographic processing circuit 170 via the system bus 151b and the bus bridge 163.
  • the cryptographic processing circuit 170 is configured as a circuit that can add and detect security information and perform encryption and decryption when communicating with peripheral devices.
  • the encryption method used by the encryption processing circuit 170 for encryption may be either the 3DESDESSL RSA method or the elliptical encryption method, and may be compatible with any protocol of IPsec or SSL.
  • the extension control unit 77A has a board connection information storage circuit 171 that outputs a board connection detection signal to the PIO of the main control unit 75 when the extension control unit 77A is connected.
  • the board connection detection signal output from the board connection information storage circuit 171 may be composed of a plurality of GND pull-downs or power supply pull-up signals. Furthermore, the board connection information storage circuit 171 may be configured as a non-volatile memory that stores information on the type of the expansion control unit 77A. The board connection information storage circuit 171 may output a board connection detection signal to the SIO of the main control unit 75 via a serial interface (not shown).
  • the expansion control unit 77A is connected to the processor 4 when it has a wireless control circuit that can be connected to, for example, the bus bridge 163, the controller 164, or the slot into which the PC card 167 and the memory card 168 are inserted. It is possible to communicate with peripheral devices that are connected wirelessly.
  • the antenna, the memory, and the encryption circuit corresponding to the wireless control circuit are mounted on each part of the endoscope 2A, the endoscope 2B, the endoscope 2C, and an endoscope treatment tool (not shown). It is also possible to wirelessly exchange endoscope related information with the respective units.
  • the expansion control unit 77 which is one or a plurality of expansion boards that are detachably connected to the processor 4, is not limited to the above-described expansion control unit 77A alone, and for example, as shown in FIG.
  • An expansion control unit 77B having a zoom control function and a partial function of the endoscope shape detection device (as described below) may be connected together.
  • the CPU 181 of the expansion control unit 77B controls the RAM 152, the ROM 154, the address decoder 156, the reset circuit 157, the timer 158, the SIO 159, and the PIO 160, which are components having the same configuration as described above, via the system bus 181a. Further, the CPU 181 of the expansion control unit 77B controls the graphic circuit 169 having the same configuration as described above via the system bus 181b.
  • the expansion control unit 77B stores board connection information that outputs a board connection detection signal (different from the board connection information storage circuit 171) to the PIO of the main control unit 75 when the expansion control unit 77B is connected.
  • a circuit 182 is included.
  • the endoscope shape detection apparatus 1001 includes a source coil drive circuit 1001A, a sense coil 1001B, a sense coil signal amplification circuit 1001C, and an A / D converter (hereinafter abbreviated as ADC in the figure) 1001D. Configured.
  • the source coil drive circuit 1001A is a sine having different frequencies for the plurality of source coils 25A included in the endoscope 2A, the plurality of source coils 25B included in the endoscope 2B, and the plurality of source coils 25C included in the endoscope 2C.
  • a wave drive signal current By outputting a wave drive signal current, a magnetic field is generated in the plurality of source coils 25A and the plurality of source coils 25B.
  • the frequency of the drive signal current is based on drive frequency setting data (also referred to as drive frequency data) stored in drive frequency setting data storage means or drive frequency setting data storage means (not shown) included in the source coil drive circuit 1001A. Is set. Note that the connection between the source coil driving circuit 1001A and the endoscope 2A, the endoscope 2B, and the endoscope 2C is shown as D1 in the figure.
  • Magnetic fields emitted from a plurality of source coils 25A included in the endoscope 2A, a plurality of source coils 25B included in the endoscope 2B, and a plurality of source coils 25C included in the endoscope 2C are received by the sense coil 1001B and sensed. After being amplified by the coil signal amplifier circuit 1001C, it is converted into digital data by the ADC 1001D.
  • the digital data generated in the ADC 1001D is output from the ADC 1001D by control performed by the control signal generation unit 183 of the extension control unit 77B, and then input to the memory 185 via the reception circuit 184.
  • the digital data input to the memory 185 is read from the memory 185 under the control of the CPU 181.
  • the CPU 181 performs frequency extraction processing (Fourier transform: FFT) on the digital data read from the memory 185. Then, the CPU 181 separates and extracts magnetic field detection information of frequency components corresponding to the driving frequencies of the plurality of source coils 25A, the plurality of source coils 25B, and the plurality of source coils 25C. Then, the CPU 181 calculates the spatial position coordinates of the plurality of source coils 25A, the plurality of source coils 25B, and the plurality of source coils 25C.
  • FFT frequency extraction processing
  • the CPU 181 estimates the insertion states of the insertion portion 21A of the endoscope 2A, the insertion portion 21B of the endoscope 2B, and the insertion portion 21C of the endoscope 2C based on the spatial position coordinates. Based on the estimation result of the CPU 181, display data for forming an endoscope shape image is generated by the graphic circuit.
  • the display data is mask-synthesized by the synthesis circuit 108H and the synthesis circuit 108S and then output and displayed (on a display unit such as a monitor).
  • the drive circuit 186 is controlled by the CPU 131 via the SIO 142 and the PIO 143 included in the main control unit 75, and drives the actuator 23A based on the control. Thereby, the objective optical system 22A is moved in the axial direction of the insertion portion 21A in accordance with, for example, each of the magnification (tele) and wide angle (wide) modes.
  • the drive circuit 602 is controlled by the CPU 131 via the setting holding unit 606 (although there is no connection line).
  • the drive circuit 602 drives the actuators 23B and 23C based on the control. Thereby, the objective optical systems 22B and 22C are moved in the axial direction of the insertion portion 21B and the insertion portion 21C, for example, in accordance with each of the enlargement (tele) and wide angle (wide) modes.
  • connection between the drive circuit 186 or the drive circuit 602 and the endoscope 2A or the endoscope 2B and the endoscope 2C is shown as D2 in the figure.
  • the CPU 131 of the main control unit 75 controls the graphic circuits 106S and 106H.
  • the CPU 131 acquires from the drive circuit 186 or the drive circuit 602 of the expansion control unit 77B zoom control information that is information regarding the zoom state (enlarged or wide angle) when the endoscopes 2A, 2B, and 2C image the subject.
  • the zoom control information acquired by the CPU 131 is imaged by the graphic circuits 106S and 106H, synthesized by the synthesis circuit 108H and the synthesis circuit 108S, and then output and displayed (on a display unit such as a monitor).
  • the configuration for realizing the zoom control function and the configuration for realizing a part of the function of the endoscope shape detection device included in the expansion control unit 77B are one expansion control unit.
  • each may be provided in a separate expansion control unit, and each separate expansion control unit outputs a different board connection detection signal. There may be.
  • the expansion control unit 77 has a configuration having one or a plurality of expansion boards as described above, the processor 4 can easily realize a plurality of functions and can easily and inexpensively perform various functions. Can be set.
  • D1 may be connected to the endoscope shape detection devices 206C1 and 206C2 instead of the expansion control unit 77B.
  • the CPU 131 of the main control unit 75 Based on the board connection detection signal output from the board connection information storage circuit 171 and the board connection information storage circuit 182, for example, if the acquired binary data is “000”, the CPU 131 of the main control unit 75 performs only the expansion control unit 77 ⁇ / b> A. Is determined to be connected.
  • the CPU 131 automatically displays network-related information (based on an image) having a predetermined image size.
  • the network-related information having a predetermined image size (based on the image) is stored in the expansion control unit 77A at a predetermined position (any one of the upper left, lower left, upper right, and lower right) set on the setting screen shown in FIG.
  • the data is output from the graphic circuit 169 through the connections indicated by A5 and A6 in the figure.
  • the CPU 131 of the main control unit 75 Based on the board connection detection signals output from the board connection information storage circuit 171 and the board connection information storage circuit 182, for example, if the acquired binary data is “001”, the CPU 131 of the main control unit 75 only has the expansion control unit 77B. Is determined to be connected.
  • the CPU 131 automatically displays the endoscope shape detection image and the zoom control information at a predetermined position (any one of the upper left, lower left, upper right, and lower right) set on the setting screen of FIG. 29 described later. .
  • the endoscope shape detection image is output from the graphic circuit 169 of the expansion control unit 77B via the connections indicated by A5 and A6 in the figure.
  • the zoom control information is imaged in the graphic circuits 106S and 106H.
  • the endoscope shape detection image and the zoom control information may be output as a state in which the position and image size are adjusted by the CPU 131 so that they do not overlap each other. Further, the endoscope shape detection image and the zoom control information are output in a state in which priority is set when they are output in an overlapping manner (for example, in a state in which the zoom control information is displayed on the front). It may be.
  • the CPU 131 of the main control unit 75 Based on the board connection detection signals output from the board connection information storage circuit 171 and the board connection information storage circuit 182, the CPU 131 of the main control unit 75, for example, if the acquired binary data is “100”, the expansion control unit 77A and It is determined that both expansion control units 77B are connected.
  • the CPU 131 is based on network-related information (based on network-related information) output from the expansion control units 77A and 77B at a predetermined position (any one of the upper left, lower left, upper right, and lower right) set on the setting screen of FIG. Image), endoscope shape detection image and zoom control information are automatically displayed.
  • the network-related information (based on the image), the endoscope shape detection image, and the zoom control information are output in a state in which the position and image size are adjusted by the CPU 131 so that they do not overlap each other. There may be.
  • the network-related information (image based on), the endoscope shape detection image, and the zoom control information are set in a state in which priority is set when they are output in an overlapping manner (for example, the endoscope shape) It may be outputted (as a state where the detected image is displayed in the foreground).
  • information output from the extension control units 77A and 77B can be set to non-display on the setting screen of FIG. 29 described later.
  • the CPU 131 of the main control unit 75 cannot detect any of the board connection detection signals from the board connection information storage circuit 171 and the board connection information storage circuit 182. It is determined that both the expansion control unit 77A and the expansion control unit 77B are not connected. Therefore, the CPU 131 does not display any of the network-related information (image based on), the endoscope shape detection image, and the zoom control information output from the expansion control units 77A and 77B.
  • expansion control units 77A and 77B described above are both connected to the processor 4 as the expansion control unit 77.
  • the CPU 131 of the main control unit 75 selects one of the expansion control unit 77A and the expansion control unit 77B described above. Is detected as the expansion control unit 77 (step DDDFLW1 in FIG. 12). If the CPU 131 detects that no extension board is connected (step DDDFLW2 in FIG. 12), the CPU 131 does not display the images and information output from the extension control units 77A and 77B on the monitor or the like. Exit.
  • the CPU 131 detects that any expansion board is connected, the setting information corresponding to the connected expansion board among the setting items in the “Board” column in the setting screen of FIG. 29 described later. Is set according to the setting information (step DDDFLW3 in FIG. 12).
  • the CPU 131 detects whether or not there is an input for turning on or off the information on the connected expansion board or the display of the image in the operation device (step DDDFLW4 and step DDDFLW5 in FIG. 12).
  • Step DDDFLW6 When the operation device receives an input to turn on display of information or an image output from the connected expansion board, the CPU 131 performs control to display the information or the image (FIG. 12). Step DDDFLW6). In addition, when an input for turning off display of information or an image output from the connected expansion board is made in the operation device, the CPU 131 performs control to delete the information or the image (FIG. 12). Step DDDFLW7).
  • step DDDFLW4 the processes from step DDDFLW4 to step DDDFLW7 are performed on the operation device by a “UPD” function, a “ZScale” function, and a “NET” function, which will be described later.
  • UPD UPD
  • ZScale ZScale
  • NET NET
  • FIG. 13 is a diagram showing an example of the configuration of the front panel 76 included in the processor of FIG.
  • ENH Enhance
  • 76-1 is an item for performing emphasis switching.
  • IRIS 76-2 is an item for performing photometry (dimming) switching.
  • CUSTOM 76-3 is an item for registering settings customized by the operator.
  • EXAM 76-4 is a switch (also on the keyboard 5) for notifying the server 212 of the start / end of the examination.
  • the switch or LED may be turned on at the start of inspection, and turned off at the end of inspection.
  • the function of the inspection start / end switch function may be turned on / off on a menu screen (not shown), and the switch / LED may be turned off when the function is OFF.
  • a predetermined menu screen is displayed so that character information or a PinP (Picture in Picture) or PoutP (Picture out Picture) image to be displayed on the screen at the time of inspection can be selected. Good.
  • the PinP image or PoutP image is an image indicated by reference numerals 330 and 331 or images indicated by signals A5, F1, F2, A3, A3 ′, A6, A4, and A4 ′ input to the combining circuit 108H and the combining circuit 108S. is there.
  • WHT BAL 76-5 is an item for adjusting the white balance.
  • Reset 76-6 is an item for resetting the processor 4.
  • MEMORY 76-7 is an item used for connection with the USB memory 210.
  • USB memory 210 When the USB memory 210 is connected to the “MEMORY” 76-7 connector, “RDY / BUSY” lights up, indicating that the USB memory 210 is connected. The LED on the left side of “RDY / BUSY” lights in green.
  • USB memory 210 If the USB memory 210 is removed and left unconnected, “RDY / BUSY” is turned off and the LED on the left side of “RDY / BUSY” is turned off.
  • the CPU 131 controls the keyboard 5, USB-RS232C conversion adapter 687, and printer 202 via the USB interface via the USB host controller 680 in the SIO 142.
  • the CPU 131 supplies power from the power supply circuit after turning on the power via the USB host controller 680.
  • the CPU 131 outputs a command periodically (for example, every 1 [sec]) and receives a normal response from the keyboard 5 and the USB-RS232C conversion adapter 687 to confirm that it is operating normally.
  • the CPU 131 may perform initialization processing of the keyboard 5 and the USB-RS232C conversion adapter 687 by changing the power supply from the power supply circuit from OFF to ON.
  • the CPU 131 performs the following when the printer 202 hangs up due to external noise or noise from peripheral devices. That is, the CPU 131 may perform only command initialization (bus reset processing) without turning the power supply from the power supply circuit from OFF to ON.
  • the connector 684, the connector 685, and the connector 686 use USB connectors conforming to the USB standard, they may be dedicated to the keyboard 5, the USB-RS232C conversion adapter 687, and the printer 202, respectively.
  • a device other than the connector for example, when a device other than the keyboard (USB-RS232C conversion adapter 687 or printer 202) is connected to the connector 684
  • an error display / warning is issued.
  • the front panel 76 may be equipped with a buzzer that issues a warning.
  • peripheral devices that can be connected to the processor 4 include devices that support only the display size (output size) 4: 3, and display sizes (output sizes) 16: 9 and 4: 3. It is assumed that there is a device that can handle both.
  • An example of each display size is shown in FIGS. Further, among the devices shown in FIGS. 15 to 19, a device such as a filing device capable of recording an input signal (image) has a configuration as an image recording unit, and is input.
  • a device such as a monitor that can display a signal (image) is assumed to have a configuration as a display unit.
  • the monitor 201A, printer 202A, VTR 203A, filing device 204A and photography device 205A are capable of at least one of input / output, recording and display of analog signals in the SDTV system. Equipment.
  • Each peripheral device shown in FIG. 15 is connected to the image processing unit 72 via the signal line 111Sa, and is also connected to the SIO 142 and the PIO 143 of the main control unit 75.
  • the monitor 201B1, the printer 202B1, the VTR 203B1, the filing device 204B1, and the photography device 205B1 are devices capable of at least one of analog signal input / output, recording, and display in the HDTV system. And a device that supports only display size 4: 3.
  • the monitor 201B2, the printer 202B2, the VTR 203B2, the filing device 204B2, and the photography device 205B2 can perform at least one of input / output, recording, and display of analog signals in the HDTV system. It is a device that can handle both display sizes 16: 9 and 4: 3.
  • Each peripheral device shown in FIG. 16 is connected to the image processing unit 72 via the signal line 111Ha, and is also connected to the SIO 142 and the PIO 143 of the main control unit 75.
  • the monitor 201C1, the printer 202C1, the VTR 203C1, the filing device 204C1, the photography device 205C1, the endoscope shape detection device 206C1, and the ultrasonic device 207C1 are analog signals in the SDTV system and the HDTV system (or It is a device capable of at least one of input / output, recording, and display of (digital signal), and a device that supports only display size 4: 3.
  • the peripheral devices shown in FIG. 17 the monitor 201C1, the printer 202C1, the VTR 203C1, the filing device 204C1, the photography device 205C1, the endoscope shape detection device 206C1, and the ultrasonic device 207C1 are analog signals in the SDTV system and the HDTV system (or It is a device capable of at least one of input / output, recording, and display of (digital signal), and a device that supports only display size 4: 3.
  • the peripheral devices shown in FIG. 17 the monitor 201C1, the printer 202C1, the VTR 203C1, the
  • the monitor 201C2, the printer 202C2, the VTR 203C2, the filing device 204C2, the photography device 205C2, the endoscope shape detection device 206C2, and the ultrasonic device 207C2 are analog signals in the SDTV system and the HDTV system. It is a device capable of at least one of input / output, recording and display of (or digital signals), and a device compatible with both display sizes 16: 9 and 4: 3.
  • Each peripheral device shown in FIG. 17 is connected to the image processing unit 72 through the signal line 121a and is also connected to the SIO 142 and the PIO 143 of the main control unit 75. Further, each peripheral device shown in FIG. 17 can be connected to the controller 164 of the expansion control unit 77A by connection of the signal line shown in E1 in the drawing.
  • the printer 202D1, the filing device 204D1, the photography device 205D1, the optical recording device 208D1, and the HID 209D1 have at least one of input / output, recording, and display using a USB (registered trademark) interface. It is a device that is compatible with only display size 4: 3. Also, among the peripheral devices shown in FIG. 18, the printer 202D2, the filing device 204D2, the photographing device 205D2, the optical recording device 208D2, and the HID 209D2 are at least one of input / output, recording, and display using a USB (registered trademark) interface. Is a device that can handle both display sizes 16: 9 and 4: 3.
  • USB memory 210 is a non-volatile memory capable of recording data sent from a signal line indicated by E2 in the figure via a USB (registered trademark) interface.
  • each peripheral device shown in FIG. 18 can be connected to the controller 164 of the expansion control unit 77A by the connection of the signal line shown in E2 in the drawing.
  • the optical recording devices 208D1 and 208D2 are assumed to be any one of MO, DVD (including Blu-ray and HDDVD), CD ⁇ R / W, and the like.
  • the HIDs 209D1 and 209D2 are operation devices including any one of a keyboard, a mouse, a wheel, and the like.
  • the printer 202E1, the filing device 204E1, the photography device 205E1, the optical recording device 208E1, and the HUB 211 have at least one of input / output, recording, and display using an Ethernet (registered trademark) interface. It is a device that is compatible with only display size 4: 3.
  • the printer 202E2, filing device 204E2, photography device 205E2, optical recording device 208E2, and HUB 211 are connected to the processor 4 via the network by the network communication function of the expansion control unit 77A. Is done.
  • the printer 202E2, the filing device 204E2, the photography device 205E2, the optical recording device 208E2, and the HUB 211 are devices capable of at least one of input / output, recording, and display using an Ethernet (registered trademark) interface, for example. At the same time, the device is compatible with both display sizes 16: 9 and 4: 3. Further, each peripheral device shown in FIG. 19 can be connected to the HUB 162 of the expansion control unit 77A via the signal line 162a.
  • the optical recording devices 208E1 and 208E2 are assumed to be composed of any one of MO, DVD, CD ⁇ R / W, and the like.
  • the HUB 211 is connected to the server 212 or the PC terminal 213 via a network such as a LAN.
  • the keyboard 5 shown in FIG. 20 mainly includes a setup unit 5-1, an observation unit 5-2, an RGB filter 52, an observation mode unit 5-3, an UPD unit 5-4, an “EXAM” switch, and an information unit 5-5. , A key input unit 5-6 and a numeric keypad unit 5-7.
  • the setup unit 5-1 performs settings related to the setup of the processor 4.
  • the observation unit 5-2 controls the observation environment.
  • the observation mode unit 5-3 generates a plurality of narrow band lights (NBI, AFI, IRI) by cutting a predetermined band of the white light emitted from the RGB filter 52 and the lamp 51.
  • the (for example, three) special optical filters 53A, 53B and 53C are controlled.
  • the RGB filter 52 switches the observation mode (converts white light (Normal) of the light source device 3 into RGB frame sequential light.
  • the UPD unit 5-4 controls the endoscope shape detection device (UPD).
  • the information section 5-5 includes an “EXAM” switch that is a switch for notifying the server 212 of the start / end of the inspection and a menu switch that displays a menu screen.
  • the UPD section 5-4 includes a marking switch 5-41, a reset button 5-42, a 1 screen / 2 screen button 5-43, a left rotation button 5-44, a right rotation button 5-45, a scope position button 5- 46 is provided.
  • the reset button 5-42 performs a reset operation.
  • the 1-screen / 2-screen button 5-43 instructs to display 1 screen and 2 screens.
  • the left rotation button 5-44 rotates the endoscope insertion shape counterclockwise to change the view angle.
  • the right rotation button 5-45 rotates the endoscope insertion shape to the right to change the view angle.
  • the scope position button 5-46 sets the display start position of the endoscope insertion shape. Further, when the left rotation button 5-44 is pressed while pressing the shift key, the endoscope insertion shape can be reduced. Further, when the right rotation button 5-45 is pressed while pressing the shift key, the endoscope insertion shape can be enlarged.
  • the endoscope shape detection device can be remotely operated using the keyboard 5.
  • the LED of the button part of the UPD unit 5-4 is lit.
  • the LED of the button portion of the UPD unit 5-4 is off. In this case, it shows that the endoscope shape detection device cannot be controlled using the keyboard 5.
  • FIG. 23 shows an example of the configuration of the image compression / decompression unit 73.
  • the HD image signal output from the mask processing circuit 611H and sent via the signal line 125a is branched, and one of the HD image signals is output to the arbiter 633 via the FIFO 634H.
  • the other branched HD image signal is output to the thumbnail image generation circuit 635H.
  • the thumbnail image generation circuit 634H generates a thumbnail image based on the HD image signal output from the mask processing circuit 611H and sent via the signal line 125a.
  • the thumbnail image generation circuit 634H outputs the thumbnail image stored in the image memory 654 each time a recording instruction such as a release or capture to a printer is performed on each operation device.
  • the SD image signal output from the mask processing circuit 611S and sent via the signal line 124a is branched.
  • One of the branched SD image signals is output to the arbiter 633 via the FIFO 634S.
  • the other branched SD image signal is output to the thumbnail image generation circuit 635S.
  • the thumbnail image generation circuit 635S generates a thumbnail image based on the SD image signal output from the mask processing circuit 611S and sent via the signal line 124a.
  • the thumbnail image generation circuit 635S outputs the thumbnail image stored in the image memory 654 each time a recording instruction such as release or capture to a printer is performed on each operation device.
  • Image signals output from the frame synchronization + RGB conversion circuits 613 and 613 'and sent via the signal lines 607 and 607' are output to the arbiter 633 via the FIFOs 640 and 640 ', respectively.
  • the arbiter 633 outputs the image signal input to itself to each external unit in a round robin method or a priority order according to processing.
  • These image signals output to the arbiter 633 are temporarily stored in the image memory 654. Thereafter, these image signals are output to the JPEG encoding / decoding circuit 647, the TIFF / BMP conversion circuit 647, or the YUV-RGB conversion circuit 651 via the arbiter 633 and the FIFOs 644, 646, 648, 650.
  • the JPEG encode / decode circuit 645 performs JPEG encode / decode processing (YUV-RGB conversion can be performed simultaneously) on the image signal input via the FIFO 644.
  • the TIFF / BMP conversion circuit 647 encodes (or converts) the image signal input via the FIFO 646 into either TIFF or BMP format.
  • the enlargement / reduction circuit 649 performs an image enlargement process or reduction process on the image signal input via the FIFO 648.
  • the YUV-RGB conversion circuit 651 performs YUV-RGB conversion processing on the image signal input via the FIFO 650.
  • the FIFOs 644, 646, 648, 650, 652, 653, the JPEG encoding / decoding circuit 645, the TIFF / BMP conversion circuit 647, or the YUV-RGB conversion circuit 651 are controlled by a control signal CTL1 based on an internal clock.
  • the image signal processed by the JPEG encode / decode circuit 645, the TIFF / BMP conversion circuit 647, the enlargement / reduction circuit 649, or the YUV-RGB conversion circuit 651 is further transferred to the arbiter 633 via the FIFOs 644, 646, 648, 650. And stored in the image memory 654.
  • the image signal stored in the image memory 654 is output to the bus bridge 163 via the signal line C1 via the arbiter 633 and the FIFO 652 under the control of the CPU 151 described later.
  • the recorded image signal is output to the image memory 564 via the bus bridge 163, the signal line C 3, and the arbiter 633 under the control of the CPU 151.
  • the image signal output to the image memory 654 is sent to the JPEG encoding / decoding circuit 645, the TIFF / BMP conversion circuit 647, the enlargement / reduction circuit 649, or the YUV-RGB conversion via the arbiter 633 and the FIFOs 644, 646, 648, 650. It is output to the circuit 651.
  • the image signal processed by each of the JPEG encode / decode circuit 645, the TIFF / BMP conversion circuit 647, the enlargement / reduction circuit 649, or the YUV-RGB conversion circuit 651 is further passed through the FIFOs 644, 646, 648, 650.
  • the image data is stored in the image memory 654 via the arbiter 633.
  • the image signal stored in the image memory 654 is output to the signal line F1 via the FIFO 642 or to the signal line F2 via the FIFO 643.
  • the signals output to the signal lines F1 and F2 are output to the synthesis circuit 108H or 108S.
  • the signal from the SSG 123 is input to the image capture / combination control 632 after the influence of external noise or the like is removed by the synchronization signal check circuit 631.
  • the image capture / combination control 632 generates an HDTV image control signal 660H and an SDTV image control signal 660S based on the input signal.
  • One of the HDTV image control signal 660H and the SDTV image control signal 660S is selected by the selector 641 based on the SD / HD discrimination signal 615 (the selected control signal is represented by the control signal 661). .
  • One of the HDTV image control signal 660H and the SDTV image control signal 660S is selected by the selector 641 ′ based on the SD / HD discrimination signal 615 ′ (the selected control signal is the control signal). 661 ′).
  • the memory controller 655 outputs a control signal 662 based on the HDTV image control signal 660H, the SDTV image control signal 660S, the control signal CTL1, the control signal 661, or the control signal 661 '.
  • the HDTV image control signal 660H is output to the FIFO 634H, the thumbnail image generation circuit 635H, the FIFO 636H, the FIFO 642, and the memory controller 655.
  • the SDTV image control signal 660S is output to the FIFO 634S, the thumbnail image generation circuit 635S, the FIFO 636S, the FIFO 643, and the memory controller 655.
  • the control signal 661 is output to the FIFO 640 and the memory controller 655.
  • the control signal 661 ′ is output to the FIFO 640 ′ and the memory controller 655.
  • the control signal 662 is output to the arbiter 633, FIFOs 634H, 636H, 634S, 636S, 640, 640 ', 642, 643, 644, 646, 648, 650, 652, 653.
  • FIG. 24 shows a configuration example of the synchronization signal check circuit 631.
  • the synchronization signal check circuit 631 performs a synchronization signal check described below for each of HDTV and SDTV.
  • the CLK detector 670 receives a video clock (74 MHz, 27 MHz) and an internal clock, which are signals from the SSG 123.
  • the HSYNC detection unit 671 receives a horizontal synchronization signal (HSYNC) that is a signal from the SSG 123 and a video clock (for example, 74 MHz, 27 MHz, 13.5 MHz).
  • HSYNC horizontal synchronization signal
  • the HSYNC detection unit 671 monitors whether one horizontal synchronization period matches the standard value, and immediately outputs NG when they do not match.
  • the HSYNC detector 671 outputs OK in synchronization with the HSYNC signal.
  • the vertical sync signal (VSYNC), horizontal sync signal (HSYNC), and ODD / EVEN discrimination signal which are signals from the SSG 123, are input to the VSYNC detector 672.
  • the VSYNC detection unit 672 monitors whether one vertical synchronization period matches the standard value, and outputs NG as soon as it does not match (determines the vertical synchronization period of each of the ODD period and the EVEN period based on the ODD / EVEN determination signal). . Further, the VSYNC detection unit 672 counts using HSYNC as a trigger. Also, the VSYNC detection unit 672 performs OK output with frame synchronization. The VSYNC detection unit 672 also monitors whether signals are input in the order of ODD ⁇ EVEN ⁇ ODD ⁇ EVEN by the ODD / EVEN discrimination signal.
  • Results output from the CLK detection unit 670, the HSYNC detection unit 671, and the VSYNC detection unit 672 are input to the AND circuit 673.
  • the AND circuit 673 outputs “1” to the image capture / combination control 632 only when the inputs from the CLK detection unit 670, the HSYNC detection unit 671, and the VSYNC detection unit 672 are all OK.
  • the release operation means storing the HDTV freeze image and the thumbnail image from the signal line 125a in the image memory 654 and setting the display position of the thumbnail image.
  • the release operation refers to storing the SDTV freeze image and the thumbnail image from the signal line 124a in the image memory 654 and setting the display position of the thumbnail image.
  • FIG. 25 is a diagram illustrating an example of an endoscope composite image generated by the combining circuit 108H or 108S. The description of each element shown in FIG. 25 is shown in the following items 1) to 27).
  • Endoscopic image 301 is -Always displayed when the endoscope 2A (or the endoscope 2B or the endoscope 2C) is connected (not displayed when not connected).
  • the image size is changed by operating the image size change key assigned to the operation device.
  • the arrow pointer 301a is Displayed in a color such as green (which can be easily distinguished from the color of the subject in the living body).
  • the SDTV image output (for example, output via the signal line 111Sa) and the HDTV image output (for example, output via the signal line 111Ha) are displayed in alignment with each other.
  • ⁇ Either one of them can be selected by operating a predetermined key of the keyboard 5 and can be displayed, deleted and moved independently.
  • ID No. (Patient ID) 303 is -When no data is entered or when an operation such as a key having an inspection end notification function is performed, an item name (ID No.) is displayed. In addition, the item name is automatically deleted in response to data input from the keyboard 5 or the like, and input data up to 15 characters is displayed.
  • the received ID data is displayed.
  • Name (patient name) 304 is -When no data is input or when an operation such as a key having an inspection end notification function is performed, an item name (Name) is displayed. In addition, the item name is automatically deleted in response to data input from the keyboard 5 or the like, and input data up to 20 characters is displayed.
  • Sex (patient name) 305 is The item name (Sex) is displayed when no data is input or when an operation such as a key having an inspection end notification function is performed. Also, the item name is automatically deleted in response to data input from the keyboard 5 or the like, and input data up to one character is displayed.
  • Age (patient age) 306 is The item name (Age) is displayed when no data is entered or when an operation such as a key having an inspection end notification function is performed. In addition, the item name is automatically deleted in response to data input from the keyboard 5 or the like, and input data up to three characters is displayed.
  • the age is calculated by the CPU 131, and is automatically input and displayed.
  • the received patient age data is displayed.
  • D.D. O. birth (patient date of birth) 307 is: -When no data is input or when an operation such as a key having an inspection end notification function is performed, an item name (D.O.Birth) is displayed. In addition, the item name is automatically deleted in response to data input from the keyboard 5 or the like, and the input data is displayed.
  • Up to 8 characters can be entered for the Western calendar display, and up to 7 characters for the Japanese calendar display (M: Meiji, T: Taisho, S: Showa, H: Heisei).
  • the display format can be set on the setting screen of the processor 4.
  • Time information 308 is -The current date and time and the stopwatch are displayed. Note that the date and time can be set on the setting screen of the processor 4. This will be described with reference to FIG. As shown in FIG. 26, the time information 308 displays the current date (308a) and time (308b), stopwatch measurement time and pause time (308c), and stopwatch split time (308d). Is done.
  • the split function can be realized by pressing a combination of a stopwatch key and a shift key on the keyboard.
  • the display position of the stopwatch may differ depending on the output image format (SDTV or HDTV).
  • the date may be hidden during stopwatch operation.
  • the stopwatch is displayed in a display format of HH "MM'SS (hour” minute'second).
  • SCV309 is The item (“SCV:”) and the photography device selected on the setting screen of the processor 4 (any of the photography devices 205A, 205B1, 205B2, 205C1, 205C2, 205D1, 205D2, 205E1, and 205E2)
  • the release operation count value is displayed. (It is not displayed when it is set to OFF on the setting screen of the processor 4)
  • the count value output from the photography apparatus is displayed.
  • the count value of the Release operation counted by the CPU 131 of the main control unit 75 is displayed.
  • the CVP 310 When communication with the printer (any one of the printers 202A, 202B1, 202B2, 202C1, 202C2, 202D1, 202D2, 202E1, and 202E2) selected on the setting screen of the processor 4 is established (item ( “CVP:”), the number of captures, the number of divisions, and the memory page are displayed.
  • D.D. F311 When communication with the filing device selected on the setting screen of the processor 4 (any of filing devices 204A, 204B1, 204B2, 204C1, 204C2, 204D1, 204D2, 204E1, and 204E2) is established.
  • the item (“DF:”) and the count value of the Release operation are displayed.
  • the count value is a value based on a count command output from the filing device.
  • the VTR 312 Communication with the VTR selected from the setting screen of the processor 4 (any one of the VTRs 203A, 203B1, 203B2, 203C1, and 203C2) is established, and a moving image is recorded by the VTR, or the like This is displayed when a moving image recorded on the VTR or the like is being played back.
  • the peripheral device area 314 is -Received data such as error information from peripheral devices is displayed with a maximum of 20 characters (10 characters / line) 16) Physician (doctor name) 315 -When data is not entered or when an operation such as a key having an inspection end notification function is performed, an item name (Physician) is displayed (when a key having an inspection end notification function is operated, etc.) You can delete it). In addition, the item name is automatically deleted in response to data input from the keyboard 5 or the like, and input data up to 20 characters is displayed.
  • doctor name data When doctor name data is received from a peripheral device, the received doctor name data is displayed.
  • Comment 316 is When no data is input, an item name (Comment) is displayed (it may be displayed when an operation such as a key having an inspection end notification function is performed). Also, the item name is automatically deleted in response to data input from the keyboard 5 or the like, and input data up to 37 characters is displayed.
  • Comment an item name
  • the item name is automatically deleted in response to data input from the keyboard 5 or the like, and input data up to 37 characters is displayed.
  • the endoscope switch information 317 is Each function assigned to the operation switch unit 28A (28B) of the endoscope 2A (2B) is displayed for each switch.
  • the endoscope related information 318 is Information related to the endoscope 2A (2B or 2C) stored in the memory 30A (30B or 30C) of the endoscope 2A (2B or 2C) is displayed.
  • the cursor 319 is In the character insertion mode, for example, “I” is displayed (when the “INS” key or the “Insert” key of the keyboard 5 is off).
  • a square filled with a predetermined color is displayed (when the “INS” key or the “Insert” key on the keyboard 5 is off).
  • Contrast (CT) 320A is -The contrast setting assigned by the contrast key assigned to the operation device is displayed. (Display example: “N” ... Normal, “L” ... Low, “H” ... High, “4" ... No correction) 22) Color enhancement (CE) 321A is -The color emphasis setting set by the color emphasis key assigned to the operation device is displayed.
  • the hemoglobin index (IHb) 322A is The IHb value when the freeze image is output by operating the freeze switch is displayed on the IHb 322A.
  • the magnification rate 324A is The electronic enlargement setting set by the electronic enlargement key assigned to the operation device is displayed.
  • the light source filter type 325A is Of the special light filters that the light source device 3 has, the type of filter that is set to be used according to the contents of observation is displayed.
  • NBI narrowband light observation
  • IRI is displayed when a filter that supports infrared light observation is set to be used.
  • the thumbnail image 326 -Up to four images (for thumbnail images) are displayed. (It may be possible to set the display OFF, and after the operation of the key having the inspection end notification function, etc., the key or switch to which the release function is assigned is erased when it is first input.
  • the thumbnail image 326 may not be updated or displayed as a black image when the menu is displayed.
  • Elements from 303 to the cursor 319 are shown as an observation information group 300.
  • Elements from the contrast 320A to the light source filter type 325A that are information related to the endoscope image 301 are shown as an image-related information group 301A.
  • a plurality of thumbnail images 326 are shown as a thumbnail image group 326A.
  • thumbnail images 326 may be displayed.
  • the latest one thumbnail image 326 may be displayed.
  • FIG. 29 is a diagram showing an example of the setting screen of the processor 4.
  • the items that can be set on the setting screen and the functions related to the items will be described. It is assumed that the setting screen of the processor 4 as shown in FIG. 29 is generated in the graphic circuit 106S (106H) of the image processing unit 72, for example.
  • the item “thumbnail” is an item on which it is possible to set whether to create a thumbnail image.
  • the CPU 131 of the main control unit 75 performs the following processing. That is, the CPU 131 of the main control unit 75 controls the arbiter 633 to output an output image via the thumbnail image generation circuits 635H and 635S of the image compression / decompression unit 73.
  • the CPU 131 of the main control unit does not operate the thumbnail image generation circuits 635H and 635S.
  • the item “Scope Switch” includes an operation switch unit 28A of the endoscope 2A as an operation device, an operation switch unit 28B of the endoscope 2B as an operation device, and an operation switch unit 28C of the endoscope 2C as an operation device.
  • This is an item in which a function assigned by the CPU 131 of the main control unit can be set to each switch of the. The details of the functions that can be assigned to each switch will be described later.
  • the item “Foot Switch” is an item in which a function assigned by the CPU 131 of the main control unit 75 to each switch of the foot switch 6 as the operation device can be set. The details of the functions that can be assigned to each switch will be described later.
  • Keyboard is an item in which a function assigned by the CPU 131 of the main control unit to one or a plurality of keys among the keys of the keyboard 5 as the operation device can be set. Details of functions that can be assigned to the one or more keys will be described later.
  • the item “Front Panel” is an item in which a function assigned by the CPU 131 of the main control unit 75 to one or a plurality of switches among the switches of the front panel 76 as an operation device can be set. Details of functions that can be assigned to the one or more switches will be described later.
  • “Peripheral device”, which is one of the child items of the item “Release 1”, is an item in which a recording target device of an SDTV still image can be set.
  • the recording target devices are the filing devices shown in FIGS. 15 to 19 (except filing devices 204B1 and 204B2), the photographic devices (except the photographic devices 205B1 and 205B2), One of the optical recording devices, the PC card 167, and the memory card 168 is shown.
  • the SDTV system it is possible to set so that still images are not recorded.
  • Encode which is one of the child items of the item “Release 1” is an item in which a format used when recording a still image of the SDTV system can be set.
  • the format that can be set as the format is, for example, any one of JPEG, JPEG2000, TIFF, or BMP.
  • the CPU 131 of the main control unit 75 performs the following. That is, the CPU 131 controls the arbiter 633 to output an output image via the JPEG encoding / decoding circuit 645 and the TIFF / BMP conversion circuit 647 of the image compression / decompression unit 73.
  • the CPU 131 of the main control unit controls the arbiter 633 to output an output image from the JPEG encoding / decoding circuit 645 of the image compression / decompression unit 73, the TIFF.
  • the output is made without going through the BMP conversion circuit 647.
  • “Signal” which is one of the child items of the item “Release1” is an item in which the signal form of the output image can be set to either YCrCb signal or RGB signal.
  • the CPU 131 of the main control unit 75 outputs the output image via the YUV-RGB conversion circuit 651 of the image compression / decompression unit 73.
  • the CPU 131 of the main control unit causes the output image to be output via the YUV-RGB conversion circuit 651 of the image compression / decompression unit 73.
  • “Format” which is one of the child items of the item “Release 1” is an item in which the format of the YCrCb signal or the RGB signal set in the item “Signal” can be set.
  • the formats that can be set as the format are 4: 2: 0, 4: 1: 1, 4: 2: 2, 4: 4: 4, Sequential, Spectral Selection (Frequency Division), Successive Apploximation. (Approximation accuracy improved type), DPCM (reversible type), Interleave, and Non-Interleave are any one or more.
  • the CPU 131 of the main control unit 75 performs the compression / conversion processing according to the format in the JPEG encoding / decoding of the image compression / decompression unit 73.
  • the circuit 645 and the TIFF / BMP conversion circuit 647 are caused to perform the processing.
  • the CPU 131 of the main control unit 75 causes the YCrCb signal or the RGB signal set in the child item “Signal” of the item “Release 1” in the “SDTV” column. It is assumed that the format is not changed.
  • “Dot” which is one of the child items of the item “Release 1” is a quantization of the YCrCb signal (component) or the RGB signal (component) set in the child item “Signal” of the item “Release 1” in the “SDTV” column. This is an item in which the precision can be set to any number of dots of 8 bits or 10 bits.
  • the CPU 131 of the main control unit quantizes the input signal (component) to the JPEG encoding / decoding circuit 647 and the TIFF / BMP conversion circuit 647 of the image compression / decompression unit 73 by the number of dots. It is assumed that the received signal is a processed signal.
  • “Level” which is one of the child items of the item “Release 1” is an item in which the compression level of the output image can be set.
  • the compression level for example, “High” in which the image quality is large and the image size is large, “Normal” in which the image quality is low and the image size is small compared to the setting of “High”, and “Normal” Can be selected from three levels “Low”, which is lower in image quality and smaller in image size than the setting “”.
  • the CPU 131 of the main control unit 75 performs compression / conversion processing corresponding to the above-described three levels on the JPEG encoding / decoding circuit 645 and the TIFF / BMP conversion circuit 647 of the image compression / decompression unit 73. Let it be done.
  • the above-described settings of “High”, “Normal”, and “Low” can be realized by using a preset quantization table or Huffman table, for example, in the case of the JPEG format.
  • the items “Encode”, “Signal”, “Format”, “Dot”, and “Level” are child items “periphery” of the item “Release 1” in the “SDTV” column.
  • "Equipment” one of the filing devices shown in FIGS. 18 and 19, the photography devices shown in FIGS. 18 and 19, the optical recording devices shown in FIGS. 18 and 19, the PC card 167, and the memory card 168 is selected. It is valid only when it is set (settings can be changed). When the items “Encode”, “Signal”, “Format”, “Dot”, and “Level” are invalid (settings cannot be changed), they are displayed in a dark gray color, for example.
  • the functions “Release 1”, “Release 2”, “Release 3” and “Release 4” in the “HDTV” column can be assigned to any of the items “Scope Switch”, “Foot Switch”, “Keyboard” and “Front Panel”. Among them, some of the functions related to recording of still images of the HDTV system. In addition, “Release 1”, “Release 2”, “Release 3”, and “Release 4” can set the recording condition of the still image, the recording target device, and the like by the following child items.
  • “Peripheral device”, which is one of the child items of the item “Release 1”, is an item that can set a recording target device of an HDTV system still image.
  • the recording target device includes each filing device (excluding the filing device 204A), each photography device (however, except the photography device 205A), each optical recording device, and each of the drawings shown in FIGS. Any one of the PC card 167 and the memory card 168 is shown.
  • the item “peripheral device” to “OFF”, even if the recording target device is not present, that is, even if a key or switch to which the function “Release 1” is assigned is operated, It is possible to set so that still images are not recorded.
  • Encode which is one of the child items of the item “Release 1”, is an item in which a format used when recording a still image of the HDTV system can be set.
  • the format that can be set as the format is, for example, any one of JPEG, JPEG2000, TIFF, or BMP.
  • the CPU 131 of the main control unit performs the following. That is, the CPU 131 controls the arbiter 633 to output an output image via the JPEG encoding / decoding circuit 645 and the TIFF / BMP conversion circuit 647 of the image compression / decompression unit 73.
  • the CPU 131 of the main control unit does not drive the JPEG encoding / decoding circuit 645 and the TIFF / BMP conversion circuit 647 of the image compression / decompression unit 73 for the output image. .
  • “Signal” which is one of the child items of the item “Release1” is an item in which the signal form of the output image can be set to either YCrCb signal or RGB signal.
  • the CPU 131 of the main control unit 75 controls the arbiter 633 to output the output image via the YUV-RGB conversion circuit 651 of the image compression / decompression unit 73. Output.
  • the CPU 131 of the main control unit controls the arbiter 633, and outputs an output image via the YUV-RGB conversion circuit 651 of the image compression / decompression unit 73. Output.
  • “Format” which is one of the child items of the item “Release 1” is an item in which the format of the YCrCb signal or the RGB signal set in the child item “Signal” of the item “Release 1” in the “HDTV” column can be set.
  • the formats that can be set as the format are 4: 2: 0, 4: 1: 1, 4: 2: 2, 4: 4: 4, Sequential, Spectral Selection (Frequency Division), Successive Apploximation. (Approximation accuracy improved type), DPCM (reversible type), Interleave, and Non-Interleave are any one or more.
  • the CPU 131 of the main control unit 75 When any one of the formats described above is selected and set in the item “Format”, the CPU 131 of the main control unit 75 performs the compression / conversion processing according to the format in the JPEG encoding / decoding process of the image compression / decompression unit 73.
  • the decoding circuit 645 and the TIFF / BMP conversion circuit 647 are caused to perform the processing.
  • the CPU 131 of the main control unit corresponds to the YCrCb signal or the RGB signal set in the child item “Signal” of the item “Release 1” in the “HDTV” column.
  • the format is not changed.
  • Dot which is one of the child items of the item “Release 1” is a quantization of the YCrCb signal (component) or the RGB signal (component) set in the child item “Signal” of the item “Release 1” in the “HDTV” column. This is an item in which the precision can be set to any number of dots of 8 bits or 10 bits.
  • the CPU 131 of the main control unit is a signal obtained by quantizing an input signal (component) with respect to the number of dots to the JPEG encoding / decoding circuit 645 and the TIFF / BMP conversion circuit 647 of the image compression / decompression unit 73. To perform compression / conversion processing.
  • “Level” which is one of the child items of the item “Release 1” is an item in which the compression level of the output image can be set.
  • the compression level for example, “High” in which the image quality is large and the image size is large, “Normal” in which the image quality is low and the image size is small compared to the setting of “High”, and “Normal” Can be selected from three levels “Low”, which is lower in image quality and smaller in image size than the setting “”.
  • the CPU 131 of the main control unit 75 performs compression / conversion processing corresponding to the above-described three levels on the JPEG encoding / decoding circuit 645 and the TIFF / BMP conversion circuit 647 of the image compression / decompression unit 73. Let it be done.
  • the above-described settings of “High”, “Normal”, and “Low” can be realized by using a preset quantization table or Huffman table, for example, in the case of the JPEG format.
  • the items “Encode”, “Signal”, “Format”, “Dot”, and “Level” are items “peripheral devices” in FIG. 18 and FIG. Valid only when one of the filing device, each photography device in FIGS. 18 and 19, each optical recording device in FIGS. 18 and 19, PC card 167 and memory card 168 is selected (setting change is possible) ).
  • the items “Encode”, “Signal”, “Format”, “Dot”, and “Level” are invalid (settings cannot be changed), they are displayed in a dark gray color, for example.
  • each item included in the “SDTV” field and the “HDTV” field is not limited to that set by the user on the setting screen as shown in FIG.
  • a predetermined peripheral device is connected to the processor 4 and the predetermined peripheral device is selected in the item “peripheral device” in the “SDTV” column or the “HDTV” column, the predetermined item is automatically set. It may be a predetermined setting content.
  • the items “NETWORK”, “UPD”, and “ZOOM Controller” included in the “Board” column are items that can be set with respect to the extension control unit 77.
  • the item “NETWORK” displays or hides network-related information (based on an image) output from the expansion control unit 77A when the expansion control unit 77A is connected as the expansion control unit 77, and the network-related This is an item in which the display position of information (based on the image) can be set.
  • the item “UPD” is an endoscope shape image output from the expansion control unit 77B when the expansion control unit 77B having a partial function of the endoscope shape detection device is connected as the expansion control unit 77.
  • the item “ZOOM Controller” indicates whether or not the zoom control information output from the expansion control unit 77B is displayed when the expansion control unit 77B having a zoom control function is connected as the expansion control unit 77, and This is an item in which the display position of zoom control information can be set.
  • the items “NETWORK”, “UPD”, and “ZOOM Controller” have the items “PinP” and “Position” as child items, respectively.
  • PinP which is a child item of the item “NETWORK” is set to “ON”, so that the network related information (image based on the above) is displayed by PinP.
  • the network related information (based on the image) is not displayed.
  • the above-described “ON” or “OFF” setting is not limited to that performed on the setting screen as shown in FIG.
  • the setting of “ON” or “OFF” described above may be performed by operating a key or a switch to which a “NET” function to be described later is assigned.
  • Porition which is a child item of the item “NETWORK”, can select the display position of network-related information (based on the image) displayed by PinP from any one of upper left, lower left, upper right, and lower right. It can be an item.
  • PinP which is a child item of the item “UPD” is set to “ON”, so that the above-described endoscope shape detection image is displayed by PinP. Further, when “PinP” is set to “OFF”, the endoscope shape detection image is not displayed.
  • the above-described “ON” or “OFF” setting is not limited to that performed on the setting screen as shown in FIG. 29. For example, the operation of a key or switch to which the “UPD” function described later is assigned. May be performed.
  • PinP which is a child item of the item “UPD” is an item in which the display position of the endoscope shape detection image displayed by PinP can be selected from any of upper left, lower left, upper right and lower right. It is.
  • “PinP” which is a child item of the item “ZOOM Controller” is set to “ON”, so that the zoom control information described above is displayed by PinP. Further, when “PinP” is set to “OFF”, the zoom control information is not displayed.
  • the above-described “ON” or “OFF” setting is not limited to that performed on the setting screen as shown in FIG. For example, the above-described setting of “ON” or “OFF” may be performed by operating a key or a switch to which a “ZScale” function described later is assigned.
  • “Position” which is a child item of the item “ZOOM Controller” is an item in which the display position of the zoom control information displayed by PinP can be selected from any one of upper left, lower left, upper right and lower right. .
  • the items “SDTV” and “HDTV” in the “Release Time” column are items in which a time during which a still image is continuously displayed after a release instruction (recording instruction) is given can be set.
  • the time for which the still image is continuously displayed is, for example, 0.1 second, 0.5 second, 1 second, 2 seconds, 3 seconds, 4 seconds, 5 seconds, 6 seconds, 7 seconds, 8 seconds, and 9 seconds. It is assumed that any one of the above can be selected.
  • the settings of the items “SDTV” and “HDTV” in the “ReleaseReTime” column are not limited to those set by the user on the setting screen as shown in FIG.
  • the predetermined peripheral device is connected to the processor 4 and the predetermined peripheral device is selected in the item “peripheral device”, the items “SDTV” and “HDTV” are set automatically. It may be a setting content.
  • the item “Monsize” is an item for which the screen display size can be selected and set from either 16: 9 or 4: 3.
  • the item “encryption” is an item in which it is possible to set whether or not to perform encryption processing and decryption processing in the encryption processing circuit 170 of the extension control unit 77A.
  • FIG. 30 is a diagram showing an example of another setting screen which is a screen after the transition from the setting screen of FIG. 29 by operating the keyboard 5 or the like among the setting screens of the processor 4.
  • the items that can be set on the setting screen and the functions related to the items will be described. It is assumed that the setting screen of the processor 4 as shown in FIG. 30 is generated in the graphic circuit 106S (106H) of the image processing unit 72, for example.
  • Each item in the “Decode” column is an item that can be set for display of still images and moving images.
  • the item “Device” in the “Decode” column is an item from which peripheral devices connected to the processor 4 that can record a desired image to be displayed can be selected.
  • the CPU 131 of the main control unit 75 reads an image recorded in the optical recording device 208E1 or 208E2 among the peripheral devices connected to the processor 4.
  • the CPU 131 of the main control unit 75 reads an image recorded in the filing device 204E1 or 204E2 among the peripheral devices connected to the processor 4.
  • the CPU 131 of the main control unit 75 When “TYPE3” is selected in the item “Device”, the CPU 131 of the main control unit 75 reads an image recorded in the optical recording device 208D1 or 208D2 among the peripheral devices connected to the processor 4. When “TYPE4” is selected in the item “Device”, the CPU 131 of the main control unit 75 reads an image recorded in the filing device 204D1 or 204D2 among the peripheral devices connected to the processor 4. When “TYPE5” is selected in the item “Device”, the CPU 131 of the main control unit 75 is recorded in the USB (registered trademark) memory 210 connected to the controller 164 among the peripheral devices connected to the processor 4. Load an image.
  • USB registered trademark
  • the CPU 131 of the main control unit 75 reads an image recorded on the PC card 167 among the peripheral devices connected to the processor 4.
  • the CPU 131 of the main control unit 75 reads an image recorded on the memory card 168 among the peripheral devices connected to the processor 4.
  • the CPU 131 of the main control unit 75 reads an image recorded in the server 212 among peripheral devices connected to the processor 4.
  • the item “Decode Type” in the “Decode” column is an item in which the type of endoscope composite image to be displayed can be selected and set from either SDTV or HDTV.
  • the item “thumbnail” in the “Decode” column is an item in which it is possible to set whether to perform multi-image generation using a thumbnail image file.
  • the enlargement / reduction circuit 649 performs a process of generating a multi-image from the thumbnail image file.
  • the enlargement / reduction circuit 649 generates a thumbnail image based on the input output image and displays a multi-image capable of displaying the thumbnail image as a list. Generate the process.
  • the item “Mult ⁇ Num. ”In the“ Decode ”column is an item in which the number of images displayed in the multi-image display can be set, for example, from 1 to 32 images.
  • the CPU 131 of the main control unit 75 controls the enlargement / reduction circuit 649 of the image compression / decompression unit 73 so that the number of images set in the item “Mult Num” is displayed in the multi-image display.
  • the item “MultulNum” may be set in a state where setting is not possible due to shading display or the like when the item “thumbnail” in the “Decode” column is set to use a thumbnail file. .
  • Freeze which is one of selectable functions, is a function capable of giving a freeze instruction for outputting a freeze image.
  • the CPU 131 When a key or switch to which such a freeze function is assigned is operated, the CPU 131 performs the following processing. That is, the CPU 131 controls the freeze circuit 96 and the memory 97 via the BUF 139 and performs control for outputting a freeze image.
  • the key or switch to which the above-described freeze function is assigned is described as a freeze switch.
  • “Release 1” which is one of selectable functions is a function capable of issuing a release instruction for recording a still image on a peripheral device (recording target device) or the like.
  • the CPU 131 controls the graphic circuit 106S or (and) 106H. Then, the CPU 131 determines the value of SCV 309 on the screen shown in FIG. A value obtained by adding one to the value of F311 is output.
  • the CPU 131 performs the following processing.
  • the CPU 131 records an SDTV output image on the peripheral device set in “peripheral device” which is one of the child items of the item “Release1” in the “SDTV” column of the setting screen described above. At this time, the CPU 131 records an HDTV output image on a peripheral device or the like set in “peripheral device” which is one of the child items of the item “Release1” in the “HDTV” column.
  • the function of “Release 1” described above is “Release 2”, “Release 3”, and “Release 4”, and the same function can be assigned to up to four keys or switches.
  • the CPU 131 performs the following processing. That is, the CPU 131 performs control to record the output image on the at least one device via the SIO 142 or the PIO 143.
  • the CPU 131 performs the following processing. That is, the CPU 131 performs control to record the output image output from the arbiter 633 of the image compression / decompression unit 73 on the at least one device via the controller 164 of the expansion control unit 77A.
  • the CPU 131 When, for example, one of the PC card 167 and the memory card 168 shown in FIG. 10 is selected as the recording target device in “Release 1” of the setting screen shown in FIG. 29, the CPU 131 performs the following processing. Do. That is, the CPU 131 performs control to record the output image output from the arbiter 633 of the image compression / decompression unit 73 on the one device via the card controller 165 of the expansion control unit 77A.
  • the CPU 131 performs the following processing. That is, the CPU 131 causes the at least one device to record the output image output from the arbiter 633 of the image compression / decompression unit 73 via the HUB 162, the signal line 162a, and the like. At this time, the CPU 131 performs control for recording the output image on the buffer 166 for backup.
  • the CPU 131 performs control for recording the output image on the buffer 166 for backup.
  • the CPU 131 performs the following processing. That is, the CPU 131 performs control for causing the buffer 166 to record the output image output from the arbiter 633 of the image compression / decompression unit 73. Thereafter, for example, the end of the inspection is notified by operating a key having an inspection end notification function. Then, a part or all of the output images recorded in the buffer 166 are transferred to at least one of the filing devices, the photographic devices, the optical recording devices, and the server shown in FIG. To be recorded.
  • “Iris”, which is one of selectable functions, is a function that can select and switch the photometry (dimming) method from peak, average, or automatic. A key or switch to which the photometry switching function as such a function is assigned is operated. Then, the CPU 131 outputs a dimming signal generated based on an instruction according to the operation to the light source device 3 via the signal lines 59a, 58a and the like.
  • “Enhance”, which is one of selectable functions, is a function capable of selecting and switching image enhancement display from, for example, structure enhancement or outline enhancement.
  • the CPU 131 controls the graphic circuit 106S or (and) 106H to display the screen structure emphasis / outline emphasis 323A shown in FIG. Change the display contents and output.
  • the CPU 131 controls the enlargement / emphasis circuit 99H or (and) 99S via the BUF 139 and outputs an output image in an enhanced state. .
  • One of the selectable functions, “Contrast”, is the image contrast, for example, “Low” (low contrast), “Normal” (medium contrast), “High” (high contrast) and uncorrected. It is a function that can be selected and switched from any one of them.
  • a key or switch to which such a function as a contrast switching function is assigned is operated.
  • the CPU 131 controls the graphic circuit 106S or (and) 106H to change and output the display content of the screen contrast 320A shown in FIG.
  • the CPU 131 controls the pre-stage image processing circuit 95 via the BUF 139 to perform ⁇ conversion based on an instruction according to the operation.
  • Img.Size which is one of the selectable functions is a function capable of switching the image size of the output image.
  • a key or switch to which an image size switching function as such a function is assigned is operated.
  • the CPU 131 controls the enlargement / enhancement circuit 99H or (and) 99S via the BUF 139 to change the image size of the output image (output the enlarged image).
  • the CPU 131 controls the synthesis circuit 108H or (and) 108S via the BUF 139.
  • the CPU 131 synthesizes and outputs the image whose image size has been changed to the image signal that has been subjected to the mask processing.
  • VTR which is one of selectable functions can be switched between the recording of moving images in the VTR and the pause of recording of the moving images by toggle operation among peripheral devices connected to the processor 4.
  • a key or switch to which the VTR recording function which is such a function is assigned is operated.
  • the CPU 131 controls the graphic circuit 106S or (and) 106H to change and display the display state of the VTR 312 on the screen shown in FIG. 25 (“VTR” is displayed during moving image recording and is temporarily stopped). Is not displayed).
  • the CPU 131 performs the following whenever a key or switch to which the VTR recording function is assigned is operated.
  • the CPU 131 directs one (or a plurality) of VTRs 203A, 203B1, 203B2, 203C1, or 203C2 among the peripheral devices connected to the processor 4 to record a moving image; An instruction to pause recording of moving images is alternately output.
  • the CPU 131 interrupts reproduction of the one moving image.
  • the CPU 131 performs the following each time a key or switch to which the VTR recording function is assigned is operated. That is, the CPU 131 alternately outputs an instruction for recording another moving image different from the one moving image and an instruction for temporarily stopping recording of the other moving image.
  • the above-described instruction for recording a moving image by the VTR recording function and the instruction for temporarily stopping the recording of a moving image are output to the filing devices 204C1 and 204C2 in addition to the above-described VTRs. There may be.
  • Each of the VTRs shown in FIGS. 15 to 17 may be provided with a switch having the above-described VTR recording function and independent of function assignment by the processor 4.
  • Capture which is one of selectable functions is a function capable of capturing a still image in a printer among peripheral devices connected to the processor 4.
  • the CPU 131 controls the graphic circuit 106S or (and) 106H, and the display contents (count value and the display value of the CVP 310 on the screen shown in FIG. 25). Change the memory page etc.).
  • the CPU 131 instructs the printer to capture an output image among peripheral devices connected to the processor 4, and the output image. Is output.
  • the CPU 131 sends the output image to the one printer via the SIO 142 or PIO 143. Control to capture.
  • the CPU 131 when at least one of the printers shown in FIG. 18 is selected, the CPU 131 outputs an output image output from the arbiter 633 of the image compression / decompression unit 73 to the controller 164 of the expansion control unit 77A. And controlling the capture in the one printer.
  • the CPU 131 when at least one of the printers shown in FIG. 19 is selected and the setting is to capture an image with a high compression rate, the CPU 131 performs the following. That is, the CPU 131 causes the one printer to capture the output image output from the arbiter 633 of the image compression / decompression unit 73 via the HUB 162 and the signal line 162a, and also outputs the output image to the buffer 166. Control for recording. Further, for example, when at least one printer is selected from the printers shown in FIG. 19 and the setting is made to record an image with a low compression rate, the CPU 131 performs the following.
  • the CPU 131 performs control for causing the buffer 166 to record the output image output from the arbiter 633 of the image compression / decompression unit 73. Thereafter, for example, the end of the inspection is notified by operating a key having an inspection end notification function. Then, some or all of the output images recorded in the buffer 166 are captured by at least one of the printers shown in FIG.
  • printer selection may be performed on the setting screen shown in FIG.
  • Print which is one of selectable functions, is a function that allows a printer to print and output a still image among peripheral devices connected to the processor 4.
  • the CPU 131 When a key or switch to which such a print function is assigned is operated, the CPU 131 outputs an instruction to cause the printer to print an output image among peripheral devices connected to the processor 4. To do.
  • the CPU 131 is captured in the one printer via the SIO 142 or PIO 143. Controls printing of still images.
  • the CPU 131 controls the print of a still image captured in the one printer via the controller 164 of the expansion control unit 77A. I do.
  • the CPU 131 performs control to print a still image captured in the one printer via the HUB 162 and the signal line 162a. .
  • the CPU 131 controls the graphic circuit 106S or (and) 106H based on the time indicated by the RTC 134, and switches the display state of the stopwatch in the time information 308 on the screen shown in FIG.
  • the display state of the stopwatch is as follows: every time a key to which a stopwatch function is assigned is operated, stopwatch display and operation start, stopwatch pause, and stopwatch non-display Are sequentially switched.
  • UPD which is one of selectable functions, is a function capable of switching between display and non-display of the endoscope shape image generated and output in the graphic circuit 169 of the expansion control unit 77B by a toggle operation. is there.
  • the CPU 131 performs the following. That is, whether or not the CPU 131 synthesizes and outputs the endoscope shape image output from the graphic circuit 169 of the expansion control unit 77B in the combining circuit 108H or (and) 108S based on an instruction according to the operation.
  • To control. For the processing associated with the control, refer to the portions described as the description of the processing shown in steps DDDFLW4 to DDDFLW7 in FIG. 12.
  • ZScale which is one of selectable functions, is a function capable of switching between display and non-display of zoom control information output from the extension control unit 77B by a toggle operation.
  • the CPU 131 causes the graphic circuits 106S and 106H to image zoom control information based on an instruction corresponding to the operation.
  • the CPU 131 controls whether or not the zoom control information is mask-combined and output in the combining circuit 108H and the combining circuit 108S. (For the processing associated with the control, refer to the portions described as the description of the processing shown in steps DDDFLW4 to DDDFLW7 in FIG. 12.)
  • Zoom which is one of selectable functions, is a function capable of switching the magnification of the electronic enlargement process for the output image.
  • the CPU 131 controls the enlargement / enhancement circuit 99H or (and) 99S via the BUF 139, and instructs according to the operation.
  • the electronic enlargement process with the magnification based on the above is performed.
  • IHb which is one of selectable functions, is a function that can switch the degree of color enhancement according to the hemoglobin index.
  • the CPU 131 controls the graphic circuit 106S or (and) 106H to change and output the display content of the color enhancement 321A on the screen shown in FIG.
  • the CPU 131 performs the following. That is, the CPU 131 controls the subsequent-stage image processing circuit 98 via the BUF 139 with respect to the degree of the IHb color enhancement process, which is a color enhancement process according to the hemoglobin index.
  • PUMP which is one of selectable functions, is a function capable of switching ON / OFF of water feeding performed by a forward water pump (not shown) by a toggle operation.
  • the CPU 131 controls a forward water pump (not shown) to execute or stop forward water feeding.
  • the CPU 131 controls the graphic circuit 106S or (and) 106H to change and display the display content of the PUMP 313 on the screen shown in FIG. .
  • “Exam End”, which is one of selectable functions, is a function capable of notifying the peripheral device connected to the processor 4 of the end of the inspection.
  • the CPU 131 When a key or switch to which such an inspection end notification function is assigned is operated, the CPU 131 performs the following. That is, the CPU 131 controls the graphic circuit 106S or (and) 106H and clears (instead of clearing) some of the information included in the observation information group 300 displayed as the screen shown in FIG. Display the item name).
  • the CPU 131 outputs a signal indicating the end of inspection to each unit of the processor 4.
  • M-REC which is one of selectable functions, is used to record a moving image in an optical recording device and a filing device among peripheral devices connected to the processor 4, and temporarily stop the recording of the moving image. Is a function that can be switched by a toggle operation.
  • the CPU 131 controls the graphic circuit 106S or (and) 106H to change and display the display state of the VTR 312 on the screen shown in FIG. 25 (“VTR” is displayed during moving image recording and is temporarily stopped). Is not displayed).
  • the CPU 131 performs the following whenever a key or switch to which the moving image recording function is assigned is operated.
  • the CPU 131 is a peripheral device connected to the processor 4, for example, one (or a plurality) of filing devices 204D1, 204D2, 204E1, and 204E2 and optical recording devices 208D1, 208D2, 208E1, and 208E2.
  • an instruction for recording a moving image and an instruction for temporarily stopping recording of a moving image are alternately output.
  • each filing device and / or each optical recording device shown in FIGS. 18 and 19 may be provided with a switch having the above-described moving image recording function and independent of function assignment by the processor 4.
  • “Special light” which is one of selectable functions can be selected and switched by a toggle operation among the special light filters 53A, 53B and 53C of the light source device 3 which are arranged on the optical path of the lamp 51.
  • Function When a key or switch to which the special light filter switching function, which is such a function, is operated, the CPU 131 controls the graphic circuit 106S or (and) 106H, and the light source filter type 325A of the screen shown in FIG. Change the display status and output. When a key or switch to which the special light filter switching function is assigned is operated, the CPU 131 performs the following.
  • the CPU 131 changes the filter arranged on the optical path of the lamp 51 of the light source device 3 by performing control based on an instruction according to the operation via the signal lines 59a, 58a and the like. Further, when a key or switch to which the special light filter switching function is assigned is operated, the CPU 131 performs the following. That is, the CPU 131 controls the respective parts of the pre-stage image processing circuit 95, the post-stage image processing circuit 98, the enlargement / enhancement circuit 99H and the enlargement / enhancement circuit 99S via the BUF 139, and the types of filters arranged on the optical path of the lamp 51. Image processing corresponding to the above is performed on the respective units.
  • P-VTR which is one of selectable functions, among peripheral devices connected to the processor 4, reproduces a moving image recorded in the VTR and pauses the reproduction of the moving image. This function can be switched by a toggle operation.
  • the CPU 131 controls the graphic circuit 106S or (and) 106H to change and display the display state of the VTR 312 on the screen shown in FIG. 25 (“VTR” is displayed during moving image playback and is paused). Is not displayed).
  • the CPU 131 performs the following whenever a key or switch to which the VTR playback function is assigned is operated.
  • the CPU 131 instructs the one VTR of the VTRs 203A, 203B1, 203B2, 203C1, or 203C2, for example, of the peripheral devices connected to the processor 4 to reproduce the moving image, and the moving image reproduction. And an instruction to pause are alternately output.
  • the VTR playback function is assigned either during the recording of a moving image in the VTR, during the fast-forwarding of a moving image, or during the rewinding of a moving image.
  • the CPU 131 interrupts the processing related to them (moving image recording, fast forward and rewind), and every time the key or the switch is operated, an instruction to reproduce the moving image and the reproduction of the moving image. It is assumed that an instruction to temporarily stop is alternately output. Note that the above-described instruction for playing back a moving picture and the instruction for pausing the playback of a moving picture by the VTR playback function are output to the filing devices 204C1 and 204C2 in addition to the above-described VTRs. There may be.
  • M-PLY which is one of selectable functions, is a playback of a moving image in an optical recording device and a filing device among peripheral devices connected to the processor 4 and a pause of the playback of the moving image. Is a function that can be switched by a toggle operation.
  • the CPU 131 performs the following. That is, the CPU 131 controls the graphic circuit 106S or (and) 106H to change and display the display state of the VTR 312 on the screen shown in FIG. 25 (“VTR” is displayed during moving image playback and is paused). Is not displayed).
  • the CPU 131 performs the following. That is, the CPU 131 is a peripheral device connected to the processor 4, for example, for one of the filing devices 204D1, 204D2, 204E1, and 204E2 and the optical recording devices 208D1, 208D2, 208E1, and 208E2, a moving image An instruction to reproduce the image and an instruction to pause the reproduction of the moving image are alternately output. Note that each filing device and / or each optical recording device shown in FIGS. 18 and 19 may be provided with a switch or the like having the above-described moving image reproduction function and independent of function assignment by the processor 4.
  • NET which is one of selectable functions, is a function that can switch between display and non-display of network-related information (based on an image) output from the expansion control unit 77A by a toggle operation.
  • the CPU 131 When a key or switch to which the network-related information image switching function, which is such a function, is operated, the CPU 131, based on an instruction according to the operation, the network-related information (2) output from the expansion control unit 77A.
  • the image based on the image is synthesized and output in the synthesis circuit 108H or (and) 108S. (For the processing associated with the control, refer to the portions described as the description of the processing shown in steps DDDFLW4 to DDDFLW7 in FIG. 12.)
  • TELE which is one of selectable functions is a function capable of moving the objective optical system 22A (22B) of the endoscope 2A (2B) in the enlargement (tele) direction.
  • the CPU 131 operates the actuator 23A (23B) of the endoscope 2A (and 2B) via the drive circuit 186 of the expansion control unit 77B while the key or switch to which the tele function as such a function is continuously operated. ). Accordingly, the CPU 131 moves the objective optical system 22A (22B) in the enlargement (tele) direction, which is the axial direction and the distal end side direction of the insertion portion 21A (21B).
  • the CPU 131 controls the graphic circuit 106S or (and) 106H so that the display content of the zoom control information is the content corresponding to the enlargement (tele). Change to and output.
  • “WIDE” which is one of selectable functions is a function capable of moving the objective optical system 22A (22B) of the endoscope 2A (2B) in the wide-angle direction.
  • the CPU 131 operates the actuator 23A (23B) of the endoscope 2A (and 2B) via the drive circuit 186 of the expansion control unit 77B while the key or switch to which the wide function as such a function is continuously operated. ).
  • the CPU 131 moves the objective optical system 22A (22B) in the wide-angle direction, which is the axial direction and proximal direction of the insertion portion 21A (21B).
  • the CPU 131 performs the following. That is, the CPU 131 controls the graphic circuit 106S or (and) 106H to change the display content of the zoom control information to the content corresponding to the wide angle (wide) and output it.
  • OFF which is one of selectable functions, is a setting for not assigning any of the functions described above. That is, when a key or switch set to “OFF” is operated, the processor 4 performs no processing.
  • the CPU 131 may be configured to select only a part of the functions described above based on, for example, the detection result of the connection state of the expansion control units 77A and 77B. Specifically, the CPU 131 performs processing such as disabling or non-display of functions related to unconnected ones (or any of the expansion control units 77A and 77B that could not be detected). May be.
  • FIG. 31 is a diagram for explaining that images are stored in accordance with the display size, image size, and endoscope type (endoscope connection detection signal).
  • the image coordinate values (mrstart, mrstartv, mrendh, mrendv) change according to the display size, image size, and endoscope type (endoscope connection detection signal). Therefore, the display size, the image size, and the endoscope type (endoscope connection detection signal) are stored as parameters in the program ROM or backup RAM 155 as the coordinate values (mrstart, mrstartv, mrendh, mrendv). To do. Thus, only the endoscopic image 301 can be cut out and recorded.
  • the endoscopic image 301 recorded here corresponds to an image based on the video signal from the signal line 124a or 125a.
  • the image input from the signal lines 607 and 607 ′ is an image before the enlargement / reduction and image arrangement, and therefore the type of connection device and the video format of the image (HDTV). / SDTV etc.), the size and position of the image are determined. Therefore, based on the SD / HD discrimination signals 615 and 615 ′, the type of connection device and the video format of the image (such as HDTV / SDTV) are discriminated, and the result of the discrimination is the parameter of the type of connection device and the video format of the image.
  • the coordinate values of the image are stored in the program ROM or backup RAM 155 as table values. Based on the table value, only the image portion of the endoscope shape detecting device / image portion of the ultrasonic device can be cut out and recorded.
  • each filing device and each optical recording device shown in FIGS. 15 to 19 are used for recording an image.
  • a PC card 167 a PC card 167
  • a memory card 168 a USB (registered trademark) memory
  • a buffer 166 a buffer 166
  • a server 212 a server 212 for recording an image.
  • An example of a directory structure is shown in FIG.
  • the data created by the processor 4 is transferred to each filing device and each optical recording device, the PC card 167, the memory card 168, and the USB (registered trademark) memory by using an Ethernet (registered trademark) or a USB interface as shown in FIG. Configure folders and files.
  • the examination information storage folder corresponds to 100OLYMP and 101OLYMP in the example of FIG.
  • the examination information storage folder may create a folder with serial numbers and store the data in this way.
  • the annotation storage folder is under the inspection information storage folder.
  • annotation data using in-inspection images is stored.
  • the annotation storage folder corresponds to 100OLYMP, 101OLYMP, and 102OLYMP in the example of FIG.
  • folders may be created with serial numbers and the data may be saved.
  • FIG. 33 is a diagram for explaining the DCIM folder, the examination information storage folder, and the annotation storage folder of FIG.
  • the examination information storage file is a file that manages and saves the examination management ID, examination type, examination date and time, and patient information for each examination information storage folder. Addition / deletion of examination information (examination management ID / examination type / examination date / time / patient information) to one examination information storage file. Details of the inspection information storage file will be described with reference to FIG.
  • the imaging information management file, HDTV image file, SDTV image file, external image file 1 and external image file 2 are stored in the examination information storage folder.
  • the imaging information management file is a file that manages and saves the screen display state and setting values at the time of recording for each recorded image in the examination information storage folder. Addition / deletion of the screen display state or setting value at the time of recording is performed on one shooting information management file.
  • the image file of the HDTV endoscope image 301 recorded as shown in FIGS. 47 to 51, 17 via 125a for example, the SDTV endoscope recorded as shown in FIGS. 47 to 51, 17 via 124a. 47-51, 17 through the external image file 1 of the external image 1 (330) recorded as shown in FIGS.
  • the external image file 2 of the external image 2 (331) recorded in this way is, for example, a JPEG image data file of XXXX0001.JPG to XXXX9999.JPG and a TIFF image data file of XXXX0001.TIF to XXXX9999.TIFF, for example. is there. Details of the shooting information management file will be described with reference to FIG.
  • an annotation management file HDTV image file, SDTV image file, external image file 1, and external image file 2 are stored.
  • the annotation management file is a file that manages and saves the annotation screen display state and setting values. Add / delete annotation screen display status and setting values for one annotation management file.
  • the HDTV image file, SDTV image file, external image file 1 and external image file 2 are, for example, JPEG image data files of XXXX0001.JPG to XXXX9999.JPG, and TIFF image data files of XXXX0001.TIF to XXXX9999.TIFF, for example. It is.
  • FIG. 34 is a diagram for explaining the details of the inspection information storage file.
  • the examination information storage file includes items shown in FIG. 25 and items of “examination management ID”, “examination type”, “examination date”, and “patient information”.
  • the “inspection management ID” consists of date + inspection management number.
  • “Examination type” indicates, for example, a site to be inspected, such as upper part (stomach / duodenum) / lower part (large intestine / small intestine / anus).
  • “Inspection date” indicates the date and time when the inspection was performed.
  • Patient information includes patient ID, patient name (Name), sex (Sex), and age (Age).
  • FIG. 35 is a diagram for explaining the details of each setting screen item and the shooting information management file of FIG.
  • the shooting information management file includes items of “display state of display character information”, “stored image information”, “image display state”, and “other display information”.
  • Display state of display character information is an item for setting a display state of characters to be displayed in the endoscope composite image 300-1 generated in the combining circuit 108H or 108S.
  • “Display character information display status” includes, for example, “ID”, “NAME”, “SEX”, “AGE”, “Current date”, “Current time”, “Stopwatch”, “Split time”, “ SCV Counter, CVP Counter, DF Counter, VTR Counter, Digital Counter, Eh Level, Ce Level, IHb Display, Comment, Special Light Display, For “Near_Focus” and “Electronic Enlargement”, display (ON) / non-display (OFF) is set, “Display Language” is set to, for example, English, and “Text Display Color” is set to, for example, “White” be able to.
  • the “saved image information” stores information about each image constituting the endoscope composite image 300-1 when the endoscope composite image 300-1 generated by the composition circuit 108H or 108S is stored.
  • the width, height, cutout, and file name of the HDTV image are stored.
  • the image type (HDTV / SDTV), width, height, and file name are stored.
  • ON (display) / OFF (non-display) ON (display) / OFF (non-display), display start position (coordinates in the endoscope composite image 300-1), display size, and display priority order are stored. .
  • “Other display information” includes ON (display) / OFF (non-display), arrow pointer direction, and arrow pointer display coordinates (display of arrows in the endoscope composite image 300-1). The coordinates of arrows in the endoscope composite image 300-1) are stored.
  • FIG. 36 shows an example of an examination information management file and an imaging information management file for the endoscope composite image 300-1 generated in the synthesis circuit 108H or 108S.
  • FIG. 37 shows an endoscope composite image 300-1 corresponding to the examination information management file and the imaging information management file of FIG.
  • the examination information management file and the imaging information management file have contents as shown on the left side of FIG.
  • image file of the thumbnail image and the image file of the image that is the original of the thumbnail image may be different image files as shown in FIG. 38, or as shown in FIG. May be configured as one image file in which each is combined.
  • SOI is information indicating the beginning of file data
  • EOI is information indicating the end of file data.
  • the images (moving images and still images) recorded in the files and peripheral devices shown in FIGS. 32 to 39 include, for example, information items enumerated from items a) to z) described below. At least one piece of information may be added.
  • Peripheral device connection information (recording number, recording state, presence / absence of connection, power supply state, communication state, printer division mode, number of prints, VTR operating state (playback, recording or stop)).
  • Image related information group 301A Information related to the endoscopic image 301 other than the image related information group 301A (IHb pseudo color display area, image size (either Medium, Semi-Full or Full), monochrome setting, etc.).
  • Type of endoscope 2A (or 2B or 2C).
  • Ethernet registered trademark
  • V Image color space (sRGB, etc.).
  • image size any of Medium, Semi-Full, or Full
  • the image size switching function described above can be changed by, for example, the operation of the key or switch to which the image size switching function described above is assigned. To do.
  • the CPU 131 of the main control unit 75 detects whether, for example, a recording image display instruction key provided on the operation device has been input, via either the SIO 142 or the PIO 143 (FIGS. 41A to 41B). Step CFLW1).
  • indication key which HID209D1 and 209D2 have among each operation device was made is not restricted to what is performed by CPU131.
  • the CPU 151 of the expansion control unit 77A may detect whether or not a recording image display instruction key has been input, and the detection result may be input to the CPU 131 via the SIO 159, the SIO 142, and the like.
  • the graphic circuit 106H, the graphic circuit 106S, or the graphic circuit 169 indicates a message indicating that it is preparing to display a still image (for example, Control for generating and outputting a message such as “Please Wait” or an image (an image such as a black screen or a color bar) is performed (step CFLW2 in FIGS. 41A to 41B).
  • a wait screen the above-described message or image indicating that the display is being prepared is hereinafter referred to as a wait screen.
  • the process performed when displaying the wait screen is the same process as the process of step CFLW2 of FIGS. 41A to 41B described above, unless otherwise specified.
  • Step CFLW3 in FIGS. 41A-41B the peripheral device referred to by the CPU 131 in the process of step CFLW3 in FIGS. 41A to 41B is a device set in the item “Device” in the “Decode” column on the setting screen in FIG.
  • the CPU 131 displays the directory name and the image file name stored in the referenced peripheral device (the device set in the item “Device” in the “Decode” column on the setting screen in FIG. 30), the CPU 131 displays It is not limited to the one using the display method shown. For example, based on information such as size information, identification information, reduction ratio, and / or data size added to the image, the type set in the item “Decode Type” in the “Decode” column on the setting screen of FIG. Only images and thumbnails of either SDTV or HDTV) may be displayed. Further, when displaying the directory name and the image file name stored in the referenced peripheral device or the like, the CPU 131 first displays only the directory name, selects one directory, and selects a predetermined key (or switch).
  • the image file name stored in the one directory may be displayed only when it is detected that () is input (for example, right mouse click as one of the HIDs). Furthermore, it is assumed that the directory name and the image file name selected by operating the operation device can be renamed by a predetermined key (for example, the keyboard 5 or the character keys of the HIDs 209D1 and 209D2). Further, the CPU 131 may display a plurality of pages when the number of directories and / or image files is large.
  • the CPU 131 When a directory is selected by inputting a predetermined key (for example, an arrow key of the keyboard 5) of the operation device, and one directory is confirmed by inputting a confirmation key (for example, the ENTER key of the keyboard 5) (FIG. 41A).
  • a confirmation key for example, the ENTER key of the keyboard 5
  • the CPU 131 performs the following. That is, the CPU 131 performs processing for displaying a wait screen (step CFLW5 in FIGS. 41A to 41B), and generates and outputs a multi-image during the display of the wait screen (step CFLW6 in FIGS. 41A to 41B).
  • step CFLW6 in FIGS. 41A to 41B will be described.
  • the CPU 131 reads each image file in the directory stored in the referenced peripheral device (the device set in the item “Device” in the “Decode” column on the setting screen in FIG. 30), and then reads each image file. Are stored in the image memory 654 via the bus bridge 163 and the arbiter 633. Note that the image file stored in the image memory 654 in this process is not limited to all the image files in the directory, and may be, for example, only a thumbnail image file. Further, when the encryption processing is performed on the image file in the directory stored in the referenced peripheral device or the like, the CPU 131 decrypts the image file by the encryption processing circuit 170 and then stores the image file. It is made to store in 654.
  • the CPU 131 causes the image compression / decompression unit 73 to sequentially output each image file stored in the image memory 654. Further, based on the information added to each image file stored in the image memory 654, the CPU 131 performs an expansion / conversion process and an RGB conversion process appropriately according to the format of each image file.
  • the arbiter 633 is controlled. Further, the CPU 131 controls the arbiter 633 so that the image file output from the image memory 654 is output via the enlargement / reduction circuit 649.
  • the enlargement / reduction circuit 649 selects a multi-value corresponding to the image size based on the image size of the thumbnail image file. Performs processing to generate an image. Specifically, when an SDTV thumbnail image file having a size of 180 ⁇ 120 is input, the enlargement / reduction circuit 649 generates and outputs a multi-image in which 16 images are arranged on one screen.
  • the enlargement / reduction circuit 649 performs a process of generating a multi-image from an input image file when “NO” is selected in the item “thumbnail” in the “Decode” column on the setting screen of FIG. . Specifically, the enlargement / reduction circuit 649 generates the number of thumbnail images set in the item “Mult ⁇ Num. ”In the“ Decode ”column on the setting screen of FIG. 30, and arranges the thumbnail images on one screen. Generate and output multiple images.
  • the multi-image generated in the enlargement / reduction circuit 649 is sequentially output from the FIFO 642 or 643 as F1 or F2 frame by frame based on the frequency of the clock signal. Specifically, when the multi-image generated in the enlargement / reduction circuit 649 is an SDTV image, the multi-image is synchronized with the clock signal of 13.5 MHz via the image memory 654 and the FIFO 642 or 643. It is output to the synthesis circuit 108S. When the multi-image generated by the enlargement / reduction circuit 649 is an HDTV image, the multi-image is sent to the synthesizing circuit 108H at the timing synchronized with the clock signal of 74 MHz via the image memory 654 and the FIFO 642 or 643. Is output.
  • the CPU 131 displays only the multi-images of the type (SDTV or HDTV) set in the item “DecodeDType” in the “Decode” column on the setting screen of FIG. 30 among the multi-images output from the FIFO 642 or 643. It is also possible to perform control for the purpose. Specifically, the CPU 131 sets the setting of the combining circuit 108H and the combining circuit 108S according to the setting (SDTV or HDTV) made in the item “DecodecoType” in the “Decode” column on the setting screen of FIG. Only one multi-image output from the matching one is displayed.
  • the CPU 131 does not display another multi-image output from the other that does not match the setting, and instead of the other multi-image, a predetermined image such as a black screen or a blue screen, 42—As shown in FIG. 43, control may be performed to display an error display.
  • a predetermined image such as a black screen or a blue screen, 42—As shown in FIG. 43, control may be performed to display an error display.
  • FIGS. 42 to 43 will be described.
  • FIG. 42 shows a display example of a screen when HDTV images are stored.
  • FIG. 43 is a diagram showing an error display indicating that there is no recorded image for an SDTV image when only an HDTV image is recorded.
  • the multi-images of FIGS. 42 and 43 are generated by the process of step CFLW6 of FIGS. 41A to 41B described above.
  • step CFLW6 in FIGS. 41A to 41B described above for example, a multi-image is generated and output in a state as shown in FIG.
  • a thick line frame in the multi-image shown in FIG. 44 is a selection frame indicating the currently selected image among the images included in the multi-image.
  • a predetermined key for example, the keyboard 5
  • the selection frame is generated by the graphic circuit 106H and then combined by the combining circuit 108H.
  • the selection frame is generated in the graphic circuit 106S, and then synthesized by the synthesis circuit 108S and output.
  • the selection frame may be generated by the graphic circuit 169.
  • each multi-image has, for example, a next page switching key (for example, a PageUp key included in the keyboard 5 or the like) included in the operation device or a previous page switching key (for example, a PageDown key included in the keyboard 5 or the like).
  • a next page switching key for example, a PageUp key included in the keyboard 5 or the like
  • a previous page switching key for example, a PageDown key included in the keyboard 5 or the like.
  • the CPU 131 generates and outputs a multi-image of the designated page during the wait screen display (step CFLW9 in FIGS. 41A to 41B).
  • the CPU 131 is not limited to the one that generates the multi-images of the designated page one by one, as in the process shown in step CFLW9 of FIGS. 41A to 41B.
  • the CPU 131 may output the one multi image as it is when a page of one already generated multi-image is designated.
  • the selection frame indicating the currently selected image may be displayed as a state in which the upper left image in the multi-image is selected at the time of page switching.
  • the CPU 131 gives an instruction to switch the page even if there is only one page, if it has given an instruction to change the previous page even if there is no previous page, or there is no next page.
  • the following may be performed, that is, the CPU 131 invalidates the key input of the keyboard 5 or the like, A warning such as an error display may be given.
  • the CPU 131 may display the number of pages in a plurality of multi-images in the upper right corner (each of the plurality of multi-images).
  • Step CFLW10 The following is performed, that is, the CPU 131 displays the wait screen by the process of Step CFLW2 in FIGS. 41A-41B, and then displays the directory name and the image file name by the process of Step CFLW3 in FIGS. 41A-41B The control to be performed is performed again.
  • a predetermined key for example, a Backspace key or an ESC key of the keyboard 5 or the like
  • the CPU 131 detects that one image in the multi-image is selected by the selection frame, and the selection of the one image is confirmed by inputting a confirmation key (for example, an ENTER key of the keyboard 5) of the operation device. If so (step CFLW11 in FIGS. 41A-41B), the following is performed. That is, the CPU 131 performs a process of displaying a wait screen (step CFLW12 in FIGS. 41A to 41B) and outputs the original image of the one image as a thumbnail image during the display of the wait screen (FIG. 41A). -Step CFLW13 in Fig. 41B).
  • step CFLW13 in FIGS. 41A to 41B will be described.
  • the CPU 131 converts the image file corresponding to the original image of the selected thumbnail image into the device set in the item “Device” in the “Decode” column on the setting screen in FIG. 30 (in the process of step CFLW6 in FIGS. 41A to 41B).
  • the CPU 131 sends the image file (including the HDTV image file, SDTV image file, external image file 1 and external file 2 of the endoscopic image 301 shown in FIGS. 32 to 39) to the bus bridge 163 and the arbiter 633. And stored in the image memory 654.
  • the CPU 131 stores in advance all the image files recorded in the device set in the item “Device” in the “Decode” column on the setting screen in FIG. 30 (by the processing of step CFLW6 in FIGS. 41A to 41B).
  • a process of extracting an image file corresponding to the original image from each image file stored in the image memory 654 may be performed.
  • the CPU 131 causes the image compression / decompression unit 73 to output the original image file stored in the image memory 654, and based on the information added to the original image file, the decompression / conversion process and the RGB conversion process.
  • the arbiter 633 is controlled so as to be appropriately performed according to the format of the original image file. Further, the CPU 131 controls the arbiter 633 so that the original image file output from the image memory 654 is output without passing through the enlargement / reduction circuit 649.
  • the original image file in a compressed state is output from the arbiter 633 as an original image in a decompressed state.
  • the original image output from the arbiter 633 is input to the FIFO 642 or 643 and then output based on the frequency of the clock signal. Specifically, when the original image is an SDTV image, the FIFO 642 or 643 outputs the original image to the synthesizing circuit 108S at a timing synchronized with a 13.5 MHz clock signal. When the original image is an HDTV image, the FIFO 642 or 643 outputs the original image to the synthesis circuit 108H at a timing synchronized with a 74 MHz clock signal.
  • the CPU 131 selects only original images of the type (SDTV or HDTV) set in the item “DecodecoType” in the “Decode” column on the setting screen in FIG. 30 among the original images output from the FIFO 642 or 643. Control for displaying may be performed. Specifically, the CPU 131 sets the setting of the combining circuit 108H and the combining circuit 108S according to the setting (SDTV or HDTV) made in the item “DecodecoType” in the “Decode” column on the setting screen of FIG. Only one original image output from the matching one may be displayed.
  • the CPU 131 does not display another original image output from the other that does not match the setting, and instead of the other original image, a predetermined image such as a black screen or a blue screen, Alternatively, as shown in FIGS. 42 to 43, control may be performed so that an error display is displayed.
  • the original image is output in a state as shown in FIG. 46, for example, by the processing of step CFLW13 in FIGS. 41A to 41B described above.
  • the CPU 131 turns on a predetermined LED provided on the operation device or displays a message indicating that the original image is displayed ( A process for notifying that an image recorded on a peripheral device or the like is being displayed may be performed instead of the image being observed. Thereby, the user can easily recognize that the image recorded on the peripheral device or the like is displayed (on the display unit such as the monitor).
  • each original image includes, for example, a next page switching key (for example, a PageUp key included in the keyboard 5 or the like) included in the operation device or a previous page switching key (for example, a PageDown key included in the keyboard 5 or the like). Can be switched and displayed for each page (one original image screen).
  • a next page switching key for example, a PageUp key included in the keyboard 5 or the like
  • a previous page switching key for example, a PageDown key included in the keyboard 5 or the like.
  • step CFLW14 in FIGS. 41A-41B the CPU 131 detects the page switching instruction of the original image by the input of either the next page switching key or the previous page switching key. Then (step CFLW14 in FIGS. 41A-41B), the CPU 131 performs a process of displaying a wait screen (step CFLW15 in FIGS. 41A-41B), and at the same time, while the wait screen is being displayed, Are generated and output (step CFLW16 in FIGS. 41A-41B).
  • the CPU 131 is not limited to generating the original image of the designated page one by one as in the process shown in step CFLW9 of FIGS. 41A to 41B. For example, the page of the already generated one original image When designated, the original image may be output as it is.
  • the CPU 131 gives an instruction to switch the page even if there is only one page, if it has given an instruction to change the previous page even if there is no previous page, or there is no next page. The following may be performed when any one of the cases of instructing the next page is detected. In other words, the CPU 131 may invalidate the key input of the keyboard 5 or the like and issue a warning such as an error sound or an error display. Further, the CPU 131 may display the number of pages in a plurality of original images in the upper right corner (each of the plurality of original images).
  • Step CFLW 17 That is, after the CPU displays the wait screen by the process of step CFLW5 in FIGS. 41A-41B, the CPU again performs control to output a multi-image by the process of step CFLW6 in FIGS. 41A-41B.
  • a predetermined key for example, a Backspace key or an ESC key of the keyboard 5 or the like
  • the CPU 131 inputs predetermined keys (for example, an arrow key of the keyboard 5) and a confirmation key (for example, the ENTER key of the keyboard 5) of the operation device in the process of step CFLW4 of FIGS. 41A to 41B described above.
  • predetermined keys for example, an arrow key of the keyboard 5
  • a confirmation key for example, the ENTER key of the keyboard 5
  • the CPU 131 displays a wait screen by the process of step CFLW12 in FIGS. 41A-41B, and performs a process of outputting the original image of the one image file by the process of step CFLW13 in FIGS. 41A-41B.
  • the CPU 131 returns to the previous screen by inputting a predetermined key (for example, a Backspace key or ESC key of the keyboard 5 or the like) of the operation device in a state where the directory name and the file name are not displayed and selected and confirmed.
  • a predetermined key for example, a Backspace key or ESC key of the keyboard 5 or the like
  • a series of processes for displaying a still image recorded on a peripheral device or the like is terminated.
  • the CPU 131 of the main control unit 75 detects whether or not the recording instruction key of the operation device has been input. Then, when the CPU 131 detects an input of the recording instruction key of the operation device (step BBFLW1 in FIG. 47), the CPU 131 performs processing for making the image still and processing further performed on the image made stationary by the processing. Still image processing is performed (step BBFLW2 in FIG. 47).
  • the CPU 131 causes the freeze circuit 96 to generate a freeze image and perform pre-freeze processing as the still image processing of step BBFLW2 in FIG. Thereafter, the CPU 131 controls the subsequent image processing circuit 98 to calculate the average value of IHb in the still image. Then, the CPU 131 controls the graphic circuit 106H to temporarily change the display content of the hemoglobin index 322A according to the calculation result. Then, the CPU 131 controls the graphic circuit 106H to temporarily fix (freeze) the display of the time information 308. Then, the CPU 131 controls the graphic circuit 106H to temporarily delete the cursor 319.
  • the CPU 131 controls the graphic circuit 169 of the extension control units 77A and 77B to temporarily fix (freeze) or delete the image or the like. Then, the CPU 131 controls the synthesis circuits 108H and 108S to perform processing for temporarily deleting the thumbnail image group 326A.
  • both the SDTV endoscope composite image output from the combining circuit 108S and the HDTV endoscope composite image output from the combining circuit 108H are in a stationary state.
  • step BBFLW2 in FIG. 47 each process performed in step BBFLW2 in FIG. 47 is referred to as a still image process.
  • the CPU 131 When a peripheral device capable of supporting both images of display sizes 4: 3 and 16: 9 is set in the item “peripheral device” (step BBFLW3 in FIG. 47), the CPU 131 further displays the peripheral device. Does the following: That is, it detects whether or not the peripheral device is compatible with a recorded image display mode, which is a mode capable of recording an image that substantially matches the still image displayed on the monitor when a recording instruction is issued. Then, the CPU 131 can support both images of display sizes 4: 3 and 16: 9, and a peripheral device corresponding to the recorded image display mode is set in the item “peripheral device”. In that case (step BBFLW5 in FIG. 47), the control and processing shown in FIG.
  • the CPU 131 is capable of supporting both images having a display size of 4: 3 and 16: 9, and a peripheral device that does not support the recorded image display mode is set in the item “peripheral device”. In that case (step BBFLW5 in FIG. 47), the control and processing shown in FIG. The control and processing shown in FIG. 50 or 51 performed after step BBFLW5 in FIG. 47 are not alternative as shown in FIG. 47, and both may be performed.
  • the CPU 131 when a peripheral device that can handle only an image having a display size of 4: 3 is set in the item “peripheral device” (step BBFLW3 in FIG. 47), the CPU 131 further records the peripheral device as a recorded image. It is detected whether the display mode is supported. Then, the CPU 131 can deal with an image having a display size of 4: 3 only, and if the peripheral device corresponding to the recorded image display mode is set in the item “peripheral device” (see FIG. 47, step BBFLW4), the control and processing shown in FIG.
  • the CPU 131 can handle an image having a display size of 4: 3 only, and if a peripheral device that does not support the recorded image display mode is set in the item “peripheral device” (see FIG. 47, step BBFLW4), the control and processing shown in FIG. Note that the control and processing shown in FIG. 48 or 49 performed after step BBFLW4 in FIG. 47 are not alternative as shown in FIG. 47, and both may be performed.
  • the printer 202B1, the VTR 203B1, the filing device 204B1, and the photo shooting device 205B1 in FIG. 16 are devices that can handle an image having only a display size of 4: 3. It is a device (a device capable of recording an image substantially matching a still image displayed on the monitor 201B1 or the monitor 201C1) that supports the recorded image display mode. Therefore, in the “peripheral device” which is one of the child items of the items “Release 1”, “Release 2”, “Release 3” and “Release 4” in the “HDTV” column of the setting screen of FIG. 29, the printer 202B1 of FIG. When any one of the VTR 203B1, the filing device 204B1, and the photography device 205B1 is selected and set, the CPU 131 performs control and processing shown in FIG.
  • the printer 202B2, VTR 203B2, filing device 204B2, photography device 205B2, USB memory 210 and server 212 in FIG. 16 both have display sizes of 4: 3 and 16: 9.
  • a device that is compatible with the recorded image display mode a device that can record an image that substantially matches a still image displayed on the monitor 201B2 or the monitor 201C2. Therefore, in the “peripheral device” that is one of the child items of the items “Release 1”, “Release 2”, “Release 3”, and “Release 4” in the “HDTV” column of the setting screen of FIG. 29, the printer 202B2 of FIG.
  • the CPU 131 performs control and processing shown in FIG.
  • the printer 202C1, the VTR 203C1, the filing device 204C1, the photography device 205C1, the endoscope shape detection device 206C1, and the ultrasonic device 207C1 shown in FIG. 17 have a display size of 4: 3.
  • a device that is compatible with the recorded image display mode (a device that can record an image that substantially matches a still image displayed on the monitor 201C1 or the monitor 201B1). Therefore, in the “peripheral device” which is one of the child items of the items “Release 1”, “Release 2”, “Release 3” and “Release 4” in the “HDTV” column of the setting screen of FIG. 29, the printer 202C1 of FIG.
  • the CPU 131 When any one of the VTR 203C1, the filing device 204C1, the photography device 205C1, the endoscope shape detection device 206C1 and the ultrasonic device 207C1 is selected and set, the CPU 131 performs control and processing shown in FIG.
  • the printer 202C2, VTR 203C2, filing device 204C2, photography device 205C2, endoscope shape detection device 206C2, ultrasonic device 207C2, USB memory 210, and server 212 in FIG. Is a device that can handle both images having a display size of 4: 3 and 16: 9, and that is compatible with the recorded image display mode (the image substantially matches the still image displayed on the monitor 201C2 or the monitor 201B2). Device capable of recording images to be recorded). Therefore, in the “peripheral device” that is one of the child items of the items “Release 1”, “Release 2”, “Release 3”, and “Release 4” in the “HDTV” column of the setting screen of FIG.
  • the printer 202D1, the filing device 204D1, the photo shooting device 205D1, the optical recording device 208D1, and the HID 209D1 shown in FIG. 18 are devices that can handle only an image with a display size of 4: 3. And a device not compatible with the recorded image display mode. Therefore, in the “peripheral device” that is one of the child items of the items “Release 1”, “Release 2”, “Release 3”, and “Release 4” in the “HDTV” column of the setting screen of FIG. 29, the printer 202D1 of FIG. When any one of the filing device 204D1, the photography device 205D1, the optical recording device 208D1, and the HID 209D1 is selected and set, the CPU 131 performs control and processing shown in FIG.
  • the printer 202D2 the filing device 204D2, the photography device 205D2, the optical recording device 208D2, the HID 209D2, the USB memory 210, and the server 212 in FIG.
  • the device is compatible with both 16: 9 images and is not compatible with the recorded image display mode. Therefore, in the “peripheral device” that is one of the child items of the items “Release 1”, “Release 2”, “Release 3”, and “Release 4” in the “HDTV” column of the setting screen of FIG. 29, the printer 202D2 of FIG.
  • the CPU 131 When any one of the filing device 204D2, the photography device 205D2, the optical recording device 208D2, the HID 209D2, the USB memory 210, and the server 212 is selected and set, the CPU 131 performs control and processing shown in FIG. 51 to be described later.
  • the PC card 167 and the memory card 168 shown in FIG. 10 are also devices that can handle both images having a display size of 4: 3 and 16: 9, and devices that do not support the recorded image display mode. is there. Accordingly, in the “peripheral device” which is one of the child items of each of the items “Release 1”, “Release 2”, “Release 3” and “Release 4” in the “HDTV” column of the setting screen of FIG. 29, the PC card 167 and When any one of the memory cards 168 is selected and set, the CPU 131 performs control and processing shown in FIG. 51 described later.
  • the printer 202E1, the filing device 204E1, the photography device 205E1, and the optical recording device 208E1 in FIG. 19 are devices that can handle an image having only a display size of 4: 3. In addition, the device does not support the recorded image display mode. Therefore, in the “peripheral device” which is one of the child items of the items “Release 1”, “Release 2”, “Release 3” and “Release 4” in the “HDTV” column of the setting screen of FIG. 29, the printer 202E1 of FIG. When any one of the filing device 204E1, the photography device 205E1, and the optical recording device 208E1 is selected and set, the CPU 131 performs control and processing shown in FIG.
  • the printer 202E2, the filing device 204E2, the photography device 205E2, the optical recording device 208E2, the USB memory 210, and the server 212 in FIG. 19 have display sizes 4: 3 and 16: 9 is a device that is compatible with both of the nine images and is not compatible with the recorded image display mode. Therefore, in the “peripheral device” that is one of the child items of the items “Release 1”, “Release 2”, “Release 3”, and “Release 4” in the “HDTV” column of the setting screen of FIG. 29, the printer 202E2 of FIG. When any one of the filing device 204E2, the photography device 205E2, the optical recording device 208E2, the USB memory 210, and the server 212 is selected and set, the CPU 131 performs control and processing shown in FIG. 51 to be described later.
  • the CPU 131 controls the synthesis circuit 108H, the freeze circuit 96, and the synchronizations 101H and 101S to generate a recording freeze image with a display size of 4: 3 (hereinafter referred to as a recording freeze image). Further, the CPU 131 controls the graphic circuit 106H to indicate the position of characters and graphic information indicating information related to the image corresponding to the image signal (hereinafter referred to as endoscope related information) as shown in FIG. Change to the position of 3 display size. Then, the CPU 131 outputs the character and graphic information whose position has been changed to the D / A 110H or the image output unit 121 (step BBFLW11 in FIG. 48).
  • the graphic circuit 106H generates and outputs character and graphic information indicating information related to an image corresponding to the image signal masked by the mask processing circuit 611H (hereinafter referred to as endoscope related information).
  • the CPU 131 sets the peripheral device set in “peripheral device” which is one of the child items of each of the items “Release 1”, “Release 2”, “Release 3” and “Release 4” in the “HDTV” column of the setting screen of FIG.
  • a recording instruction signal or a recording instruction command is output to record a freeze image (step BBFLW12 in FIG. 48).
  • the CPU 131 stores the HDTV freeze image and the thumbnail image from the signal line 125a in the image memory 654 and sets the display position of the thumbnail image 326 in the thumbnail group 326A (BBFLW13 in FIG. 48).
  • the CPU 131 stores the SDTV freeze image and the thumbnail image from the signal line 124a in the image memory 654 and sets the display position of the thumbnail image 326 in the thumbnail group 326A (BBFLW14 in FIG. 48). .
  • the CPU 131 detects whether or not the time set in the item “HDTV” in the “Release Time” column on the setting screen of FIG. 29 has elapsed.
  • step BBFLW15 in FIG. 48 the CPU 131 detects that the time set in the item “HDTV” in the “Release Time” column on the setting screen in FIG. 29 has elapsed.
  • step BBFLW16 in FIG. the CPU 131 proceeds to step BBFLW16 in FIG. Continue the process shown.
  • step BBFLW15 in FIG. 48 the “Release Time” field 48 is repeatedly detected whether or not the time set in the item “HDTV” (HDTV release period) has elapsed (step BBFLW15 in FIG. 48).
  • the CPU 131 cancels the still image processing by the processing described below, and generates and outputs an HDTV endoscope composite image by controlling the combining circuit 108H (step BBFLW16 in FIG. 48).
  • the CPU 131 outputs a moving image as the endoscopic image 301 by performing control to interrupt the freeze processing of the freeze circuit 96 and the synchronization 101H as described later. Further, the CPU 131 performs a process of newly outputting, for example, the thumbnail images generated in step BBFLW13 and step BBFLW14 in FIG.
  • the CPU 131 detects that an image or the like has been output from the graphic circuit 169 of the expansion control unit 77A and / or 77B when the recording instruction key is input, the expansion control unit 77A and / or (or) ) A process for controlling the 77B graphic circuit 169 to resume the output of part or all of the image or the like is performed together with the above process. Further, the CPU 131 controls the graphic circuit 106 ⁇ / b> H so that the D.D. 1 is added to the value of F311 (or SCV309 or CVP310) for display.
  • the CPU 131 interrupts generation of the freeze image in the freeze circuit 96 and the synchronization 101H, and performs a process of outputting a moving image in the synthesis circuit 108H in conjunction with the above process.
  • the CPU 131 controls the synchronization circuit 101S and the memory 104S to generate a freeze image, and performs a process for outputting the freeze image to the synthesis circuit 108S in addition to the process. As a result, the CPU 131 continues to output SDTV still images.
  • the graphic circuit 106H is controlled to indicate the position of characters and graphic information indicating information related to an image corresponding to an image signal (hereinafter referred to as endoscope related information) and the position of the graphic information as shown in FIG. Change to the display size position.
  • step BBFLW17 in FIG. 48 When the CPU 131 detects that the period set in the item “SDTV” in the “Release Time” field has elapsed (step BBFLW17 in FIG. 48), the still image processing is canceled by the same processing as in step BBFLW16 in FIG. (Step BBFLW18 in FIG. 48). At the same time, the CPU 131 performs processing for interrupting generation of the freeze image by controlling the synchronization circuit 101S and the memory 104S.
  • FIG. 48 the screen displayed on the monitor or the like is changed by the series of processing shown in FIG. 48 (FIGS. 47 and 48) described above.
  • the CPU 131 stores the HDTV freeze image and the thumbnail image from the signal line 125a in the image memory 654 and sets the display position of the thumbnail image 326 in the thumbnail group 326A (BBFLW41 in FIG. 49).
  • the CPU 131 stores the SDTV freeze image and the thumbnail image based on the signal from the signal line 124a in the image memory 654, and sets the display position of the thumbnail image 326 in the thumbnail group 326A (FIG. 49). BBFLW42).
  • the CPU 131 stores the input image from the signal line 607 in the image memory 654 (BBFLW43 in FIG. 48).
  • the CPU 131 stores the input image from the signal line 607 'in the image memory 654 (BBFLW44 in FIG. 48).
  • Step BBFLW16 and Step BBFLW18 in FIG. 48 Step BBFLW45 in FIG. 49.
  • the CPU 131 outputs a moving image as the endoscopic image 301.
  • step BBFLW46 in FIG. 49 processing for compressing and recording the thumbnail image is performed (step BBFLW46 in FIG. 49).
  • step BBFLW46 in FIG. 49 processing for compressing and recording the thumbnail image is performed.
  • arrangement information coordinate information of components displayed on the screen
  • display size (output size) 4: 3 may be recorded.
  • FIG. 49 the screen displayed on the monitor or the like is changed by the series of processing shown in FIG. 49 (FIGS. 47 and 49).
  • the CPU 131 is set in the “peripheral device” which is one of the child items of each of the items “Release 1”, “Release 2”, “Release 3” and “Release 4” in the “HDTV” column of the setting screen of FIG.
  • a recording instruction signal or a recording instruction command is output to the peripheral device via the signal line 142a or 143a, and an endoscope composite image having a display size of 16: 9 is recorded (step BBFLW61 in FIG. 50).
  • the CPU 131 stores the HDTV freeze image and the thumbnail image from the signal line 125a in the image memory 654 and sets the display position of the thumbnail image 326 in the thumbnail group 326A (BBFLW62 in FIG. 50).
  • the CPU 131 stores the SDTV freeze image and thumbnail image from the signal line 124a in the image memory 654 and sets the display position of the thumbnail image 326 in the thumbnail group 326A (BBFLW63 in FIG. 50). .
  • step BBFLW64 in FIG. 50 When the CPU 131 detects that the time set in the item “HDTV” in the “Release Time” column on the setting screen in FIG. 29 has elapsed (step BBFLW64 in FIG. 50), the processing shown in step BBFLW65 in FIG. Continue to do. If the CPU 131 detects that the time set in the item “HDTV” in the “Release Time” column on the setting screen in FIG. 29 has not elapsed (step BBFLW64 in FIG. 50), the CPU 131 on the setting screen in FIG. In the “Release Time” column of “Release Time”, it is repeatedly detected whether or not the time (HDTV release period) set in the item “HDTV” has elapsed (step BBFLW64 in FIG. 50).
  • Step BBFLW16, Step BBFLW17 and Step BBFLW18 in FIG. 48 described above Step BBFLW65, Step BBFLW66 and Step BBFLW67 in FIG. 50.
  • FIG. 50 the screen displayed on the monitor or the like is changed by the series of processing shown in FIG. 50 (FIGS. 47 and 50).
  • the CPU 131 stores the HDTV freeze image and the thumbnail image based on the signal from the signal line 125a in the image memory 654. At the same time, the CPU 131 sets the display position of the thumbnail image 326 in the thumbnail group 326A (BBFLW81 in FIG. 51).
  • the CPU 131 stores the SDTV freeze image and the thumbnail image from the signal line 124 a in the image memory 654. At the same time, the CPU 131 sets the display position of the thumbnail image 326 in the thumbnail group 326A (BBFLW82 in FIG. 51).
  • the CPU 131 stores the input image from the signal line 607 in the image memory 654 (BBFLW83 in FIG. 51).
  • the CPU 131 stores the input image from the signal line 607 'in the image memory 654 (BBFLW84 in FIG. 51).
  • Step BBFLW45 in FIG. 49 Step BBFLW85 in FIG. 51
  • the CPU 131 compresses the endoscope composite image and the thumbnail image with the display size 16: 9 stored in the image memory 654 by the process substantially similar to the process of step BBFLW46 of FIG. And a process of recording (step BBFLW86 in FIG. 51).
  • step BBFLW86 in FIG. 51 the details of the process of step BBFLW86 in FIG. 51 will be described with reference to the flowcharts in FIGS. 52 and 53, in the setting screen of FIG. 29, the items “Release 2” and “Release 3” in the “SDTV” column and the “HDTV” column are set as the recording instruction keys of the operation device, and the item “thumbnail” ”Is set to“ ON ”, the child item“ peripheral device ”of the items“ Release 2 ”and“ Release 3 ”is set to the output peripheral device (the filing device 204E1, the server 212, the USB memory 210, etc.), and the item
  • the child item “Encode” of “Release2” is set to JPEG (such as a relatively high compression rate format), and the child item “Encode” of the item “Release3” is set to TIFF (such as uncompressed or relatively low compression rate). In the condition that it is set to It shall be made.
  • the CPU 131 performs the operation of the recording instruction key performed in step BBFLW1 in FIG. 47 by a key or a switch to which the “Release 2” release function is assigned, or a key to which the “Release 3” release function is assigned or Detect whether it is due to the switch.
  • step VFLW1 in FIG. 52 Each image stored in the image memory 654 is subjected to processing such as compression / conversion processing and stored again in the image memory 654 (step VFLW2 in FIG. 52). Thereafter, the CPU 131 outputs the recording freeze image stored in the image memory 654 again, generates a thumbnail image of each image by the enlargement / reduction 649, and the JPEG encoding / decoding circuit 647 performs compression / conversion processing of the JPEG format.
  • each image after the compression / conversion processing is stored in the image memory 654 (step VFLW2 in FIG. 52). It is assumed that the CPU 131 causes the YUV-RGB conversion processing circuit 651 to appropriately perform processing according to the contents set on the setting screen of FIG. 29 during the processing of step VFLW2 of FIG.
  • the CPU 131 causes the recording freeze image in JPEG format stored in the image memory 654 to be output to the buffer 166 of the expansion control unit 77A (step VFLW3 in FIG. 52).
  • the CPU 131 (or CPU 151) outputs each thumbnail image to the buffer 166 in addition to the recording freeze image in the JPEG format in the processing of step VFLW3 in FIG.
  • the buffer 166 is, for example, a nonvolatile memory inside the processor 4. 52, a USB (registered trademark) memory (not shown) connected to the controller 164 may be used instead of the buffer 166.
  • the CPU 151 checks the examination information management file and the imaging information for the endoscope composite image having each image stored in the image memory 654 as a constituent image.
  • a management file is created (VFLW3-1).
  • the CPU 151 of the extension control unit 77A detects whether the item “encryption” on the setting screen in FIG. 29 is set to ON or OFF. Then, the CPU 151 detects that the item “encryption” on the setting screen in FIG. 29 is ON (step VFLW4 in FIG. 52). Then, the CPU 131 causes the encryption processing circuit 170 to encrypt the freeze image for recording in the JPEG format, each thumbnail image, the inspection information management file, and the shooting information management file. After that, the CPU 131 outputs the JPEG format recording freeze image and each thumbnail image after the encryption, the inspection information management file, and the shooting information management file to the output destination peripheral device (the filing device 204E1, the server 212, the USB memory 210, etc. ) (Step VFLW5 in FIG. 52). Note that the USB memory 210 may be automatically recorded in the USB memory 210 when connected to the processor 4 regardless of the setting menu of FIGS. 29 and 30.
  • the CPU 151 detects that the item “encryption” on the setting screen in FIG. 29 is OFF (step VFLW4 in FIG. 52). Then, the CPU 131 sends the recording freeze image and each thumbnail image in the JPEG format, the inspection information management file, and the shooting information management file to the output destination peripheral device (such as the filing device 204E1, the server 212, or the USB memory 210). (Step VFLW6 in FIG. 52). Note that these information may be automatically recorded in the USB memory 210 when the USB memory 210 is connected to the processor 4.
  • step VFLW7 in FIG. 52 When the CPU 151 detects that the output of each image to the peripheral device (the filing device 204E1, the server 212, or the USB memory 210) is completed (step VFLW7 in FIG. 52), the output is completed. After each image is cleared from the buffer 166 (step VFLW8 in FIG. 52), the processing is terminated. Each image that has been output may be transferred from the buffer. This will be described with reference to FIG.
  • FIG. 56 shows an example of a screen for managing the contents of the image data stored in the buffer 166.
  • a screen 700 in FIG. 56 is a screen displayed when referring to the contents of the image data stored in the buffer 166.
  • the image folder list 701 on the screen 700 includes an examination date selection field 702 and a patient name selection field 703.
  • the inspection date selection field 702 the inspection date of the image folder stored in the buffer 166 can be selected.
  • the patient name selection field 703 an image folder of a specific patient can be selected from the image folders of the examination date selected in the examination date selection field 702.
  • folder information can be input.
  • the “End” button 705 is pressed, the screen 700 is closed. If the “USB memory (P)” button 706 is pressed, a transition is made to a screen for managing the contents of the image data stored in the USB memory 210.
  • an image folder of a specific patient can be selected from the examination date list 702 and the patient name selection field 703. If an “edit (E)” button 708 is pressed, the image folder can be edited.
  • the display indicates that the image folder (or image data) corresponding to “Kanjamei 030” and “Kanjamei 019” has already been transferred from the buffer 166 to the output destination peripheral device (such as the filing device 204E1, the server 212 or the USB memory 210). Is shown. In this case, the image folder (or image data) may not be retransferred, and the image data may be sequentially deleted by the ring buffer. Further, when the free capacity of the buffer 166 becomes a predetermined amount or less, the processing of VFLW3 may be passed without storing in the buffer 166.
  • step VFLW1 and VFLW9 in FIG. 52 When the CPU 131 detects that the operation of the recording instruction key performed in step BBFLW1 in FIG. 47 is performed by a key or switch to which the release function “Release3” is assigned (steps VFLW1 and VFLW9 in FIG. 52). ) Each image stored in the image memory 654 is subjected to processing such as compression / conversion processing and stored again in the image memory 654 (step VFLW10 in FIG. 52). Thereafter, the CPU 131 causes the recording freeze image stored in the image memory 654 to be output again. Then, the CPU 131 generates a thumbnail image of each image at the enlargement / reduction 649.
  • the CPU 131 causes the TIFF / BMP conversion circuit 647 to perform compression / conversion processing in the TIFF format. Thereafter, the CPU 131 stores each image after the compression / conversion processing in the image memory 654 (step VFLW10 in FIG. 52). It is assumed that the CPU 131 causes the YUV-RGB conversion processing circuit 651 to appropriately perform processing according to the contents set on the setting screen of FIG. 29 during the processing of step VFLW9 of FIG.
  • the CPU 131 causes the recording freeze image in the TIFF format stored in the image memory 654 to be output to the buffer 166 of the expansion control unit 77A (step VFLW11 in FIG. 52), and then ends the process.
  • the CPU 131 When the CPU 131 outputs each image to the buffer 166 in step VFLW3 in FIG. 52 and step VFLW11 in FIG. 52, the CPU 131 outputs at least one of the pieces of information listed from the items a) to z) described above. Alternatively, processing for outputting the image together with the image may be performed. Also, details of processing when each image stored in the buffer 166 is output to an output destination peripheral device (such as the filing device 204E1, the server 212, or the USB memory 210) after the processing of step VFLW11 in FIG. Will be described later.
  • an output destination peripheral device such as the filing device 204E1, the server 212, or the USB memory 2
  • each image stored in the buffer 166 in the process of step VFLW11 of FIG. 52 described above is output to a peripheral device (filing device 204E1, server 212, for example) when a key having an examination end notification function is input.
  • a peripheral device filing device 204E1, server 212, for example
  • the CPU 151 of the extension control unit 77A reads each image stored in the buffer 166 when detecting the input of the key having the inspection end notification function. After that, the CPU 151 performs processing for generating and outputting a multi-image for displaying each image as a list in the enlargement / reduction circuit 649 of the image compression / decompression unit 73 (step VVFLW1 in FIG. 53).
  • step VVFLW1 in FIG. 53 A specific example of the processing in step VVFLW1 in FIG. 53 is as described below.
  • the CPU 151 of the expansion control unit 77A reads each image stored in the buffer 166, and stores each image in the image memory 654 via the bus bridge 163 and the arbiter 633 of the image compression / decompression unit 73.
  • the CPU 151 controls the arbiter 633 based on information added to each image stored in the image memory 654, for example. Thereby, the CPU 151 causes the respective images to be appropriately subjected to enlargement / reduction processing by the enlargement / reduction circuit 649 and RGB conversion processing by the YUV-RGB conversion circuit 651 in accordance with the format of each image.
  • the CPU 151 controls the arbiter 633 so that each image output from the arbiter 633 is output via the enlargement / reduction circuit 649.
  • the enlargement / reduction circuit 649 sets, for example, the number of thumbnail images to be displayed in a list on one screen according to the size of each image output from the arbiter 633. At the same time, the enlargement / reduction circuit 649 generates and outputs a multi-image according to the number of the thumbnail images (for example, a list of 16 thumbnail images is displayed in one screen).
  • the multi-image generated by the enlargement / reduction circuit 649 is output (to a display unit such as a monitor) via the FIFO 642 or 643 and the synthesis circuit 108H or 108S.
  • the observation information group 300 and the image-related information group 301A may be displayed.
  • the bold frame in the multi-image shown in FIG. 55 is a selection frame indicating the currently selected image among the images included in the multi-image.
  • the selection frame can be moved by inputting a predetermined key (for example, an arrow key included in the keyboard 5 or the like) of the operation device.
  • the selection frame is generated by the graphic circuit 106H and then combined by the combining circuit 108H.
  • the selection frame is generated by the graphic circuit 106S, and then synthesized by the synthesis circuit 108S and output.
  • the selection frame may be generated by the graphic circuit 169.
  • the CPU 151 detects that one or a plurality of thumbnail images are selected in the multi-image of FIG. 55 and confirmed by inputting a confirmation key (for example, the ENTER key of the keyboard 5 or the like) (step VVFLW2 of FIG. 53).
  • a confirmation key for example, the ENTER key of the keyboard 5 or the like
  • the CPU 151 checks the examination information management file and the imaging information for the endoscope composite image having each image stored in the image memory 654 as a constituent image.
  • a management file is created (VVFLF2-1). Furthermore, it is detected whether the item “encryption” on the setting screen in FIG. 29 is set to ON or OFF.
  • step VVFLF3 in FIG. 53 When the CPU 151 detects that the item “encryption” in the setting screen of FIG. 29 is ON (step VVFLF3 in FIG. 53), the freeze image for recording in the TIFF format, each thumbnail image, the inspection information management file, Encryption is performed by the encryption processing circuit 170 on the photographing information management file. After that, the CPU 151 stores the encrypted freeze image for recording in the TIFF format and each thumbnail image, the inspection information management file and the photographing information management file, and outputs the peripheral device (the filing device 204E1, the server 212, or the USB memory 210). Etc.) (step VVFLW4 in FIG. 53). Note that these information may be automatically recorded in the USB memory 210 when the USB memory 210 is connected to the processor 4.
  • step VVFLW3 of FIG. 53 when the CPU 151 detects that the item “encryption” in the setting screen of FIG. 29 is OFF (step VVFLW3 of FIG. 53), the freeze image for recording in JPEG format, each thumbnail image, the inspection information management file, The photographing information management file is output to an output destination peripheral device (such as the filing device 204E1, the server 212, or the USB memory 210) (step VVFLW5 in FIG. 53). Note that these information may be automatically recorded in the USB memory 210 when the USB memory 210 is connected to the processor 4.
  • an output destination peripheral device such as the filing device 204E1, the server 212, or the USB memory 210
  • each image that has been output is detected. Is cleared from the buffer 166 (step VVFLW7 in FIG. 53), and then the process ends. As described with reference to FIG. 56, each image that has been output may be transferred from the buffer. In this case, the image data may be sequentially deleted by the ring buffer without retransferring the image data.
  • the CPU 151 does not perform the processing of step VVFLW1 and step VVFLF2 in FIG. E) may be output.
  • the CPU 151 detects whether or not an uncleared image is stored in the buffer 166 when the power of the processor 4 is switched from OFF to ON.
  • the CPU 151 detects that an uncleared image is not stored in the buffer 166 when the power of the processor 4 is switched from OFF to ON (step VVVFLW1 in FIG. 54)
  • the CPU 151 ends the processing.
  • Step VVVFLW1 in FIG. 54 the CPU 151 detects that an uncleared image is stored in the buffer 166 (Step VVVFLW1 in FIG. 54).
  • the CPU 151 checks the examination information management file and the imaging information for the endoscope composite image having each image stored in the image memory 654 as a constituent image.
  • a management file is created (VVVFLW1-1). Furthermore, it is detected whether the item “encryption” on the setting screen in FIG. 29 is set to ON or OFF.
  • step VVVFLF2 in FIG. 54 When the CPU 151 detects that the item “encryption” on the setting screen in FIG. 29 is ON (step VVVFLF2 in FIG. 54), the freeze image for recording in the TIFF format, each thumbnail image, the inspection information management file, Encryption is performed by the encryption processing circuit 170 on the photographing information management file. After that, the CPU 151 stores the encrypted freeze image for recording in the TIFF format and each thumbnail image, the inspection information management file and the photographing information management file, and outputs the peripheral device (the filing device 204E1, the server 212, or the USB memory 210). Etc.) (step VVVFLW3 in FIG. 54). Note that these information may be automatically recorded in the USB memory 210 when the USB memory 210 is connected to the processor 4.
  • step VVVFLF2 in FIG. 54 When the CPU 151 detects that the item “encryption” on the setting screen in FIG. 29 is OFF (step VVVFLF2 in FIG. 54), the freeze image for recording in JPEG format, each thumbnail image, the inspection information management file, The imaging information management file is output to the output destination peripheral device (such as the filing device 204E1, the server 212, or the USB memory 210) (step VVVFLW4 in FIG. 54). Note that these information may be automatically recorded in the USB memory 210 when the USB memory 210 is connected to the processor 4.
  • the output destination peripheral device such as the filing device 204E1, the server 212, or the USB memory 210
  • the CPU 151 clears the output-completed images from the buffer 166 (step VVVFLW5 in FIG. 54), and ends the processing.
  • the CPU 151 generates a multi-image for indicating a list of images that have not been cleared from the buffer 166, for example, by the same processing as the processing in step VVFLW1 in FIG. 53 after the processing in step VVVFLW1 in FIG. It may be a thing to perform.
  • step VVVFLW1 described in FIG. 56 may be performed for VVVFLW1-1, VVVFLW2, VVVFLW3, and VVVFLW4 for each image that has not been output, and the process of step VVVFLW5 is also performed.
  • each image that has been output may be transferred from the buffer.
  • the image data may be sequentially deleted by the ring buffer without retransferring the image data.
  • the CPU 131 performs the processing of step BBFLW18 in FIG. 48 or step BBFLW67 in FIG. Similar compression processing and recording processing may be further performed.
  • an endoscopic image 301, external images 330 and 331 an image 330 of the endoscope shape detecting device and an ultrasonic device different from those shown in FIGS. 42 to 43, 44 to 46, and 52 to 55.
  • the reproduction of the image 331) will be described.
  • the “USB memory (P)” button 706 is pressed on the screen 700 in FIG. 56, a screen 710 for managing the contents of the image data stored in the USB memory 210 is displayed as shown in FIG.
  • the “internal (I)” button 711 on the screen 710 in FIG. 57 is pressed, the screen 700 returns to the screen 700 in FIG.
  • an image folder list 711 (examination date selection field 712, patient name selection field) that is a component of the screen 710 in FIG. 713), an input field 714, an “End (Menu)” button 715, a “USB memory (P)” button 716, a “Select (S)” button 717, and an “Edit (E)” button 718, respectively, in the screen of FIG.
  • image folder list 701 (examination date selection field 702, patient name selection field 703), input field 704, "End (Menu)” button 705, "USB memory (P)” button 706, "Select ( S) ”button 707 and“ Edit (E) ”button 708 are the same, and the description thereof is omitted.
  • a target examination date is selected from the examination date selection field 712
  • a target patient name folder is selected from the patient name selection field 713
  • a “select (S)” button 717 is pressed. Then, a thumbnail image group corresponding to the image group included in the selected image folder is displayed as a multi-image 720.
  • n thumbnail images (n ⁇ 1) are selected from the thumbnail image list 720 and the “annotate (A)” button 722 is pressed
  • the screen is divided into n and corresponds to the selected thumbnail image.
  • N images to be reproduced are reproduced.
  • one thumbnail image is selected from the multi-image 720 and the “annotate (A)” button 722 is pressed.
  • two thumbnail images are selected from the multi-image 720 and the “annotate (A)” button 722 is pressed.
  • four thumbnail images are selected from the thumbnail image list 720 and the “annotate (A)” button 722 is pressed.
  • the image data of the folder having the directory structure shown in FIG. 32 is output from the processor 4 to the signal line 162 via the controller 161 and the HUB 162, sent to the server 212 via the HIB 211, and stored in the server 212. It can be stored in a capacity storage device. Then, the folder data stored in the mass storage device in the server 212 can be accessed using the processor 4 or the PC terminal 213 via the HUB 211, and the display device of the processor 4 or the PC terminal 213 can be accessed internally.
  • the endoscope composite image 300-1 can be displayed.
  • the display mode of the endoscope composite image 300-1 displayed on the display device of the processor 4 or the PC terminal 213 can be changed, for example, by changing the size of the component image as shown in FIG. .
  • the layout change of the endoscope composite image on the PC terminal 213 will be described, but the layout change of the endoscope composite image on the processor 4 may be changed.
  • the upper image in FIG. 58 is an endoscope composite image 300-1 displayed on the display device of the PC terminal 213, and an examination information management file and an imaging information management file for the endoscope composite image 300-1 are stored. It is a file shown on the left side of FIG. In the PC terminal 213, the layout of the endoscope composite image 300-1 can be changed.
  • the external image 1 in the upper left is deleted from the endoscope composite image 300-1, the horizontal width of the endoscope image 300 is narrowed, and the size of the external image 2 in the lower left is reduced, so that the lower side of FIG. It can also be changed like an endoscope composite image 300-1 ′.
  • the contents of the examination information management file and the imaging information management file stored in the large-capacity storage device in the server 212 are also updated as shown on the right side of FIG. The portion changed from the file on the left side of 59 is underlined).
  • the endoscope composite image 300-1 displayed on the PC terminal 213 by accessing the server 212 can be corrected on the PC terminal 213 and stored on the PC terminal 213 or the server 213.
  • the data in the examination information management file and the imaging information management file are automatically rewritten as shown on the right side of FIG. 59, so that an image file optimal for the user can be generated.
  • the user can reproduce an optimal image.
  • an endoscopic shape detection device image 330 and an ultrasonic device image 331, which are constituent images, are combined into an endoscopic composite image 300-. 1 (FIG. 60 (2)), the size is reduced (FIG. 60 (3)), the PoutP display is displayed (FIG. 60 (4)), and the main screen is switched (FIG. 60 (5)). can do.
  • the endoscope image 301 is used as the main screen to detect the endoscope shape.
  • the apparatus image 330 and the ultrasonic apparatus image 331 are each displayed in a PinP format as a sub-screen (FIG. 60 (1)).
  • 60 (2) shows a state where the PC terminal 213 is operated from the state of FIG. 60 (1) to move the image 330 of the endoscope shape detection device and the image 331 of the ultrasonic device.
  • 60 (3) shows a state in which the PC terminal 213 is operated from the state of FIG. 60 (1) to reduce the size of the image 330 of the endoscope shape detection device and the image 331 of the ultrasonic device.
  • FIG. 60 (4) shows a state where the PC terminal 213 is operated from the state of FIG. 60 (1) to display the image 330 of the endoscope shape detection device and the endoscope image 301 in the PoutP format.
  • FIG. 60 (5) shows a state where the main screen is switched to the image 331 of the ultrasonic apparatus and the sub-screen is switched to the endoscopic image 301 from the state of FIG. 60 (1).
  • the arrangement information and size information of the image stored in the PC terminal 213 or the server 212 can be transmitted to the processor 4. Thereby, it is possible to easily reproduce the same information as the PC terminal 213 on the processor 4 side.
  • the output of the reset circuit 140 is input to the image processing unit 72.
  • the images (for example, on the screens of the monitors 201A, 201B1, 201B2, 201C1, and 201C2) obtained by the CPU 131 controlling the synthesis 108H and 108S are shown in FIG. ),
  • the menu screen generated by the graphic circuits 106H and 106S, or the graphic circuits 106H and 106S, A5, A6, F1, F2, A3, A4, A3 ′ as shown in FIG. , A4 ′ is displayed as a multi-image.
  • the watchdog timer is activated and the reset of the reset circuit 140 is turned ON.
  • the synthesis circuit 108H / 108S ensures that only the endoscopic image 301 from the synchronization circuit 101H / 101S is output as shown in FIG. 61 (C). Control.
  • the endoscope image 301 is displayed so that the user does not make an erroneous operation or make a wrong diagnosis.
  • each block in the image processing unit 72 one that is initialized and not initialized when the reset of the reset circuit 140 is turned on is prepared.
  • the CPU 131 performs an image input / output processing on a setting value such that the output of the image input / output processing unit 121 becomes an HDMI (High-Definition Multimedia Interface) output
  • HDMI High-Definition Multimedia Interface
  • the setting value (HDMI) is maintained as it is so that the setting value of the output of the image input / output processing unit 121 does not become an initial value that is not HDMI even if the reset of the reset circuit 140 is turned ON. It may be.
  • FIGS. 29 and 30 An example of the setting contents of the menu screen in the processor 4 is shown in FIGS. 29 and 30, but the layout of the screen is not limited to FIGS. 29 and 30, and for example, as shown in FIGS. 62 and 63, a tab format may be used. Good.
  • the tab “observation setting (1)” 801 is selected.
  • the monitor can be set.
  • the settings of the monitors 201A, 201B1, and 201C1 can be performed from the menu of the processor 4.
  • the information set in the “monitor setting” 802 is stored in the backup RAM 137 or 155, and the CPU 131 of the processor 4 reads the set information from the backup RAM 137 or 155 when the power of the processor 4 is turned on or when the setting is changed. For example, it may be transmitted to the monitors 201A, 201B1, 201B2, 201C1, and 201C2 via 142a and 143a.
  • FIG. 63 tabs of “CV video output”, “light control / NR”, “release time SD”, “date / time / comment”, “CV operation / examination end”, “still image storage”, and “printer” are provided. It has been.
  • the setting field “still image storage setting” includes setting items of “storage format”, “storage destination”, “USB memory simultaneous storage”, and “Exif information recording”.
  • the setting item “save format” it is possible to set a change in the format of the still image to be saved (for example, JPEG (including compression rate), TIFF, RAW, BMP, etc.).
  • the item “save format” corresponds to a child item “Encode” of Releases 1 to 4 in FIG.
  • the setting item “Save to” it is possible to set the device for saving still images.
  • devices such as the filing devices and optical recording devices, the PC card 167, the memory card 168, the USB memory 210, and the server 212 shown in FIG. 15 to FIG. 19 can be set as storage destinations.
  • the item “save destination” corresponds to a child item “peripheral device” of Releases 1 to 4 in FIG.
  • USB memory simultaneous storage When the setting item “USB memory simultaneous storage” is set to ON, image data can be stored in the USB memory 210 at the same time as the image data stored in the device set in the item “storage destination”.
  • the setting column “USB memory saved image” includes setting items for “endoscopic image” and “PIP / POP”.
  • the setting column “server stored image” includes setting items for “endoscopic image” and “PIP / POP”.
  • the observation unit 5-2 of the keyboard 5 is provided with an item “PIP / POP” unit 5-21 for controlling PinP / PoutP.
  • the “PIP / POP” section 5-21 is provided with an “ON” key, a “display format” key, and an “input switch” key.
  • the ON / OFF of the PinP / PoutP display can be switched by turning on / off the “ON” key.
  • the “ON” key is turned on and an external video signal is not input to the input terminal to be displayed, a message “No Input” is displayed and a black screen is output for PIP display. .
  • Both (1) ⁇ (2) ⁇ (3) ⁇ (1)... Can be switched as an external video (terminal) to be displayed.
  • the display mode (display mode) can be switched in the order shown in FIGS. 64 and 65 in the case of PinP, for example, and in the case of PoutP, FIG. 66 and FIG. Switching in the order shown in FIG.
  • the main screen is switched to the image 330 of the endoscope shape detection device as shown in FIG. 64 (1) -2.
  • the “display format” key is pressed in the state of FIG. 64 (1) -2, only the image 330 of the endoscope shape detection device is displayed as the main screen as shown in FIG. 64 (1) -3.
  • the “display format” key is pressed in the state of FIG. 64 (1) -3, the state returns to the state of FIG. 64 (1) -1.
  • the main screen is switched to the image 331 of the ultrasonic apparatus as shown in FIG. 65 (3) -2, and the endoscope image 301 is displayed at the lower left. Displayed on the screen.
  • the “display format” key is pressed in the state of FIG. 65 (3) -2, as shown in FIG. 65 (3) -3, the main screen is switched to the image 330 of the endoscope shape detection device, and the ultrasound device The image 331 is displayed as a child screen on the upper left.
  • the “display format” key is pressed in the state of FIG. 65 (3) -3, only the image 331 of the ultrasonic apparatus is displayed as the main screen as shown in FIG. 65 (3) -4.
  • the endoscopic image 301 when the endoscopic image 301 is not displayed (that is, when only the image 330 of the endoscope shape detection device is displayed, only when the image 331 of the ultrasonic device is displayed, or In the case where the image 330 of the endoscope shape detection device and the image 331 of the ultrasonic device are displayed) or the endoscope image 301 is not displayed as the main screen, for example, as shown in FIGS.
  • the character information may be deleted when the main screen is switched. Further, not only the character information but also the color bar and the like may be deleted when the main screen is switched, similarly to the character information.
  • the PinP / PoutP display may be turned off.
  • the selection information (1) / (2) / (3) selected by the “input switching” key is stored in the backup RAM 137 or 155, and the processor is displayed when the PinP / PoutP display is turned on after the power is turned on again. 4 may be read out from the backup RAM 137 or 155 and the previously selected image may be displayed.
  • the state switched with the “display format” key is also stored in the backup RAM 137 or 155, and when the PinP / PoutP display is turned on after the power is turned on again, the CPU 131 of the processor 4 reads from the backup RAM 137 or 155, and It may be displayed in a state.
  • the processing of the “PIP / POP” unit 5-21 is performed in the processor 4, but the monitors 201A, 201B1, 201B2, 201C1, and 201C2 have the same processing as the “PIP / POP” unit 5-21. There may be a processing function. In this case, the processor 4 performs only the remote control of the operation information of the observation unit 5-2 of the keyboard 5 by, for example, 142a and 143a, and the PinP / PoutP processing is performed by the monitors 201A, 201B1, 201B2, 201C1, and 201C2. You may make it do.
  • PoutP display is possible only for HDTV images. If the PoutP display is turned on in the SDTV image, the display range is narrow, and as shown in FIG. 68, an error warning is given that the PoutP display cannot be performed.
  • each image constituting the endoscope composite image generated by the processor 4 is stored in the server 212.
  • the image layout can be changed on the processor 4 or the PC terminal 213. This will be described in detail below.
  • the processor 4 includes each image (for example, an endoscope image 301, an endoscope shape detection device image 330, an ultrasound device image 331) that constitutes the endoscope composite image 300-1. ),
  • An observation information group 300, and an image data group including layout information such as coordinates of each component image, are converted into step VFLW5 and step VFLW6 in FIG. 52, step VVFLW4 and step VVFLW5 in FIG. 53, and step VVVFLW3 and step in FIG. Output based on the processing of VVVFLW4.
  • the composite image data group output from the processor 4 is sent to the server 212.
  • the server 212 receives the composite image data group, the server 212 stores the composite image data group in a storage device inside the server 212.
  • the processor 4 when at least one component image constituting the playback image is specified in the processor 4, information for identifying the image specified for playback display (for example, an image file name) and information related to the playback image (For example, the examination information management file in FIG. 34, the data items “display state of display character information” and “saved image information” in FIG. 35), and the image layout information of the reproduced image (for example, the data item “image in FIG. Replay image designation information (for example, a shooting information management file) can be set.
  • the processor 4 transmits the set reproduction image designation information to the server 212.
  • the server 212 receives the reproduction image designation information transmitted from the processor 4. Then, the server 212 forms a reproduction image from the composite image data group stored in the storage device inside the server 212 based on the reproduction image designation information. Thereafter, the server 212 outputs the formed reproduction image.
  • the processor 4 When the processor 4 receives the reproduction image output from the server 212, the processor 4 reproduces the received image.
  • the processor 4 configures each image constituting the endoscope composite image 300-1 (for example, the endoscope image 301, the endoscope shape detection device image 330, and the ultrasound device image 331). 52, step VFLW5 and step VFLW6 in FIG. 52, step VVFLW4 and step VVFLW5 in FIG. 53, step VVVFLW3 and step VVVFLW4 in FIG. Output based on the process.
  • the composite image data group output from the processor 4 is sent to the server 212.
  • the server 212 receives the composite image data group, the server 212 stores the composite image data group in a storage device inside the server 212.
  • the PC terminal 213 accesses the composite image data group stored in the storage device inside the server 212 and displays the endoscope composite image 300-1 on the PC terminal 213. On the PC terminal 213, the layout of each image constituting the endoscope composite image 300-1 is changed. As a result, as shown in FIG. 59, the PC terminal 213 displays information (for example, an image file name) for identifying an image designated for reproduction and display, and information related to the reproduced image (for example, the inspection in FIG. 34). 35, an information management file, data items "display state of display character information" and "stored image information” in FIG. 35, and image layout information of the reproduced image (for example, data item "image display state” in FIG. 35). Playback image designation information (for example, a shooting information management file) can be set. The PC terminal 213 transmits the set reproduction image designation information to the server 212.
  • information for example, an image file name
  • the server 212 receives the reproduction image designation information transmitted from the PC terminal 213. Then, the server 212 forms a reproduction image from the composite image data group stored in the storage device inside the server 212 based on the reproduction image designation information. Thereafter, the server 212 outputs the formed reproduction image.
  • the PC terminal 213 When the PC terminal 213 receives the reproduction image output from the server 212, the PC terminal 213 reproduces the received image.
  • an image recording / reproducing system for recording / reproducing a composite image (for example, the endoscope composite image 300-1) of images input from a plurality of input sources includes a composite image data group output unit, a composite image, and the like.
  • Data group recording means, reproduction image designation information setting means, reproduction image forming means, reproduction image output means, and reproduction means are provided.
  • the composite image data group output means relates to the composition image (for example, the endoscope image 301, the endoscope shape detection device image 330, the ultrasonic device image 331) and the composite image constituting the composite image.
  • Information for example, observation information group 300
  • image layout information of the composite image for example, coordinate information of endoscope image 301, endoscope shape detection device image 330, ultrasound device image 331).
  • a composite image data group is output.
  • the composite image data group output means is the processor 4, more specifically, the step VFLW5 and step VFLW6 of FIG. 52 performed by the CPU 151, the step VVFLW4 and step VVFLW5 of FIG. This corresponds to the processing of step VVVFLW3 and step VVVFLW4.
  • the composite image data group recording means records the output composite image data group.
  • the composite image data group recording means corresponds to the server 212 in the present embodiment, for example.
  • the reproduction image designation information setting means is information for designating at least one or more component images constituting the reproduction image (for example, an image file name for identifying the designated image) and information related to the reproduction image (for example, FIG. 34 examination information management file, data items “display character information display state” and “stored image information” in FIG. 35), and image layout information of the reproduced image (for example, data item “image display state” in FIG. 35).
  • Is set for reproduction image designation information for example, a shooting information management file.
  • the reproduction image designation information setting means corresponds to, for example, the processor 4 or the PC terminal 213 in the present embodiment.
  • the reproduction image forming means forms a reproduction image from the recorded composite image data group based on the set reproduction image designation information.
  • the reproduction image forming unit corresponds to the server 212 in the present embodiment, for example.
  • the reproduction image output means outputs the formed reproduction image.
  • the reproduced image output means corresponds to the server 212 in the present embodiment, for example.
  • the playback means receives and plays back the output playback image.
  • the playback means corresponds to the processor 4 or the PC terminal 213 in this embodiment.
  • each element constituting the endoscope composite image can be individually recorded, and an image in which each element is reconfigured into a desired layout can be reproduced, and such layout change can be performed. This is possible not only in the processor but also in devices other than the processor.
  • the image recording / reproducing system is connected to an external device for inputting an external image, and is connected to an endoscope system (for example, the processor 4) connected to the endoscope, and an image recording device (for example, a server). 212).
  • the endoscope system (for example, the processor 4) includes the composite image data group output means, the reproduction image designation information setting means, the means for transmitting the reproduction image designation information, the reproduction means, Is provided.
  • the image recording apparatus (for example, the server 212) includes the composite image data group recording unit, the unit that receives the reproduction image designation information, the reproduction image forming unit, and the reproduction image output unit. .
  • the layout of the endoscope composite image generated by the processor 4 can be changed on the server side.
  • the image recording / reproducing system is connected to an external device for inputting an external image, and is connected to an endoscope system (for example, the processor 4) connected to the endoscope, and an image recording device (for example, a server). 212) and an image reproduction device (for example, a PC terminal 213).
  • an endoscope system for example, the processor 4
  • an image recording device for example, a server
  • an image reproduction device for example, a PC terminal 213
  • the endoscope system (for example, the processor 4) includes the composite image data group output unit.
  • the image recording apparatus (for example, the server 212) includes the composite image data group recording unit, a unit that receives the reproduction image designation information, the reproduction image forming unit, and the reproduction image output unit.
  • the image reproduction apparatus (for example, the PC terminal 213) includes the reproduction image designation information setting unit, a unit that transmits the reproduction image designation information, and the reproduction unit.
  • the layout of the endoscope composite image generated by the processor 4 and stored in the server 213 can be changed on the PC terminal 213 side.
  • the information related to the composite image and the information related to the reproduced image include at least one of a test management number, a test site, a test date, a patient ID, a patient name, a patient sex, and a patient age.
  • the image layout information of the composite image and the image layout information of the reproduced image include at least one of an image type, an image width, and an image height.
  • the image layout information of the reproduced image further includes at least one of information for determining whether or not to display the image for each image and a display disclosure position of the image.
  • each component image constituting the composite image included in the composite image data group and information related to the composite image are independent from each other.
  • the processor 4 of the endoscope system 1 is a case where an image having a display size of 16: 9 is displayed on a monitor or the like and does not correspond to the display size. Even when an image is recorded, an image suitable for recording can be output. Thereby, the processor 4 of the endoscope system 1 can reduce the burden on the user when recording an endoscopic image.
  • the processor 4 of the endoscope system 1 includes a peripheral device that is an image recording target when a key (or switch) having a release function is input on the setting screen of FIG.
  • the format used when the image is compressed can be set for each key (or switch) to which the release function is assigned. Therefore, the processor 4 of the endoscope system 1 includes, as a key or switch having a release function, for example, as shown in FIG. 52, a key or switch for recording an image of a high compression rate format, By recording images while using different keys or switches for recording images in a low-compression format, the images can be recorded without being interrupted even while the user is observing.
  • the format and compression rate can be selected easily and in a short time.
  • the processor 4 of the endoscope system 1 can record an image in real time and continuously (to a peripheral device or the like) when a format with a high compression rate is selected.
  • the processor 4 of the endoscope system 1 stores the image in the low compression rate format in the buffer 166, for example, as shown in FIG. It has a function to output only selected images. Therefore, the processor 4 of the endoscope system 1 can reduce a transmission load when an image with a low compression rate format is transmitted over the network.
  • the processor 4 of the endoscope system 1 can automatically detect that the expansion control units 77A and 77B configured as expansion boards are connected, and based on the detection result, An image or information regarding the function of the connected expansion board can be displayed immediately after the expansion control units 77A and 77B are connected. As a result, the processor 4 of the endoscope system 1 can reduce the time spent for observation by the user as compared with the conventional case.
  • the processor 4 of the endoscope system 1 can perform encryption processing on the recorded image, for example, in an apparatus that does not have a descrambling mechanism, It is possible to disable the display. As a result, the user can reliably perform security measures for patient information and protect personal information.

Abstract

 表示装置に表示される内視鏡合成画像のレイアウト変更を可能にすると共に、そのようなレイアウト変更をプロセッサだけでなく、プロセッサ以外の装置においても可能にする画像記録再生システムを提供する。複数の入力源から入力される画像の合成画像を記録再生する画像記録再生システムは、合成画像を構成する構成画像と、合成画像に関連する情報と、合成画像の画像レイアウト情報を備えた合成画像データ群を出力し、出力された合成画像データ群を記録し、再生画像を構成する構成画像を指定する情報と、再生画像に関連する情報と、再生画像の画像レイアウト情報とを備えた再生画像指定情報を設定し、設定された再生画像指定情報に基づき、記録された合成画像データ群から再生画像を形成し、形成された再生画像を出力し、出力された再生画像を受信し、再生することにより、上記課題の解決を図る。

Description

画像記録再生システム
 本発明は、画像記録再生システムに関し、特に、取得した医療画像に対しての画像圧縮方法を選択可能な画像記録再生システムに関する。
 内視鏡及び医療用画像処理装置等を有する内視鏡システムは、医療分野等において従来広く用いられている。特に、医療分野における内視鏡システムは、術者等が生体内の観察等を行うという用途において主に用いられている。そして、このような内視鏡システムに用いられる機器として、例えば、特許文献1の医療用画像処理装置が提案されている。
 特許文献1の医療用画像処理装置は、医療画像に対し、第1の画像圧縮方法または第2の画像圧縮方法のうちのいずれかを用いて圧縮処理を行う。第1の記録指示部により指示された第1の指示を検出した場合に、その医療用画像処理装置は、第1の画像圧縮方法により圧縮された医療画像を画像記録部に対して出力させる。それとともに、医療用画像処理装置は、第2の記録支持部により指示された第2の指示を検出した場合に、第2の画像圧縮方法により圧縮された前記医療画像を画像記録部に対して出力している。これにより、ユーザが観察を行っている最中においても、該観察を寸断することなく内視鏡画像の記録を行うことを可能としている。
特開2008-86667号公報 特開2001-358927号公報 特開2009-207522号公報
 医療用画像処理装置を用いて、内視鏡で撮像した画像、内視鏡形状検出装置の画像、超音波装置により得られた画像等の複数の画像や文字情報等を表示装置に表示させる場合、それらの画像や文字情報を合成した合成画像を表示及び記録していた。
 しかしながら、例えば、観察したい部分が他の画像や文字と重なって表示される場合、その重なったままの状態のイメージで画像及び文字情報が記録されていた。そのため、一度記録されてしまえば、その後、その重なり部分を解消することはできない為、重なり部分の確認を行うことができず、使用者に多大な負担を強いられていた。
 また、画像のサイズが小さい状態で表示されると、その小さいサイズのまま画像が記録されていた。そのため、後日その画像を拡大して詳細を観察することができない。その結果、使用者が容易かつ自由に画像の移動や大きさの変更ができず、使用者に多大な負担を強いられていた。
 そこで、本発明では、表示装置に表示される内視鏡合成画像のレイアウト変更を可能にすると共に、そのようなレイアウト変更をプロセッサだけでなく、プロセッサ以外の装置においても可能にする画像記録再生システムを提供する。
 本発明にかかる、複数の入力源から入力される画像の合成画像を記録再生する画像記録再生システムは、前記合成画像を構成する構成画像と、前記合成画像に関連する情報と、前記合成画像の画像レイアウト情報を備えた合成画像データ群を出力する合成画像データ群出力手段と、出力された前記合成画像データ群を記録する合成画像データ群記録手段と、再生画像を構成する少なくとも1以上の構成画像を指定する情報と、前記再生画像に関連する情報と、前記再生画像の画像レイアウト情報とを備えた再生画像指定情報を設定する再生画像指定情報設定手段と、設定された前記再生画像指定情報に基づき、記録された前記合成画像データ群から再生画像を形成する再生画像形成手段と、形成された前記再生画像を出力する再生画像出力手段と、出力された前記再生画像を受信し、再生する再生手段と、を備える。
 また、前記画像記録再生システムは、外部画像を入力する為の外部装置と接続されると共に、内視鏡と接続された内視鏡システムと、画像記録装置とを備え、前記内視鏡システムは、前記合成画像データ群出力手段と、前記再生画像指定情報設定手段と、前記再生画像指定情報を送信する手段と、前記再生手段と、を備え、前記画像記録装置は、前記合成画像データ群記録手段と、前記再生画像指定情報を受信する手段と、前記再生画像形成手段と、前記再生画像出力手段と、を備える。
 前記画像記録再生システムは、外部画像を入力する為の外部装置と接続されると共に、内視鏡と接続された内視鏡システムと、画像記録装置と、画像再生装置とを備え、前記内視鏡システムは、前記合成画像データ群出力手段と、を備え、前記画像記録装置は、前記合成画像データ群記録手段と、前記再生画像指定情報を受信する手段と、前記再生画像形成手段と、前記再生画像出力手段と、を備え、前記画像再生装置は、前記再生画像指定情報設定手段と、前記再生画像指定情報を送信する手段と、前記再生手段と、を備える。
 前記前記合成画像に関連する情報と、前記再生画像に関連する情報とは、検査管理用番号、検査部位、検査日時、患者ID、患者名、患者性別、患者年齢の少なくとも1つを含む。
 前記合成画像の画像レイアウト情報と、前記再生画像の画像レイアウト情報とは、画像の種類、画像の幅、画像の高さの少なくとも1つを含む。
 また、前記再生画像の画像レイアウト情報には、さらに、各画像について該画像を表示させるか否かを判別する情報及び該画像の表示開示位置の少なくとも1つを含む。
 また、前記合成画像データ群に含まれる前記合成画像を構成する各構成画像及び前記合成画像に関連する情報は、それぞれ相互に独立している。
 本発明によれば、表示装置に表示される内視鏡合成画像のレイアウト変更を可能にすると共に、そのようなレイアウト変更をプロセッサだけでなく、プロセッサ以外の装置においても可能となる。
本実施形態の内視鏡システムの、要部の構成の一例を示す図である。 図1の内視鏡システムが有する、内視鏡2Aの構成の一例を示す図である。 図1の内視鏡システムが有する、内視鏡2Bの構成の一例を示す図である。 図1の内視鏡システムが有する、内視鏡2Cの構成の一例を示す図である。 図1の内視鏡システムが有する、光源装置の構成の一例を示す図である。 図1の内視鏡システムが有する、プロセッサの構成の一例を示す図である。 図6のプロセッサが有する、画像処理部の構成の一例を示す図(その1)である。 図6のプロセッサが有する、画像処理部の構成の一例を示す図(その2)である。 図2の内視鏡及び図3の内視鏡が、図6のプロセッサに両方とも接続された場合に表示される画面の一例を示す図である。 図6のプロセッサが有する、主制御部の構成の一例を示す図である。 図6のプロセッサに接続される、一の拡張制御部の構成の一例を示す図である。 図6のプロセッサに接続される、図10の拡張制御部とは異なる他の拡張制御部の構成の一例を示す図である。 図9の主制御部が、拡張制御部の接続を検出する際(及び検出した際)に行う処理の一例を示すフローチャートである。 図6のプロセッサが有する、フロントパネル76の構成の一例を示す図である。 図9の主制御部が有する、SIO142の構成の変形例を示す図である。 図6のプロセッサに接続され得る周辺機器の一例を示す図である。 図6のプロセッサに接続され得る周辺機器の、図15とは異なる例を示す図である。 図6のプロセッサに接続され得る周辺機器の、図15及び図16とは異なる例を示す図である。 図6のプロセッサに接続され得る周辺機器の、図15、図16及び図17とは異なる例を示す図である。 図6のプロセッサに接続され得る周辺機器の、図15、図16、図17及び図18とは異なる例を示す図である。 図6のプロセッサに接続され得るキーボードの構成の一例を示す図である。 画像の表示サイズ(出力サイズ)(16:9)の一例を示す図である。 画像の表示サイズ(出力サイズ)(4:3)の一例を示す図である。 図6のプロセッサが有する、画像圧縮伸長部の構成の一例を示す図である。 図23の画像圧縮伸長部が有する、同期信号チェック回路631の構成例を示す。 図7A-図7Bの画像処理部により生成される内視鏡合成画像の一例を示す図である。 図25の時刻情報308の詳細を示す。 HDTVの場合におけるサムネイル画像の表示形態を示す。 SDTVの場合におけるサムネイル画像の表示形態を示す。 図6のプロセッサの設定画面の一例を示す図である。 図6のプロセッサの設定画面のうち、図29の設定画面から遷移した後の画面である、別の設定画面の一例を示す図である。 表示サイズ、画像サイズ、内視鏡の種類(内視鏡接続検知信号)に応じて画像を格納することを説明するための図である。 図15から図19までに示す各ファイリング装置及び各光学記録装置等において、画像を記録する場合に用いられるディレクトリ構造の一例を示す図である。 図32の、DCIMフォルダ、検査情報格納フォルダ、アノテーション格納フォルダを説明するための図である。 検査情報格納ファイルの詳細を説明するための図である。 撮影情報管理ファイルの詳細を説明するための図である。 合成回路108Hまたは108Sにおいて生成される内視鏡合成画像300-1についての検査情報管理ファイルと撮影情報管理ファイルの例を示す。 図36の検査情報管理ファイルと撮影情報管理ファイルに対応する内視鏡合成画像300-1の例を示す。 図32に示すディレクトリ構造における各ファイルのうち、サムネイル画像の画像ファイル、及び、該サムネイル画像の元となった画像の画像ファイルの、データ構成の一例を示す図である。 図32に示すディレクトリ構造における各ファイルのうち、サムネイル画像の画像ファイル、及び、該サムネイル画像の元となった画像の画像ファイルのデータ構成の、図38とは異なる例を示す図である。 ディレクトリ構造に対応させた表示形式としてモニタ等に表示される、ディレクトリ名及びファイル名の一例を示す図である。 図15から図19までに示す周辺機器等に記録された静止画像が表示される際に、図9の主制御部が行う制御及び処理の一例を示すフローチャート(その1)である。 図15から図19までに示す周辺機器等に記録された静止画像が表示される際に、図9の主制御部が行う制御及び処理の一例を示すフローチャート(その2)である。 HDTV画像が記憶されている場合の画面の表示例を示す図である。 HDTV画像のみ記録している場合は、SDTV画像について記録画像がない旨のエラー表示を行うことを示す図である。 図41A-図41Bの処理により生成されるマルチ画像の一例を示す図である。 図41A-図41Bの処理によりマルチ画像が複数生成された場合の、ページ切り替えの一例を示す図である。 図44のマルチ画像において、選択された一の画像が表示される際の画面の遷移の一例を示す図である。 記録指示が行われた際に、図6のプロセッサが行う処理の一例を示す図である。 記録指示が行われた際に、図47の処理に続いて図6のプロセッサが行う処理の一例を示す図である。 記録指示が行われた際に、図47の処理に続いて図6のプロセッサが行う処理の、図48とは異なる例を示す図である。 記録指示が行われた際に、図47の処理に続いて図6のプロセッサが行う処理の、図48及び図49とは異なる例を示す図である。 記録指示が行われた際に、図47の処理に続いて図6のプロセッサが行う処理の、図48、図49及び図50とは異なる例を示す図である。 図48(、図49及び図50)の処理に含まれる、圧縮処理及び記録処理の一例を示すフローチャートである。 図52の処理によりバッファに格納された、低圧縮率のフォーマットの画像が周辺機器等に記録される際に行われる処理の一例を示すフローチャートである。 図52の処理によりバッファに格納された、低圧縮率のフォーマットの画像が周辺機器等に記録される際に行われる処理の、図53とは異なる例を示すフローチャートである。 図53の処理において、記録対象となる画像をバッファに格納された各画像から選択させるために生成されるマルチ画像の一例を示す図である。 バッファ166に格納された画像データの内容を管理するための画面例を示す。 アノテート機能を用いて表示させた場合のマルチ画像を示す。 内視鏡合成画像の表示態様の変更を説明するための図である。 内視鏡合成画像の表示態様の変更前後の検査情報管理ファイル及び撮影情報管理ファイルの一例を示す。 内視鏡合成画像の表示態様の変更のバリエーションの一例を説明するための図である。 ウォッチドックタイマによりリセット回路140が起動して、画像処理の一部が初期化することについて説明するための図である。 プロセッサの設定画面の表示例(変形例)を示す。 プロセッサの設定画面の表示例(変形例)を示す。 PinP表示選択時において、「表示形式」キーを押下する毎に、内視鏡合成画像の表示形態が切り替わる様子を示す図(その1)である。 PinP表示選択時において、「表示形式」キーを押下する毎に、内視鏡合成画像の表示形態が切り替わる様子を示す図(その2)である。 PoutP表示選択時において、「表示形式」キーを押下する毎に、内視鏡合成画像の表示形態が切り替わる様子を示す図(その1)である。 PoutP表示選択時において、「表示形式」キーを押下する毎に、内視鏡合成画像の表示形態が切り替わる様子を示す図(その2)である。 SDTV画像の場合に、PoutP表示ができない旨を警告するメッセージ表示例を示す。
 以下、図面を参照して本発明の実施の形態を説明する。
 内視鏡システム1は、図1に示すように、内視鏡2A,2B,2Cと、光源装置3と、プロセッサ4とを有する。内視鏡2A,2B,2Cは、患者の体腔内に挿入可能であるとともに、該体腔内の被写体を撮像する。内視鏡2A,2Bは、プロセッサ4に接続されている。内視鏡2Aは、コネクタ29Aから延出するケーブル33Aの他端側に設けられたコネクタ34Aにより、プロセッサ4に対して着脱自在に接続される。内視鏡2Bは、コネクタ29Bから延出するケーブル33Bの他端側に設けられたコネクタ34Bにより、プロセッサ4に対して着脱自在に接続される。内視鏡2Cは、光源装置3を介してプロセッサ4に接続されている。
 なお、コネクタ34A,34Bは、1つ(共通)のコネクタであってもよい。この場合、当該共通のコネクタに内視鏡2A,2Bのケーブル33A,33Bを接続したとき、コネクタ内の複数のピンのうち、内視鏡の種類(内視鏡2A,2B)によって使用するピンが異なるようになっている。
 光源装置3は、該被写体を照明するための照明光を、ライトガイドケーブル3aを介して内視鏡2A,2Bに供給する。また、内視鏡2Cは、コネクタ29Cとコネクタ34Cにより、光源装置3に対して着脱自在に接続される。光源装置3は、コネクタ60から延出する調光信号伝送のためのケーブル61の他端側に設けられたコネクタ62により、プロセッサ4に対して着脱自在に接続される。光源装置3は、コネクタ60Cから延出する内視鏡画像信号伝送のためのケーブル61Cの他端側に設けられたコネクタ62Cにより、プロセッサ4に対して着脱自在に接続される。
 光源装置3は、コネクタ34Cの中央部分に、ライトガイドケーブル3aを着脱可能なライトガイドコネクタ(不図示)を有している。そのライトガイドコネクタの周囲に内視鏡2Cと電気的接続を行うピンが配置されている。コネクタ29Cを、コネクタ34Cに接続すると、ライトガイドコネクタと共に、電気的接続のためのピンも接続される。これにより、ユーザの着脱の手間を省けるよう、ライトガイドコネクタと内視鏡2Cの信号を1つのコネクタで接続できる。
 プロセッサ4は、該内視鏡システム1が有する各部に対する制御等を行う。また、医療用画像処理装置としてのプロセッサ4には、内視鏡システム1の各部に対する操作指示を行うことが可能な操作デバイスとしての、キーボード5及びフットスイッチ6が着脱自在(または一体的)に接続されている。なお、図1は、ライトガイドケーブル3aが内視鏡2Aに接続されている場合を示すものであるとする。なお、光源装置3を介して内視鏡2Cと接続されるコネクタ62Cは、プロセッサ4の背面に設けられていてもよい。
 内視鏡2Aは、図2に示すように、挿入部21A、対物光学系22A、アクチュエータ23A、CCD(電荷結合素子)24A、複数のソースコイル25Aとを有している。挿入部21Aは、患者の体腔内に挿入可能である。対物光学系22Aは、挿入部21Aの先端部に設けられ、被写体の像を結像する。アクチュエータ23Aは、プロセッサ4に接続される拡張基盤から出力される駆動信号に基づき、対物光学系22Aを挿入部21Aの軸方向に移動させる。CCD24Aは、対物光学系22Aの結像位置に設けられている。複数のソースコイル25Aは、挿入部21Aの略全体にわたって配置され、後述する内視鏡形状検出装置から出力される駆動信号に基づいて磁界を発生させる。
 また、内視鏡2Aは、ライトガイド26A、操作部27A、操作スイッチ部28A、コネクタ29A、メモリ30A、CPU31A、リセット回路32Aとを有している。ライトガイド26Aは、光源装置3からライトガイドケーブル3aを介して供給される照明光を挿入部21Aの先端部へ導く。操作部27Aは、内視鏡2A等に対する操作指示を行うために用いられる。操作スイッチ部28Aは、操作部27Aに設けられた1または複数のスイッチにより構成される、操作デバイスである。メモリ30Aは、プログラム及び内視鏡固有情報データ等を格納する。
 さらに、内視鏡2Aは、コネクタ29Aから延出するケーブル33Aの他端側に設けられたコネクタ34Aにより、プロセッサ4に対して着脱自在に接続される。そして、コネクタ29Aは、信号線29aを介し、内視鏡2Aがプロセッサ4に接続されたことを示す内視鏡接続検知信号をプロセッサ4に対して出力する。信号線29aは、一端側がコネクタ29Aに接続され、ケーブル33Aの内部を挿通するように配置される。信号線29aは、他端側がプロセッサ4の内部回路に接続されている。
 CCD24Aは、対物光学系22Aにより結像された被写体の像を撮像する。CCD24Aは、撮像した該被写体の像を、撮像信号として信号線24a1を介してプロセッサ4へ出力する。信号線24a1は、一端側がCCD24Aに接続され、ケーブル33Aの内部を挿通するように配置される。また、信号線24a1は、他端側がプロセッサ4の内部回路に接続されている。また、プロセッサ4において生成された後に信号線24a2を介して入力されるCCD駆動信号に応じて、CCD24Aは駆動する。信号線24a2は、一端側がCCD24Aに接続され、ケーブル33Aの内部を挿通するように配置される。また、信号線24a2は、他端側がプロセッサ4の内部回路に接続されている。
 メモリ30Aは、不揮発性のメモリである、例えば、EEPROM、FLASH ROM、FRAM(登録商標)、FeRAM、MRAM、OUMまたはバッテリー付きSRAM等のいずれかにより構成されている。また、メモリ30Aには、前述した内視鏡固有情報データとして、例えば、CCD24Aの種類、内視鏡2Aの種類、内視鏡2Aのシリアルナンバー、(1または複数の)ホワイトバランスデータ、内視鏡2Aの(図示しない)鉗子チャネルの数及びチャネル径、CPU31Aへの通電回数、操作スイッチ部28Aに設けられた各スイッチの押下回数、挿入部21Aの屈曲特性、挿入部21Aの径の値、挿入部21Aの先端部の径の値、対物光学系22Aの拡大スケール、内視鏡合成画像上における鉗子位置情報、点検指示情報、内視鏡2Aの初回使用日、点検回数、サービス情報、メーカーコメント、サービスコメント、修理記録、点検記録、コメント情報、CPU31Aのプログラムのバージョン、レンタル情報、ソースコイル25Aの個数、ソースコイル25Aの駆動電流、ソースコイル25Aの駆動電圧、及び、内視鏡2Aが直視または側視のいずれであるかの情報等が格納されている。
 CPU31Aは、図示はしないが、インターフェース回路(シリアルインターフェース回路またはパラレルインターフェース回路)、ウォッチドッグタイマ、タイマ、SRAM及びFLASH ROM等を有して構成されている。CPU31Aは、図示しないインターフェース回路を介し、メモリ30Aに格納された各種データの読み込み、及び、メモリ30Aへの各種データの書き込み制御を行う。
 さらに、CPU31Aは、例えば、内視鏡2Aの接続回数、操作スイッチ部28Aに設けられた各スイッチの押下回数、CPU31Aへの通電回数等の演算処理を行う。
 また、CPU31Aは、信号線31aを介し、CPU31A自身が行った演算処理結果の送受信、及び、メモリ30Aに格納された各種データの送受信をプロセッサ4に対して行う。信号線31aは、一端側がCPU31Aに接続され、ケーブル33Aの内部を挿通するように配置される。また、信号線31aは、他端側がプロセッサ4の内部回路に接続されている。
 リセット回路32Aは、プロセッサ4から供給される電源が変動したタイミング、または、CPU31A内のウォッチドッグタイマに基づくタイミングに応じてリセット処理を行う。
 操作スイッチ部28Aの各スイッチが操作されることにより生じるスイッチON/OFF信号は、信号線28aを介し、プロセッサ4に対して出力される。コネクタ29Aにおいて生成される内視鏡接続検知信号は、信号線28aを介し、プロセッサ4に対して出力される。信号線28aの一端側が操作スイッチ部28Aの各スイッチに接続され、ケーブル33Aの内部を挿通するように配置される。また、信号線28aの他端側がプロセッサ4の内部回路に接続されている。なお、操作スイッチ部28Aの各スイッチが操作されることにより生じるスイッチON/OFF信号、及び、コネクタ29Aにおいて生成される内視鏡接続検知信号は、プロセッサ4の駆動回路71から供給される駆動電圧を用いて生成されるものであるとする。
 内視鏡2Bは、図3に示すように、挿入部21B、対物光学系22B、アクチュエータ23Bと、CCD(電荷結合素子)24B、複数のソースコイル25Bとを有している。挿入部21Bは、患者の体腔内に挿入可能である。対物光学系22Bは、挿入部21Bの先端部に設けられ、被写体の像を結像する。アクチュエータ23Bは、プロセッサ4の駆動回路602から出力される駆動信号に基づき、対物光学系22Bを挿入部21Bの軸方向に移動させる。CCD24Bは、対物光学系22Bの結像位置に設けられている。複数のソースコイル25Bは、挿入部21Bの略全体にわたって配置され、後述する内視鏡形状検出装置から出力される駆動信号に基づいて磁界を発生させる。
 また、内視鏡2Bは、ライトガイド26B、操作部27B、操作スイッチ部28B、コネクタ29B、メモリ30B、コントロール回路31B、リセット回路32Bを有している。ライトガイド26Bは、光源装置3からライトガイドケーブル3aを介して供給される照明光を挿入部21Bの先端部へ導く。操作部27Bは、内視鏡2B等に対する操作指示を行う。操作スイッチ部28Bは、操作部27Bに設けられた1または複数のスイッチにより構成される、操作デバイスである。メモリ30Bは、プログラム及び内視鏡固有情報データ等を格納する。
 さらに、内視鏡2Bは、コネクタ34Bにより、プロセッサ4に対して着脱自在に接続される。コネクタ34Bは、コネクタ29Bから延出するケーブル33Bの他端側に設けられている。
 CCD24Bは、対物光学系22Bにより結像された被写体の像を撮像する。CCD24Bは、撮像した該被写体の像を、撮像信号として信号線24b1を介してCDS(相関二重サンプリング)回路35Bへ出力する。
 CDS回路35Bは、CCD24Bから出力される撮像信号に対して相関二重サンプリング処理を行う。CDS回路35Bは、該相関二重サンプリング処理を行った後の撮像信号を、信号線35bを介してアナログ/デジタル(A/D)変換部(以降及び図内においてはA/Dと略記する)36Bへ出力する。
 A/D36Bは、CDS回路35Bから出力されるアナログの撮像信号をデジタル信号に変換する。A/D36Bは、その変換して得られたデジタル信号を、信号線36bを介してP/S37Bへ出力する。
 メモリ30Bは、不揮発性のメモリである、例えば、EEPROM、FLASH ROM、FRAM、FeRAM、MRAM、OUMまたはバッテリー付きSRAM等のいずれかにより構成されている。また、メモリ30Bには、前述した内視鏡固有情報データとして、例えば、CCD24Bの種類、内視鏡2Bの種類、内視鏡2Bのシリアルナンバー、(1または複数の)ホワイトバランスデータ、内視鏡2Bの(図示しない)鉗子チャネルの数及びチャネル径、コントロール回路31Bへの通電回数、操作スイッチ部28Bに設けられた各スイッチの押下回数、及び挿入部21Bの屈曲特性、挿入部21Bの径の値、挿入部21Bの先端部の径の値、対物光学系22Bの拡大スケール、内視鏡合成画像上における鉗子位置情報、点検指示情報、内視鏡2Bの初回使用日、点検回数、サービス情報、メーカーコメント、サービスコメント、修理記録、点検記録、コメント情報、コントロール回路31Bのプログラムのバージョン、レンタル情報、ソースコイル25Bの個数、ソースコイル25Bの駆動電流、ソースコイル25Bの駆動電圧、及び、内視鏡2Bが直視または側視のいずれであるかの情報等が格納されている。
 コントロール回路31Bは、図示はしないが、インターフェース回路(シリアルインターフェース回路またはパラレルインターフェース回路)、ウォッチドッグタイマ、タイマ、SRAM及びFLASH ROM等を有して構成されている。コントロール回路31Bは、図示しないインターフェース回路を介し、メモリ30Bに格納された各種データの読み込み、及び、メモリ30Bへの各種データの書き込み制御を行う。
 さらに、コントロール回路31Bは、例えば、内視鏡2Bの接続回数、操作スイッチ部28Bに設けられた各スイッチの押下回数、コントロール回路31Bへの通電回数等の演算処理を行う。
 コントロール回路31Bは、信号線31b1と、ドライバ38Bと、信号線38b1とを介し、コントロール回路31B自身が行った演算処理結果、及び、メモリ30Bに格納された各種データをP/S37Bに対して出力する。また、信号線38b2と、ドライバ38Bと、信号線31b2とを介し、S/P変換部(以降及び図内においてはS/Pと略記する)39Bから出力される各種信号及びデータがコントロール回路31Bに入力される。
 また、コントロール回路31Bは、CDS回路35Bの閾値や判定範囲を制御する。
 リセット回路32Bは、プロセッサ4から供給される電源が変動したタイミング、または、コントロール回路31B内のウォッチドッグタイマに基づくタイミングに応じてリセット処理を行う。
 操作スイッチ部28Bの各スイッチが操作されることにより生じるスイッチON/OFF信号は、信号線28bを介し、P/S37Bに対して出力される。なお、操作スイッチ部28Bの各スイッチが操作されることにより生じるスイッチON/OFF信号は、プロセッサ4の駆動回路71から供給される駆動電圧を用いて生成されるものであるとする。
 P/S37Bは、信号線28bを介して入力されるスイッチON/OFF信号と、信号線36bを介して入力されるデジタル信号と、信号線38b1を介して入力される各種データ及び演算処理結果とに対してパラレル/シリアル変換を施す。これにより、P/S37Bは、シリアル信号を生成する。P/S37Bは、その生成したシリアル信号を、トランシーバ40Bと、ケーブル33Bの内部を挿通するように配置された信号線とを介して、プロセッサ4へ出力する。
 S/P39Bは、プロセッサ4から出力された後にケーブル33Bの内部を挿通するように配置された信号線と、レシーバ41Bとを介し、シリアル信号として入力される各種信号及びデータに対して、シリアル/パラレル変換を施す。その後、S/P39Bは、そのパラレル化した各種信号及びデータを、信号線38b2を介してドライバ38Bへ出力する。また、S/P39Bは、そのパラレル化した各種信号及びデータを、信号線42bを介してD/A変換部(以降及び図内においてはD/Aと略記する)42Bへ出力する。
 D/A42Bは、S/P39Bから出力される各種信号及びデータのうち、内視鏡接続検知信号に基づいてプロセッサ4において生成されたCCD駆動信号をアナログ信号に変換する。その後、D/A42Bは、該アナログ信号を、信号線24b2を介してCCD24Bへ出力する。そして、CCD24Bは、信号線24b2を介して入力されるCCD駆動信号に応じて駆動する。
 コネクタ29Bは、信号線29bを介し、内視鏡2Bがプロセッサ4に接続されたことを示す内視鏡接続検知信号をプロセッサ4に対して出力する。信号線29bの一端側がコネクタ29Bに接続され、ケーブル34Bの内部を挿通するように配置される。また、信号線29bの他端側がプロセッサ4の内部回路に接続されている。
 また、内視鏡2Bの小型化を図る目的において、P/S37B、S/P39B、ドライバ38B、コントロール回路31B、及びリセット回路32B(図3において、破線で囲んだ部分)が、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)、またはDSP(Digital Signal Processor)等により構成されるものであっても良い。
 内視鏡2Cは、図4に示すように、挿入部21C、対物光学系22C、アクチュエータ23C、CCD(電荷結合素子)24C、複数のソースコイル25Cを有している。挿入部21Cは、患者の体腔内に挿入可能である。対物光学系22Cは、挿入部21Cの先端部に設けられ、被写体の像を結像する。アクチュエータ23Cは、プロセッサ4の駆動回路602から出力される駆動信号に基づき、対物光学系22Cを挿入部21Cの軸方向に移動させる。CCD(電荷結合素子)24Cは、対物光学系22Cの結像位置に設けられている。複数のソースコイル25Cは、挿入部21Cの略全体にわたって配置され、後述する内視鏡形状検出装置から出力される駆動信号に基づいて磁界を発生させる。
 また、内視鏡2Cは、ライトガイド26C、操作部27C、操作スイッチ部28C、コネクタ29C、メモリ30C、コントロール回路31C、リセット回路32Cを有している。ライトガイド26Cは、光源装置3からライトガイドケーブル3aを介して供給される照明光を挿入部21Cの先端部へ導く。操作部27Cは、内視鏡2C等に対する操作指示を行うために用いられる。操作スイッチ部28Cは、操作部27Cに設けられた1または複数のスイッチにより構成される、操作デバイスである。メモリ30Cは、プログラム及び内視鏡固有情報データ等を格納する。
 さらに、内視鏡2Cは、コネクタ29Cと接続したコネクタ34Cにより、プロセッサ4に対して着脱自在に接続される。
 CCD24Cは、対物光学系22Cにより結像された被写体の像を撮像する。CCD24Cは、撮像した該被写体の像を、撮像信号として信号線24c1を介してCDS(相関二重サンプリング)回路35Cへ出力する。
 CDS回路35Cは、CCD24Cから出力される撮像信号に対して相関二重サンプリング処理を行う。CDS回路35Cは、該相関二重サンプリング処理を行った後の撮像信号を、信号線35cを介してA/D変換部(以降及び図内においてはA/Dと略記する)36Cへ出力する。
 A/D36Cは、CDS回路35Cから出力されるアナログの撮像信号をデジタル信号に変換する。A/D36Cは、その変換して得られたデジタル信号を、信号線36cを介してP/S37Cへ出力する。
 メモリ30Cは、不揮発性のメモリである、例えば、EEPROM、FLASH ROM、FRAM、FeRAM、MRAM、OUMまたはバッテリー付きSRAM等のいずれかにより構成されている。また、メモリ30Cには、前述した内視鏡固有情報データとして、例えば、CCD24Cの種類、内視鏡2Cの種類、内視鏡2Cのシリアルナンバー、(1または複数の)ホワイトバランスデータ、内視鏡2Cの(図示しない)鉗子チャネルの数及びチャネル径、コントロール回路31Cへの通電回数、操作スイッチ部28Cに設けられた各スイッチの押下回数、及び挿入部21Cの屈曲特性、挿入部21Cの径の値、挿入部21Cの先端部の径の値、対物光学系22Cの拡大スケール、内視鏡合成画像上における鉗子位置情報、点検指示情報、内視鏡2Cの初回使用日、点検回数、サービス情報、メーカーコメント、サービスコメント、修理記録、点検記録、コメント情報、コントロール回路31Cのプログラムのバージョン、レンタル情報、ソースコイル25Cの個数、ソースコイル25Cの駆動電流、ソースコイル25Cの駆動電圧、及び、内視鏡2Cが直視または側視のいずれであるかの情報等が格納されている。
 コントロール回路31Cは、図示はしないが、インターフェース回路(シリアルインターフェース回路またはパラレルインターフェース回路)、ウォッチドッグタイマ、タイマ、SRAM及びFLASH ROM等を有して構成されている。コントロール回路31Cは、図示しないインターフェース回路を介し、メモリ30Cに格納された各種データの読み込み、及び、メモリ30Cへの各種データの書き込み制御を行う。
 さらに、コントロール回路31Cは、例えば、内視鏡2Cの接続回数、操作スイッチ部28Cに設けられた各スイッチの押下回数、コントロール回路31Cへの通電回数等の演算処理を行う。
 コントロール回路31Cは、信号線31c1と、ドライバ38Cと、信号線38c1とを介し、コントロール回路31C自身が行った演算処理結果、及び、メモリ30Cに格納された各種データをP/S37Cに対して出力する。また、信号線38c2と、ドライバ38Cと、信号線31c2とを介し、S/P変換部(以降及び図内においてはS/Pと略記する)39Cから出力される各種信号及びデータが、コントロール回路31Cに入力される。
 また、コントロール回路31Cは、CDS回路35Cの閾値や判定範囲を制御する。
 リセット回路32Cは、プロセッサ4から供給される電源が変動したタイミング、または、コントロール回路31C内のウォッチドッグタイマに基づくタイミングに応じてリセット処理を行う。
 操作スイッチ部28Cの各スイッチが操作されることにより生じるスイッチON/OFF信号は、信号線28cを介し、P/S37Cに対して出力される。なお、操作スイッチ部28Cの各スイッチが操作されることにより生じるスイッチON/OFF信号は、プロセッサ4の駆動回路71から供給される駆動電圧を用いて生成されるものであるとする。
 P/S37Cは、信号線28cを介して入力されるスイッチON/OFF信号と、信号線36cを介して入力されるデジタル信号と、信号線38c1を介して入力される各種データ及び演算処理結果とに対してパラレル/シリアル変換を施す。これにより、P/S37Cは、シリアル信号を生成する。P/S37Cは、その生成したシリアル信号を、トランシーバ40Cと、コネクタ29C-コネクタ34Cを介してプロセッサ4へ出力する。
 S/P39Cは、プロセッサ4から出力された後にコネクタ34C-コネクタ29Cと、レシーバ41Cとを介し、シリアル信号として入力される各種信号及びデータに対して、シリアル/パラレル変換を施す。その後、S/P39Cは、そのパラレル化した各種信号及びデータを、信号線38c2を介してドライバ38Cへ出力する。また、S/P39Cは、そのパラレル化した各種信号及びデータを、信号線42cを介してD/A変換部(以降及び図内においてはD/Aと略記する)42Cへ出力する。
 D/A42Cは、S/P39Cから出力される各種信号及びデータのうち、内視鏡接続検知信号に基づいてプロセッサ4において生成されたCCD駆動信号をアナログ信号に変換する。その後、D/A42Cは、その変換して得られたアナログ信号を、信号線24c2を介してCCD24Cへ出力する。そして、CCD24Cは、信号線24c2を介して入力されるCCD駆動信号に応じて駆動する。
 コネクタ29Cは、信号線29cを介し、内視鏡2Cがプロセッサ4に接続されたことを示す内視鏡接続検知信号をプロセッサ4に対して出力する。信号線29cの一端側がコネクタ29Cに接続されている。コネクタ34C、光源装置3、コネクタ60C,62Cを通り、信号線29cの他端側がプロセッサ4の内部回路に接続されている。
 また、内視鏡2Cの小型化を図る目的において、P/S37C、S/P39C、ドライバ38C、コントロール回路31C、及びリセット回路32C(図4において、破線で囲んだ部分)が、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit))、またはDSP(Digital Signal Processor)等により構成されるものであっても良い。
 内視鏡2Cは、ライトガイド3aを介さずに、コネクタ29Cと他端側に設けられたコネクタ34Cにより、光源装置3に対して着脱自在に接続される。上述の通り、内視鏡2Cは、コネクタ34Cにより、内視鏡への信号だけでなく、照明光も導入している。この場合、照明光は、内視鏡2C内部のライトガイド3bを通って、コネクタ34C、29Cを通過し、内視鏡2Cの先端から照射される。
 コネクタ29Cは、信号線29cを介し、内視鏡2Cがプロセッサ4に接続されたことを示す内視鏡接続検知信号をプロセッサ4に対して出力する。信号線29cの一端側がコネクタ29Cに接続されている。信号線29cの他端側が光源装置3のコネクタ34Cへ接続されている。
 なお、アクチュエータ23Cのばらつき補正情報をメモリ30Cに格納してもよい。そのときは、当該ばらつき補正情報を、プロセッサ4のシリアルナンバー、またはプロセッサ4のレシーバ78及びトランシーバ81を実現している基板のシリアルナンバーに関連付けて格納するようにしてもよい。
 なお、内視鏡2A,2B,2Cはそれぞれ、軟性鏡として構成されていてもよいし、また、硬性鏡として構成されるものであっても良い。
 光源装置3は、図5に示すように、ランプ51、RGBフィルタ52、複数(例えば3つ)の特殊光フィルタ53A、53B及び53C、しぼり54、RGBフィルタ52、光源装置制御部55と、を有している。ランプ51は、白色光を発する。RGBフィルタ52は、ランプ51から発せられる白色光をRGBの面順次光に変換する。複数(例えば3つ)の特殊光フィルタ53A、53B及び53Cは、ランプ51から発せされる白色光のうち、所定の帯域の波長をカットすることにより、狭帯域な光を生成する。しぼり54は、ランプ51から発せられる白色光の光量を制御する。光源装置制御部55は、特殊光フィルタ53A、53B及び53Cとを、後述する調光信号に応じて、ランプ51から発せられる白色光の出射光軸に対して挿入及び抜去する。
 また、光源装置3は、図5に示すように、操作パネル56、メモリ57、CPU58、コネクタ60、コネクタ64を有している。操作パネル56は、出射される照明光の光量調整、装置の電源ON/OFF、ランプ51の点灯/消灯、透過照明及びフィルタ切替等の各種設定及び操作指示を行うことが可能である。メモリ57は、プログラム及び各種データを格納する。
 さらに、光源装置3は、コネクタ60から延出するケーブル61の他端側に設けられたコネクタ62により、プロセッサ4に対して着脱自在に接続される。コネクタ64は、他の装置と、シリアルインターフェースを介して通信を行うことができる。なお、前記シリアルインターフェースは、調歩同期式、クロック同期式、USB(登録商標) HOST/DEVICE、CAN、FLEX RAYまたはI2C等のいずれにより構成されるものであっても良い。
 光源装置制御部55は、ランプ51から発せされる白色光の光量に関する情報である光量情報を検出するとともに、検出した該光量情報を、光量検知信号として信号線59aを介してプロセッサ4へ入出力する。
 メモリ57は、不揮発性のメモリである、例えば、EEPROM、FLASH ROM、FRAM、FeRAM、MRAM、OUMまたはバッテリー付きSRAM等のいずれかにより構成されている。また、メモリ57には、前述した各種データとして、例えば、光量調整データやランプ51の寿命、装置のシリアルナンバー、RGBフィルタ52、特殊光フィルタ53A、53B、53Cの種類、及びメンテナンス情報等が格納されている。
 CPU58は、SIO(Serial Input/Output)58Aと、PIO(Parallel input/output)58Bと、を内部に有して構成されている。そして、CPU58は、SIO58AまたはPIO58Bのいずれかを介し、メモリ57に格納された各種データの読み込み、及び、メモリ57への各種データの書き込み制御を行う。また、CPU58は、光源装置制御部55及び操作パネル56に対する制御を行う。なお、CPU58とメモリ57との間において行われるデータの書き込み及び読み込みには、パラレルインターフェースまたはシリアルインターフェースのどちらが用いられるものであっても良い。また、このような構成は、コントロール回路31Bとメモリ30Bとの間、コントロール回路31Cとメモリ30Cとの間、CPU31Aとメモリ30Aとの間においても同様であるとする。
 また、CPU58は、信号線58aを介し、CPU58自身が行った演算処理結果、及び、メモリ57に格納された各種データの送受信をプロセッサ4に対して行う。信号線58aの一端側がCPU58に接続され、ケーブル61の内部を挿通するように配置される。信号線58aの他端側がプロセッサ4の内部回路に接続されている。
 さらに、CPU58は、SIO58Aから信号線58aに対して各種信号及びデータを出力する。そして、信号線58aに対して出力された前記各種信号及びデータは、プロセッサ4の内部回路に入力される。
 光源装置3内に設けられた接地点63は、信号線63aに接続されている。そして、コネクタ62がプロセッサ4に接続された際に、例えば、光源装置3がプロセッサ4との通信を行うことが可能な機種であるか否かを判別するための光源検知信号が、接地点63から、信号線63aを介してプロセッサ4へと出力される。
 なお、光源装置3がプロセッサ4に接続されている場合に、操作パネル56において行われた各種設定及び操作指示等は、CPU58のSIO58Aを介してプロセッサ4へ出力される。
 なお、内視鏡2Cから出力される全信号は、光源装置3の内部を通過している。
 プロセッサ4は、図6に示すように、駆動回路71と、画像処理部72、画像圧縮伸長部73、主制御部75、フロントパネル76、拡張制御部77、絶縁回路599を有している。画像処理部72は、内視鏡2A,2B,2Cが撮像した被写体の像に応じた画像に対する各種処理を行う。主制御部75は、プロセッサ4の各部等に対する制御を行う。フロントパネル76は、プロセッサ4等に対し、各種設定及び操作指示を行うことができる。拡張制御部77は、所望の機能を有する他の基板と交換可能な1または複数の拡張基板として、プロセッサ4に対して着脱自在に構成される。
 駆動回路71は、コネクタ29A、コネクタ29B、コネクタ29Cにおいて生成される内視鏡接続検知信号に基づき、内視鏡2A、2B、2Cのどの内視鏡が接続されたかを判別する。駆動回路71は、CCD24A、24B、24Cのいずれかを駆動させるためのCCD駆動信号を生成する。駆動回路71は、その生成したCCD駆動信号を、信号線24a2,603,604を介して内視鏡2A,2B,2Cへ出力する。駆動回路71は、内視鏡2A、2B、2C内の各ICを動作させる為の、駆動電源を供給する。
 また、駆動回路71は、駆動している内視鏡から入力されるレシーバ入力を選択するように、セレクタ600を制御する。例えば、駆動しているCCDを有する内視鏡が2Cの時、内視鏡2Cから入力されるレシーバの入力を選択するように、駆動回路71は、セレクタ600を制御する。駆動している内視鏡が2Aの時は、例えば、内視鏡2A-レシーバ経由で入力される信号を選択するようにしておき、不定にならないようにする。
 なお、該CCD駆動信号により、内視鏡2Aのメモリ30A、CPU31A及びリセット回路32A、又は内視鏡2Bのメモリ30B、コントロール回路31Bと、ドライバ38B、P/S37B、S/P変換部39B、リセット回路32B、トランシーバ40B、レシーバ41B、内視鏡2Cのメモリ30C、コントロール回路31Cと、ドライバ38Cと、P/S37C、S/P変換部39C、リセット回路32C、トランシーバ40C、レシーバ41C、を駆動させてもよい。
 内視鏡2A、2B、2Cの全てが未接続の場合は、駆動回路71は、内視鏡が未接続であることを判別し、CCD駆動信号を未出力とする。
 また、内視鏡2A、2B、2Cの内、2つもしくは全ての内視鏡が接続されている場合は、駆動回路71は、次を行う。すなわち、駆動回路71は、予め決められた優先順位(図7A-図7Bにおいて後述するセレクタ94による切り替え順)に基づくと共に、コネクタ29A,29B,29Cにおいて生成される内視鏡接続検知信号に基づいて、CCD24A,24B,24Cのいずれかを駆動させるためのCCD駆動信号を生成する。
 なお、優先順位は、図7A-図7Bにおいて後述するセレクタ94による切り替え順も含めて、後述するCPU131により優先順位を変更できるようにしてもよい。
 なお、プロセッサ4内の画像処理部72、画像圧縮伸長部73、主制御部75、及び拡張制御部77の各部の構成の詳細は、後述にて示すものとする。また、プロセッサ4内の画像処理部72、画像圧縮伸長部73及び主制御部75は、各々が1枚の基板上に設けられても良く、拡張制御部77と同様に、他の基板と交換可能な構成を有するものであっても良い。
 また、プロセッサ4が有する各部間の信号伝送は、パラレル方式が用いられるものであっても良いし、または、ノイズ低減や小型化のために、LVDS(Low voltage differential signaling)、RSDS(reduced swing differential signaling)またはLVPECL(low voltage positive emitter coupled logic)等の差動シリアル方式が用いられるものであっても良い。さらに、プロセッサ4が有する各部間における信号の伝送が行われる際に、該各信号が暗号化された状態として伝送されるものであっても良い。これにより、プロセッサ4が有する各部間における信号の伝送が行われる場合に、信号の内容を基板外から容易に確認されることなく、その結果、プロセッサ4のセキュリティが向上する。
 S/P79は、内視鏡2Bから出力された後にケーブル33Bの内部を挿通するように配置された信号線と、レシーバ78とを介し、S/P79にてシリアル信号として入力される各種信号及びデータに対して、シリアル/パラレル変換を施す。その後、S/P79は、そのパラレル化した各種信号及びデータを画像処理部72に対して出力する。
 P/S80は、画像処理部72から出力された信号に対してパラレル/シリアル変換を施すことによりシリアル信号を生成するとともに、該シリアル信号を、トランシーバ81に出力する。トランシーバ81は、P/S80から出力された信号を、ケーブル33Bの内部を挿通するように配置された信号線とを介して内視鏡2Bへ出力し、ケーブル61Cの内部を挿通するように配置された信号線とを介して内視鏡2Cへ出力する。
 なお、本実施形態のプロセッサ4のコネクタ34B、62Cを経由する信号は、絶縁回路599を介すことで、絶縁されている。
 プロセッサ4の画像処理部72は、具体的には、例えば、図7A-図7Bに示すような(以下に記すような)構成を有している。
 信号線24a1を介して出力された撮像信号は、画像処理部72のCDS回路91によりCDS処理が施される。その後、そのCDS処理が施された撮像信号は、A/D変換部(以降及び図内においてはA/Dと略記する)92によりデジタル変換される。デジタル変換された撮像信号は、図示しない周波数変換器により所定の周波数(例えば、13.5MHz)に変換される。その後、その所定の周波数に変換された撮像信号は、フォトカプラ等により構成される絶縁回路93を経由してセレクタ94に入力される。
 また、信号線29aを介して出力された内視鏡接続検知信号は、絶縁回路93を経由してセレクタ94に入力される。信号線31aを介して出力された各種信号及びデータは、絶縁回路93を経由してセレクタ94に入力される。信号線28aを介して出力されるスイッチON/OFF信号は、絶縁回路93を経由してセレクタ94に入力される。
 さらに、セレクタ94には、S/P79の出力信号である撮像信号が信号線79bを介して入力される。また、セレクタ94には、スイッチON/OFF信号が信号線79cを介して入力される。また、セレクタ94には、各種信号及びデータがドライバ82及び信号線82aを介して入力される。また、内視鏡2A,2B,2Cからの内視鏡接続検知信号がそれぞれ、信号線29a,29b,29cを介してセレクタ94に入力される。
 セレクタ94は、入力される各信号のうち、信号線29aを介して入力された内視鏡接続検知信号と、信号線29bを介して入力された内視鏡2Bからの内視鏡接続検知信号と、信号線29cを介して入力された内視鏡2Cからの内視鏡接続検知信号とに基づき、内視鏡2A,2B,2Cの接続状態を検知する。
 そして、セレクタ94は、次の4つの場合のうちいずれか一の場合において、内視鏡2Cが接続されたと判断する。ここで、第1の場合は、内視鏡2A,2B,2Cが全てプロセッサ4に接続されている場合である。第2の場合は、内視鏡2B,2Cがプロセッサに接続されている場合である。第3の場合は、内視鏡2A,2Cがプロセッサに接続されている場合である。第4の場合は、内視鏡2Cのみがプロセッサに接続されている場合である。いずれか一の場合において、内視鏡2Cが接続されたと判断された場合、セレクタ94は、レシーバ605、セレクタ600、S/P79を経由して、信号線79bを介して入力された撮像信号を信号線94aに対して出力する。セレクタ94は、信号線79cを介して入力されたスイッチON/OFF信号を信号線94bに対して出力させ、設定保持部606に格納する。セレクタ94は、信号線29cを介して入力された内視鏡2Cからの内視鏡接続検知信号を信号線94bに対して出力させ、設定保持部606に格納する。セレクタ94は、信号線82aを介して入力された、内視鏡2C内のメモリ30Cに格納された各種信号及びデータを信号線94bに対して出力させ、設定保持部606に格納する。
 セレクタ94は、内視鏡2A及び内視鏡2Bがプロセッサ4に接続されている場合、または、内視鏡2Bのみがプロセッサに接続されている場合のうち、いずれか一の場合において、内視鏡2Bが接続されたと判断する。この場合、レシーバ78、セレクタ600、S/P79を経由して信号線79bを介して入力された撮像信号を信号線94aに対して出力する。セレクタ94は、信号線79cを介して入力されたスイッチON/OFF信号を信号線94bに対して出力させ、設定保持部606に格納する。セレクタ94は、信号線29bを介して入力された内視鏡2Bからの内視鏡接続検知信号を信号線94bに対して出力させ、設定保持部606に格納する。セレクタ94は、信号線82aを介して入力された、内視鏡2B内のメモリ30Bに格納された各種信号及びデータを信号線94bに対して出力させ、設定保持部606に格納する。
 また、セレクタ94は、内視鏡2Aのみがプロセッサに接続されている場合においては、セレクタ94及び絶縁回路93を介して入力された撮像信号を信号線94aに対して出力する。セレクタ94は、信号線29a及び絶縁回路93を介して入力された内視鏡接続検知信号を信号線94bに対して出力させ、設定保持部606に格納する。また、セレクタ94は、信号線28a及び絶縁回路93を介して入力されたスイッチON/OFF信号を信号線94bに対して出力させ、設定保持部606に格納する。
 なお、信号線31a及び絶縁回路93を介して入力された、内視鏡2A内のメモリ30Aに格納された各種信号及びデータは、セレクタ94を経由せず、信号線94cに対して入出力する。
 内視鏡2A及び内視鏡2B、内視鏡2Cが全てプロセッサ4に接続されていない状態であることを検知した場合は、内視鏡2Cが接続された場合と同様の処理を行うことで、動作が不定にならないようにする。
 設定保持部606は、フリップフロップなどロジック回路で構成してもよく、FIFOやDual Port RAMなどのメモリで構成してもよい。
 設定保持部606は、内視鏡2A及び内視鏡2B、及び内視鏡2Cの内視鏡接続検知信号及びどの内視鏡が接続された判別結果も保持する。内視鏡が未接続である場合は、設定保持部606は、内視鏡が未接続である旨の判別結果を保持する。
 なお、セレクタ94の切り替え処理は、内視鏡2A及び内視鏡2B、内視鏡2Cの内、2つ以上接続された時は、最初に接続した一方の内視鏡により得られた信号を出力し、画像を(モニタ等の表示部に)表示させる処理を行うものであっても良い。そして、内視鏡2A及び内視鏡2B、内視鏡2Cの内、2つ以上の内視鏡がプロセッサ4に接続されている場合、次のようにしてもよい。すなわち、プロセッサ4におけるセレクタ94の後段に配置された各部のうち、後述するグラフィック回路106H(または106S)が、例えば、図8に示すように、同時接続である旨を示す警告表示画像を生成及び出力するものであっても良い。また、セレクタ94は、一方の内視鏡が取り外されたことを検知した場合に、自動的に他方の内視鏡により得られた画像を出力するものであっても良い。
 前述した作用により、プロセッサ4は、内視鏡2A及び内視鏡2B、内視鏡2Cの内、2つ以上の内視鏡がプロセッサ4に接続された場合に、ユーザに対し、速やかに一方を外す旨の告知を行うことができる。
 また、前述した作用により、プロセッサ4は、一方の内視鏡をはずせば、接続されている他方の内視鏡の画像を自動的に表示する。その結果、ユーザは、容易かつ速やかに検査を行う事ができ、検査効率の向上させることができ、さらに、検査時間を短縮させることができる。
 さらに、内視鏡2A,2B,2Cの内、2つ以上の内視鏡がプロセッサ4に接続された場合に、プロセッサ4におけるセレクタ94の後段に配置された各部は、フロントパネル76及び/またはキーボード5に設けられた図示しないLEDにおいて警告の旨を示す。そのために、該LEDを点灯または点滅させる処理を行うものであっても良く、図示しないブザーによる警告音を鳴らす処理を行うものであっても良い。
 なお、CPU131は、CPU131及びBUF139を経由して、設定保持部606に、別の各種信号及びデータを格納可能である。格納された各種信号及びデータは、セレクタ94、信号線601、P/S80、及びトランシーバ81を経由して内視鏡2B,2C内のそれぞれのメモリ30B,30Cに格納可能である。
 セレクタ94から信号線94aに対して出力された撮像信号は、前段画像処理回路95によりOB(Optical Black)クランプ処理、周波数変換(例えば27MHz)処理、ホワイトバランス処理及びAGC(Automatic Gain Control)処理が施される。その後、それらの処理がされた撮像信号は、画像信号としてフリーズ回路96に対して出力される。また、セレクタ94から信号線94bに対して出力された内視鏡接続検知信号及びスイッチON/OFF信号、各種信号及びデータは、設定保持部606に格納される。主制御部75はBUF139を経由して設定保持部の格納情報を入出力する。さらに、絶縁回路93から信号線94cに対して出力された各種信号及びデータは、主制御部75(主制御部75が有する、後述するSIO142)に対して入出力される(図内A2として示す)。
 前段画像処理回路95から出力された画像信号は、フリーズ回路96に入力される。そして、フリーズ回路96は、各操作デバイスのいずれか一において、第1フリーズスイッチ(以降、フリーズスイッチと記す)が操作されて第1フリーズ指示(以降、フリーズ指示と記す)がなされた場合、メモリ97に対してフリーズ画像を出力する。なお、以降において、前記フリーズ指示がなされた場合に取得される第1のフリーズ画像をフリーズ画像と記すものとする。なお、操作デバイスに設けられたフリーズスイッチは、トグル動作が可能である(スイッチを押すごとにフリーズON→OFF→ON…の動作を繰り返す)ものであってもよい。また、本実施形態において、操作デバイスとは、キーボード5、フットスイッチ6、フロントパネル76、操作スイッチ部28A及び28B、及び、後述する各HID(Human Interface Device)のことを指すものであるとする。さらに、フリーズ回路96は、前述したフリーズ画像以外に、プリフリーズ画像を出力するものであっても良い。
 フリーズ回路96から出力された画像信号は、後段画像処理回路98に入力される。そして、後段画像処理回路98に入力された画像信号は、IHb色彩強調処理、動画色ずれ補正処理、R(赤色)又はB(青色)の色調調整処理、及びγ補正処理等の処理が施された状態として出力される。
 後段画像処理回路98から出力された画像信号は、標準画像であるSDTV(Standard Definition TeleVision)方式の画像を生成するための処理系統と、高画質画像であるHDTV(High Definition TeleVision)方式の画像を生成するための処理系統とに対して各々出力される。これにより、プロセッサ4は、SDTV出力(NTSCの場合…720×480相当の出力、PALの場合…720×576相当の出力)、及び、HDTV出力(1920×1080相当の出力)の、両方の出力方式による画像の出力が可能である。
 ここで、プロセッサ4において、SDTV方式の画像を生成するための処理系統についての説明を行う。
 後段画像処理回路98から出力された画像信号に対して、各操作デバイスにおける操作及び設定等に応じ、拡大/強調回路99Sにより拡大/縮小処理(電子拡大/縮小処理及び画像サイズ変更処理等の処理)、輪郭強調処理及び構造強調処理等の処理が施される。それから、その画像信号に対して、画像回転処理回路100Sにより上下左右反転処理及び90度回転処理等の処理が施される。その後、その画像信号に対して、同時化回路101Sにより同時化処理が施される。なお、本実施形態において、同時化回路101Sは、例えば、画像信号入力時には27MHzにて動作を行い、また、画像信号出力時には13.5NHzにて動作を行うものであるとする。
 メモリ102Sは、FLASH ROM、FRAM、FeRAM(Ferroelectric Random Access Memory)、MRAM(Magnetoresistive Random Access Memory)またはOUM(Ovonic Unified Memory)等の不揮発性メモリにより構成されている。また、メモリ102Sには、拡大/強調回路99S及び画像回転処理回路100Sの処理に関するパラメータとして、例えば、拡大(縮小)係数、強調係数及び画像回転パラメータ等の処理パラメータが格納されている。そして、コントローラ103Sは、メモリ102Sに格納された各処理パラメータに応じて、拡大/強調回路99S及び画像回転処理回路100Sの処理を制御する。
 なお、メモリ102Sは、SRAM(Static Random Access Memory)、SDRAM(Synchronous Dynamic Random Access Memory)、EDORAM(Extended Data Out Random Access Memory)、DRAM(Dynamic Random Access Memory)またはRDRAM(Rambus Dynamic Random Access Memory)等の揮発性メモリとして構成されていてもよい。そして、メモリ102Sは、プロセッサ4の主電源がONされる毎に、必要なパラメータが主制御部75により書き込まれるものとして構成されていても良い。そして、画像処理部72が有する全てのメモリについて、前述したメモリ102Sと略同様の構成が適用可能であるとして、以降の説明を行うものとする。
 メモリ104Sは、同時化回路101Sによる同時化処理により、R、G(緑色)及びBの各フレーム画像が同時に出力されるようにするため、該各フレーム画像を格納する。
 マスク処理回路611Sは、同時化回路101Sにより同時化された状態として出力された画像信号に対してマスク処理を行う。
 グラフィック回路106Sは、マスク処理回路611Sによりマスク処理された画像信号に応じた画像に関連する情報(以降、内視鏡関連情報と記す)を示す文字及びグラフィック情報を生成して出力する。なお、前記グラフィック情報は、例えば、エラー表示、メニュー表示、HELP画像、GUI、CUI等の各画像に関する情報であるとする。
 メモリ107Sは、グラフィック回路106Sが内視鏡関連情報を示す文字及びグラフィック情報を生成する際に用いられるメモリである。
 合成回路108Sは、マスク処理回路611Sによりマスク処理された画像信号に対し、グラフィック回路106Sにおいて生成された文字及びグラフィック情報と、後述する拡大縮小・画像配置回路122S、画像圧縮伸長部73及び拡張制御部77の各部からの出力とを合成する。それから、合成回路108Sは、合成後の画像信号を内視鏡合成画像として出力する。
 合成回路108Sから出力された内視鏡合成画像は、D/A変換部(以降及び図内においてはD/Aと略記する)110Sによりアナログ変換され、調整回路111Sによりレベル調整が施された後、信号線111Saを介して出力される。
 また、プロセッサ4において、HDTV方式の画像を生成するための処理系統についての説明を行う。
 後段画像処理回路98から出力された画像信号に対して、図示しない周波数変換部により周波数変換(例えば74MHz)が施される。その後、その周波数変換処理が施された画像信号に対して、各操作デバイスにおける操作及び設定等に応じ、拡大/強調回路99Hにより拡大/縮小処理、輪郭強調処理及び構造強調処理等の処理が施される。それから、それらの処理が施された画像信号に対して、画像回転処理回路100Hにより上下左右反転処理及び90度回転処理等の処理が施される。その後、それから、それらの処理が施された画像信号に対して、同時化回路101Hにより同時化処理が施される。
 メモリ102Hには、拡大/強調回路99H及び画像回転処理回路100Hの処理に関するパラメータとして、例えば、拡大(縮小)係数、強調係数及び画像回転パラメータ等の処理パラメータが格納されている。そして、コントローラ103Hは、メモリ102Hに格納された各処理パラメータに応じて、拡大/強調回路99H及び画像回転処理回路100Hの処理を制御する。
 メモリ104Hは、同時化回路101Hによる同時化処理により、R、G(緑色)及びBの各フレーム画像が同時に出力されるようにするため、該各フレーム画像を格納する。
 マスク処理回路611Hは、同時化回路101Hにより同時化された状態として出力された画像信号に対してマスク処理を行う。
 グラフィック回路106Hは、マスク処理回路611Hによりマスク処理された画像信号に応じた画像に関連する情報(以降、内視鏡関連情報と記す)を示す文字及びグラフィック情報を生成して出力する。なお、前記グラフィック情報は、例えば、エラー表示、メニュー表示、HELP画像、GUI、CUI等の各画像に関する情報であるとする。
 メモリ107Hは、グラフィック回路106Hが内視鏡関連情報を示す文字及びグラフィック情報を生成する際に用いられるメモリである。
 合成回路108Hは、マスク処理回路611Hによりマスク処理された画像信号に対し、グラフィック回路106Hにおいて生成された文字及びグラフィック情報と、後述する拡大縮小・画像配置回路122H、画像圧縮伸長部73及び拡張制御部77の各部からの出力とを合成し、合成後の画像信号を内視鏡合成画像として出力する。
 合成回路108Hから出力された内視鏡合成画像は、D/A変換部(以降及び図内においてはD/Aと略記する)110Hによりアナログ変換され、調整回路111Hによりレベル調整が施された後、信号線111Haを介して出力される。
 画像出力部121は、合成回路108Sから出力される内視鏡合成画像及び合成回路108Hから出力される内視鏡合成画像のうち、いずれか一方の内視鏡合成画像に対してエンコード処理を行った後、該各内視鏡合成画像を、信号線121aを介して出力する。これにより、LVDS、SDI、H-SDI、DV(IEEE1394)、DVI、D1、D2、D3、D4、D5、D6、D9またはHDMI等のインターフェースを介して画像が(デジタル画像またはアナログ画像として)出力できる。
 A/D or DEC回路612、フレーム同期+RGB変換回路613、拡大縮小・画像配置S、拡大縮小・画像配置Hを1組とすると、この組が2組ある。
 A/D or DEC回路612,612’はそれぞれ、後述する周辺機器のうち、SDTV方式におけるアナログ信号の出力が可能な機器(例えば、モニタ201A、プリンタ202A、VTR203A、ファイリング装置204A及び写真撮影装置205Aなど)、又は、HDTV方式におけるアナログ信号の出力が可能な機器(例えば、モニタ201B1、プリンタ202B1、VTR203B1、ファイリング装置204B1及び写真撮影装置205B1など)、又は、SDTV方式及びHDTV方式におけるアナログ信号、またはデジタル信号(LVDS、SDI、H-SDI、DV(IEEE1394)、DVI、D1、D2、D3、D4、D5、D6、D9またはHDMI等のインターフェース)の出力が可能な機器(例えば、モニタ201C1、プリンタ202C1、VTR203C1、ファイリング装置204C1、写真撮影装置205C1、内視鏡形状検出装置206C1及び超音波装置207C1、モニタ201C2、プリンタ202C2、VTR203C2、ファイリング装置204C2、写真撮影装置205C2、内視鏡形状検出装置206C2及び超音波装置207C2など)から出力された信号が入力され、デコード処理(A/D変換によるデジタル化の処理を含む)を施す。このとき、A/D or DEC回路612,612’はそれぞれ、その入力された画像がHDTV方式の画像かSDTV方式の画像かを判別し、その判別結果を示すSD/HD判別信号615,615’を出力する。
 フレーム同期+RGB変換回路613,613’はそれぞれ、後述する同期信号発生回路(以降、SSGと略記する)123から出力される信号に基づいて、フレーム同期処理を行う。これにより、A/D or DEC回路612によりデコード処理が施された画像信号が、SD/HD判別615、615’の判別信号を基に、合成回路108S又は108Hにより適切なタイミングにおいて合成される。さらに、フレーム同期+RGB変換回路613(または613’)はそれぞれ、その画像信号についてRGB変換を行う。その後、フレーム同期+RGB変換回路613(または613’)はそれぞれ、その変換により得られたRGB信号(またはYCrCb信号)は、拡大縮小・画像配置回路122S及び122H(または122S’及び122H’)と、信号線607,607’を介して画像圧縮伸長部73に対して出力される。
 拡大縮小・画像配置回路122S,122S’はそれぞれ、フレーム同期+RGB変換回路613,613’から出力されるRGB信号に対し、画像の拡大縮小及び画像の配置の調整のための処理を施す。これにより、該RGB信号が合成回路108Sにより適切なタイミングにおいて合成される。そして、後述する同期信号発生回路(以降、SSGと略記する)123から出力される同期信号に基づいて、当該画像が内視鏡合成画像に適切に配置されるようになる。画像の拡大縮小及び画像の配置の調整のための処理を施した後、拡大縮小・画像配置回路122S,122S’はそれぞれ、該RGB信号を合成回路108Sに対して出力する(図7A-図7BにおいてA4、A4’として示す)。
 拡大縮小・画像配置回路122H,122H’はそれぞれ、フレーム同期+RGB変換回路613,613’から出力されるRGB信号に対し、画像の拡大縮小及び画像の配置の調整のための処理を施す。これにより、該RGB信号が合成回路108Hにより適切なタイミングにおいて合成される。そして、後述するSSG123から出力される同期信号に基づいて、当該画像が内視鏡合成画像に適切に配置されるようになる。画像の拡大縮小及び画像の配置の調整のための処理を施した後、拡大縮小・画像配置回路122H,122H’はそれぞれ、該HDTV同期処理が施されたRGB信号を合成回路108Hに対して出力する(図内A3、A3’として示す)。
 また、前記「74MHz」は、正確には、(74.25/1.001)MHz、または、74.25MHzのいずれかとして示される。以降における「74MHz」についても同様とする。さらに、その場合、画像圧縮伸長部73は、FPGA、DSPまたはダイナミックリコンフィギュラブルプロセッサなどのプログラマブルな回路として構成される。画像圧縮伸長部73は、静止画像の圧縮処理の機能を有する回路、及び、動画像の圧縮処理の機能を有する回路のいずれかとして機能を切り替え可能に構成されるものであっても良い。(なお、本実施形態のプロセッサ4において用いられる画像圧縮伸長部73の詳細については、図23に関する説明として後述するものとする。)
 画像圧縮伸長部73がプログラマブルな回路として構成される場合、例えば、後述する図29の設定画面等において、圧縮形式が(JPEG、JPEG2000、TIFF、BMP、AVI、MPEG、H.264またはWMVのうちから1つ)選択されるようにしてもよい、また、選択結果に応じたブロック(ファームウェアまたはコンフィグレーション用データ)がダウンロードされるものであっても良い。また、前記ブロックのダウンロードは、拡張制御部77AのCPU151により、バスブリッジ163を介して行うもの、または、画像圧縮伸長部73に設けられた図示しないROM等から行うもの等のいずれであっても良い。さらに、前記ブロックのダウンロードにおいて、内視鏡合成画像上にダウンロード中であることを示すエラーメッセージが表示されても良く、操作デバイスが有する図示しない所定のLEDが点灯(または点滅)されても良い。また、前記ブロックのダウンロードが正常に完了した場合に、正常に完了した旨を示すメッセージが画面上に表示されるものであっても良い。
 プロセッサ4に設けられたSSG123は、信号線29a及び絶縁回路93を介して内視鏡2Aから出力された内視鏡接続検知信号、信号線29bを介して内視鏡2Bから出力された内視鏡接続検知信号、または信号線29cを介して内視鏡2Cから出力された内視鏡接続検知信号に基づき、該内視鏡2A,2B,2Cの種類に応じた信号として、複数の垂直同期信号及び水平同期信号、ODD/EVEN判別信号及びクロックを出力する。
 SSG123から出力される各信号のうち、垂直同期信号VD1(例えば60Hz)及び水平同期信号HD1(例えば15.75kHz)は、CDS回路91から後段画像処理回路98までの各部と、拡大/強調回路99Sからメモリ104Sまでの各部と、拡大/強調回路99Hからメモリ104Hまでの各部に対して出力される。また、SSG123から出力される各信号のうち、垂直同期信号VD2(例えば50Hzまたは60Hz)、垂直同期信号VD3(例えば50Hzまたは60Hz)、ODD/EVEN判別信号ODD2、ODD/EVEN判別信号ODD3、水平同期信号HD2(例えば15.75kHzまたは15.625kHz)及び水平同期信号HD3(例えば33.75kHzまたは28.125kHz)は、同時化回路101Sと、メモリ104Sから合成回路108Sまでの各部と、拡大縮小・画像配置回路122Sと、同時化回路101Hと、メモリ104Hから合成回路108Hまでの各部と、拡大縮小・画像配置回路122Hと、画像出力部121とに対して出力される。
 SSG123は、主に画像処理の際に用いられるクロック信号として、SDTV方式における標準クロックである13.5MHz、該標準クロックの2倍の周波数を有するクロックである27MHz、及び、HDTV方式における標準クロックである74MHzのクロック信号を各々出力する。
 そして、前記各クロック信号のうち、例えば、13.5MHzのクロック信号は、A/D92から前段画像処理回路95までの各部と、拡大/強調回路99Sからメモリ104Sまでの各部と、D/A110Sと、画像出力部121と、フレーム同期+RGB変換回路613,613’、拡大縮小・画像配置回路122S,122S’に対して出力される。また、前記各クロック信号のうち、例えば、27MHzのクロック信号は、前段画像処理回路95から後段画像処理回路98までの各部と、拡大/強調回路99Sからコントローラ103Sまでの各部と、画像出力部121とに対して出力される。さらに、前記各クロック信号のうち、例えば、74MHzのクロック信号は、拡大/強調回路99HからD/A110Hまでの各部と、画像出力部121と、フレーム同期+RGB変換回路613,613’と、拡大縮小・画像配置回路122H,122H’とに対して出力される。
 プロセッサ4の主制御部75は、具体的には、例えば、図9に示すような構成を有している。
 主制御部75のCPU131は、図示しないパラレルインターフェース(またはシリアルインターフェース)と、システムバス131aとを介し、RAM132及び133におけるデータの書き込み及び読み込みを制御する。
 RAM132及び133は、例えば、SRAM、SDRAM、DRAMまたはRDRAM等の揮発性メモリとして構成される。RAM132及び133は、プログラム関連データ、内視鏡情報データ、内視鏡画像データなどを格納することができる。また、RAM132及び133は、キャッシュとしても使用することができる。
 主制御部75のCPU131は、システムバス131aを介し、時計等により構成され、時間の管理を行うリアルタイムクロック(以降及び図内においてはRTCと略記する)134を制御する。
 主制御部75のCPU131は、システムバス131aを介し、プログラムデータ、プログラムのバージョンデータ等の各データを格納するROM135及び136に対する制御を行う。
 主制御部75のCPU131は、システムバス131aを介し、バックアップRAM137に対する制御を行う。
 バックアップRAM137は、EEPROM(Electrically Erasable and Programmable Read Only Memory)、FLASH ROM、FRAM、FeRAM、MRAM、OUM、バッテリー付きSRAM等により構成されている。また、バックアップRAM137には、プログラム動作のログ、メンテナンス情報、フロントパネル69及びキーボード14における設定情報、各種設定画面情報及びホワイトバランスデータ等の、プロセッサ4の電源がOFFされてから以降においても保持されるべき情報としての、内視鏡関連情報が格納されている。
 主制御部75のCPU131は、システムバス131aを介し、アドレスデコーダ138と、バスドライバ(以降及び図内においてはBUFと略記する)139とに対する制御を行う。アドレスデコーダ138は、プロセッサ4が有する各部に対してチップセレクト信号を出力する。BUF139はmプロセッサ4が有する各部にシステムバス131aの信号を供給するためのとに対する制御を行う。
 主制御部75のCPU131は、RESET回路140を制御するとともに、システムバス131aを介し、時間管理を行うためのタイマ141に対する制御を行う。
 RESET回路140は、図示しないウォッチドッグタイマ等を有する。RESET回路140は、プロセッサ4の電源がONされたこと、または、プロセッサ4において実行中のプログラムがハングアップしたことのうち、いずれか一方を検知した場合にリセット処理を行う。
 主制御部75のCPU131は、システムバス131aを介し、SIO142及びPIO143に対する制御を行う。
 SIO142は、プロセッサ4が有する各部(拡張制御部77が有するSIO、フロントパネル76及び画像処理部72が有する各部等)、プロセッサ4に接続される周辺機器、キーボード5、内視鏡2AのCPU31A、光源装置3のCPU58が有するSIO58A等と、シリアルインターフェースを介して通信を行うことができる。なお、前記シリアルインターフェースは、調歩同期式、クロック同期式、USB(Universal Serial Bus)(登録商標) HOST/DEVICE、CAN(Controller Area Network)、FLEX RAYまたはI2C等のいずれにより構成されるものであっても良い。なお、SIO142と拡張制御部77が有するSIOとの接続を、図内B1として示すものとする。また、SIO142と周辺機器とを接続するための信号線を、図内142aとして示すものとする。
 PIO143は、プロセッサ4が有する各部(拡張制御部77が有するPIO及び基板接続情報格納回路、画像処理部72の各部等)、プロセッサ4に接続される周辺機器、フットスイッチ6等と、パラレルインターフェースを介して通信を行うことができる。なお、PIO143と拡張制御部77が有するPIOとの接続を、図内B2として示すものとする。また、PIO143と周辺機器とを接続するための信号線を、図内143aとして示すものとする。
 また、PIO143は、信号線63aを介して入力される光源検知信号を、システムバス131aを介してCPU131に対して出力する。また、内視鏡接続検知信号及びスイッチON/OFF信号、各種信号及びデータは、設定保持部606、BUF139を経由してシステムバス131aを介してCPU131に入力される。そして、前段画像処理回路95において生成及び出力される調光信号を、信号線59aを介して光源装置制御部55へ出力する。さらに、PIO143は、拡張制御部77から出力される基板接続検知信号を、システムバス131aを介してCPU131に対して出力する。なお、拡張制御部77からPIO143に対して基板接続検知信号が伝送される経路の接続を、図内B3として示すものとする。
 主制御部75のCPU131は、専用線を介して接続されるDDR-RAM(Double-Data-Rate Random Access Memory)620に対する制御を行う。
 なお、本実施形態において、主制御部75が有するCPU131、RAM132、ROM135、アドレスデコーダ138、リセット回路140、タイマ141、SIO142、及びPIO143の各部は、専用のICにより構成されているが、これに限るものではない。例えば、これらの各部は、FPGA、DSPまたはリコンフィギュラブルプロセッサ等のプログラマブルICにより構成されているものであっても良い。また、画像処理部72、画像圧縮伸長部73及び拡張制御部77が有する各部のうち、前述にて示した主制御部75が有する各部と同様の機能を有する部分については、専用のICにより構成されるものに限らず、プログラマブルICにより構成されるものであっても良い。
 主制御部75のCPU131は、PIO143を介して入力される光源検知信号63aに基づき、例えば、該光源検知信号の信号レベルがLレベルであることを検知した場合、光源装置3との通信が可能である(光源装置3が通信機能を有する機種である)と判別する。また、主制御部75のCPU131は、PIO143を介して入力される光源検知信号に基づき、例えば、該光源検知信号の信号レベルがHレベルであることを検知した場合、光源装置3との通信が不可能である(光源装置3が通信機能を有さない機種である)と判別する。
 なお、前述した、セレクタ94が内視鏡接続検知信号に基づいて行う各動作は、主制御部75のCPU131により、信号線29a、信号線29bまたは信号線29cを介して内視鏡接続検知信号が入力された際に、ROM135に格納されたテーブルデータに基づいて行うものであっても良い。
 プロセッサ4に対して着脱自在に接続される拡張基板として構成された拡張制御部77は、具体的には、例えば、図10に示すような(以下に記すような)、ネットワーク通信機能を有する拡張制御部77Aとして構成される。
 拡張制御部77AのCPU151は、図示しないパラレルインターフェース(またはシリアルインターフェース)と、システムバス151aを介し、RAM152におけるデータの書き込み及び読み込みを制御する。
 RAM152は、例えば、SRAM、SDRAM、DRAMまたはRDRAM等の揮発性メモリとして構成される。RAM152は、プログラム関連データ、内視鏡情報データ、内視鏡画像データなどを格納することができる。また、RAM152は、キャッシュとしても使用することができる。
 拡張制御部77AのCPU151は、システムバス151aを介し、時計等により構成され、時間の管理を行うリアルタイムクロック(以降及び図内においてはRTCと略記する)153を制御する。
 拡張制御部77AのCPU151は、システムバス151aを介し、プログラムデータ、プログラムのバージョンデータ、イーサネット(登録商標)のMACアドレス及びIPアドレス等の各データを格納するROM154に対する制御を行う。
 拡張制御部77AのCPU151は、システムバス151aを介し、バックアップRAM155に対する制御を行う。
 ROM154及びバックアップRAM155は、EEPROM、FLASH ROM、FRAM、FeRAM、MRAM、OUM、バッテリー付きSRAM等により構成されている。また、バックアップRAM155には、プログラム動作のログ、メンテナンス情報、フロントパネル69及びキーボード14における設定情報、各種設定画面情報及びホワイトバランスデータ等の、プロセッサ4の電源がOFFされてから以降においても保持されるべき情報としての、内視鏡関連情報が格納されている。
 拡張制御部77AのCPU151は、システムバス151aを介し、プロセッサ4が有する各部に対してチップセレクト信号を出力するアドレスデコーダ156に対する制御を行う。
 拡張制御部77AのCPU151は、RESET回路157を制御するとともに、システムバス151aを介し、時間管理を行うためのタイマ158に対する制御を行う。
 RESET回路157は、図示しないウォッチドッグタイマ等を有し、プロセッサ4の電源がONされたこと、または、プロセッサ4において実行中のプログラムがハングアップしたことのうち、いずれか一方を検知した場合にリセット処理を行う。
 拡張制御部77AのCPU151は、システムバス151aを介し、SIO159及びPIO160に対する制御を行う。
 SIO159は、プロセッサ4が有する各部(画像出力部121、及び主制御部75が有するSIO等)、及びプロセッサ4に接続される周辺機器等と、シリアルインターフェースを介して通信を行うことができる。なお、前記シリアルインターフェースは、調歩同期式、クロック同期式、USB(登録商標) HOST/DEVICE、CAN、FLEX RAYまたはI2C等のいずれにより構成されるものであっても良い。
 PIO160は、プロセッサ4が有する各部(画像圧縮伸長部73、画像出力部121、及び主制御部75が有するPIO等)、及びプロセッサ4に接続される周辺機器等と、パラレルインターフェースを介して通信を行うことができる。
 拡張制御部77AのCPU151は、専用線を介して接続されるDDR‐RAM625におけるデータの書き込み及び読み込みを制御する。
 拡張制御部77AのCPU151は、システムバス151aを介し、Dual Port RAM626に対する制御を行う。Dual Port RAM626は、BUF139を介して内視鏡関連情報の入出力を行うために用いるものであり、これによりCPU151-CPU131間で内視鏡関連情報を送受信できるようになる。
 拡張制御部77AのCPU151は、システムバス151aを介し、コントローラ161と、HUB162とに対する制御を行う。
 コントローラ161は、イーサネット(登録商標)による通信が可能な構成として、イーサネット(登録商標)のMAC層及び物理層等の回路やミドルウェアを有して構成されている。そして、コントローラ161は、HUB162及びHUB162に接続される信号線162aを介してプロセッサ4に接続される周辺機器との通信を行うことができる。
 拡張制御部77AのCPU151は、システムバス151bを介し、バスブリッジ163に対する制御を行う。なお、システムバス151bは、PCI(Peripheral Component Interconnect)、RAPIDIO、PCI-X、PCI EXPRESS、COMPACT PCI、ISA(Industry Standard Architecture)等のいずれにより構成されているものであっても良い。また、バスブリッジ163と画像圧縮伸長部73との接続を図内C1及びC2として示し、バスブリッジ163と画像圧縮伸長部73との接続を図内C3及びC4として示すものであるとする。
 拡張制御部77AのCPU151は、システムバス151b及びバスブリッジ163を介し、USB(登録商標)インターフェースとしてのコントローラ164に対する制御を行う。
 拡張制御部77AのCPU151は、システムバス151b及びバスブリッジ163を介し、カードコントローラ165に対する制御を行う。
 カードコントローラ165は、図示しないスロットに接続される、画像記録部としてのPCカード167及びメモリカード168に対して制御を行う。なお、メモリカード168は、コンパクトフラッシュ(登録商標)、スマートメディア(登録商標)、SDカード、miniSD(登録商標)カード、PCカード形式のメモリカード、フラッシュドライブ、HDD、マルチメディアカード、xDPictureカードまたはメモリースティック(登録商標)のいずれであっても良い。
 また、カードコントローラ165は、バッファ166に対する制御を行う。画像記録部としてのバッファ166は、コントローラ161と周辺機器との間の通信において、例えば、データの送受信の完了前にプロセッサ4の電源がOFFになった場合であっても、送受信前のデータが消失しないように格納しておくことができる。なお、バッファ166は、コンパクトフラッシュ(登録商標)、スマートメディア(登録商標)、SDカード、miniSD(登録商標)カード、PCカード形式のメモリカード、フラッシュドライブ、HDD、マルチメディアカード、xDPictureカード、メモリースティック(登録商標)またはPCカードのいずれであっても良い。さらに、バッファ166の代わりに、コントローラ164に接続される図示しないUSB(登録商標)メモリが用いられるものであっても良い。
 なお、主制御部75のCPU131及び拡張制御部77AのCPU151は、記録状態の情報を主制御部75のバックアップRAM137または拡張制御部77AのバックアップRAM155に格納しておくことにより、バッファ166が記録途中であるか否かを判断することができる。
 拡張制御部77AのCPU151は、システムバス151b及びバスブリッジ163を介し、グラフィック回路169に対して制御を行う。
 グラフィック回路169は、画像処理部72のSSG123から出力される同期信号に基づき、動画像、静止画像及びWEB表示等に関するグラフィック処理を行う。なお、グラフィック回路169と、画像処理部72の合成回路108H及び合成回路108Sとの接続を、図内A5及びA6として示すものであるとする。
 拡張制御部77AのCPU151は、システムバス151b及びバスブリッジ163を介し、暗号処理回路170に対して制御を行う。
 暗号処理回路170は、周辺機器との通信の際に、セキュリティ情報の付加及び検知を行うとともに、暗号化及び復号化を行うことが可能な回路として構成されている。なお、暗号処理回路170が暗号化の際に用いる暗号化方式は、3DES SSL RSA方式または楕円暗号方式のいずれでもよく、さらに、IPsecまたはSSLのいずれのプロトコルに対応可能であっても良い。
 また、拡張制御部77Aは、拡張制御部77Aが接続された際に、主制御部75のPIOに対して基板接続検知信号を出力する基板接続情報格納回路171を有している。
 なお、基板接続情報格納回路171から出力される基板接続検知信号は、複数のGNDへのプルダウンまたは電源へのプルアップ信号で構成されていても良い。さらに、基板接続情報格納回路171は、拡張制御部77Aの種類の情報を格納した不揮発性メモリとして構成されるものであっても良い。また、基板接続情報格納回路171は、図示しないシリアルインターフェースを介し、主制御部75のSIOに対して基板接続検知信号を出力するものであっても良い。
 さらに、拡張制御部77Aは、例えば、バスブリッジ163、コントローラ164、または、PCカード167及びメモリカード168が挿入されるスロットのいずれかにおいて接続可能な無線制御回路を有する場合に、プロセッサ4に接続される周辺機器との通信を無線により行うことが可能となる。また、前記無線制御回路に応じたアンテナ、メモリ及び暗号化回路が内視鏡2A、内視鏡2B、内視鏡2C、及び図示しない内視鏡用処置具等の各部に搭載されることにより、該各部との内視鏡関連情報のやりとりを無線にて行うこともまた可能である。
 プロセッサ4に対して着脱自在に接続される1または複数の拡張基板である拡張制御部77には、前述した拡張制御部77Aのみが接続されるものに限らず、例えば、図11に示すような(以下に記すような)、ズーム制御機能、及び、内視鏡形状検出装置の一部の機能を有する拡張制御部77Bが併せて接続されるものであっても良い。
 拡張制御部77BのCPU181は、システムバス181aを介し、前述した構成と同様の構成を有する各部である、RAM152、ROM154、アドレスデコーダ156、リセット回路157、タイマ158、SIO159及びPIO160を制御する。また、拡張制御部77BのCPU181は、システムバス181bを介し、前述した構成と同様の構成を有するグラフィック回路169に対する制御を行う。
 また、拡張制御部77Bは、拡張制御部77Bが接続された際に、主制御部75のPIOに対して(基板接続情報格納回路171とは異なる)基板接続検知信号を出力する基板接続情報格納回路182を有している。
 ここで、図11に示す内視鏡形状検出装置1001の構成及び機能等に関する説明を行う。
 内視鏡形状検出装置1001は、ソースコイル駆動回路1001Aと、センスコイル1001Bと、センスコイル信号増幅回路1001Cと、A/Dコンバータ(以降及び図内においてはADCと略記する)1001Dとを有して構成される。
 ソースコイル駆動回路1001Aは、内視鏡2Aが有する複数のソースコイル25A及び内視鏡2Bが有する複数のソースコイル25B及び内視鏡2Cが有する複数のソースコイル25Cに対し、各々異なる周波数の正弦波の駆動信号電流を出力することにより、複数のソースコイル25A及び複数のソースコイル25Bにおいて磁界を発生させる。なお、前記駆動信号電流の周波数は、ソースコイル駆動回路1001Aが有する図示しない駆動周波数設定データ格納手段または駆動周波数設定データ記憶手段に格納された、駆動周波数設定データ(駆動周波数データとも記す)に基づいて設定されるものであるとする。なお、ソースコイル駆動回路1001Aと、内視鏡2A及び内視鏡2B及び内視鏡2Cとの接続を、図内D1として示すものとする。
 内視鏡2Aが有する複数のソースコイル25A及び内視鏡2Bが有する複数のソースコイル25B及び内視鏡2Cが有する複数のソースコイル25Cから発せされる磁界は、センスコイル1001Bにおいて受信され、センスコイル信号増幅回路1001Cにより増幅された後、ADC1001Dによりデジタルデータに変換される。
 ADC1001Dにおいて生成されたデジタルデータは、拡張制御部77Bの制御信号発生部183が行う制御により、ADC1001Dから出力された後、受信回路184を介してメモリ185に入力される。そして、メモリ185に入力されたデジタルデータは、CPU181の制御によりメモリ185から読み込まれる。
 CPU181は、メモリ185から読み込んだデジタルデータに対し、周波数抽出処理(フーリエ変換:FFT)を行う。それから、CPU181は、複数のソースコイル25A及び複数のソースコイル25B及び複数のソースコイル25Cの駆動周波数に対応する周波数成分の磁界検出情報を分離抽出する。そして、CPU181は、該複数のソースコイル25A及び該複数のソースコイル25B及び該複数のソースコイル25Cの空間位置座標を算出する。それから、CPU181は、該空間位置座標に基づいて内視鏡2Aの挿入部21A及び内視鏡2Bの挿入部21B及び内視鏡2Cの挿入部21Cの挿入状態を推定する。そして、CPU181の推定結果に基づき、グラフィック回路により内視鏡形状画像を形成する表示データが生成される。該表示データが合成回路108H及び合成回路108Sにおいてマスク合成された後、出力及び(モニタ等の表示部に)表示される。
 また、ここで、拡張制御部77Bが有するズーム制御機能に関する説明を行う。
 駆動回路186は、主制御部75が有するSIO142及びPIO143を介し、CPU131により制御されるとともに、該制御に基づいてアクチュエータ23Aを駆動させる。これにより対物光学系22Aは、例えば、拡大(テレ)及び広角(ワイド)の各々のモードに応じ、挿入部21Aの軸方向に移動される。一方、駆動回路602は、(接続線がないが)設定保持部606を介し、CPU131により制御される。また、駆動回路602は、該制御に基づいてアクチュエータ23B及び23Cを駆動させる。これにより対物光学系22B及び22Cは、例えば、拡大(テレ)及び広角(ワイド)の各々のモードに応じ、挿入部21B及び挿入部21Cの軸方向に移動される。
 なお、駆動回路186又は駆動回路602と、内視鏡2A又は内視鏡2B及び内視鏡2Cとの接続を、図内D2として示すものとする。
 また、主制御部75のCPU131は、グラフィック回路106S及び106Hを制御する。CPU131は、内視鏡2A,2B,2Cが被写体を撮像する際のズーム状態(拡大または広角)に関する情報であるズームコントロール情報を拡張制御部77Bの駆動回路186又は駆動回路602から取得する。そして、CPU131により取得されたズームコントロール情報は、グラフィック回路106S及び106Hにより画像化され、合成回路108H及び合成回路108Sにおいて合成された後、出力及び(モニタ等の表示部に)表示される。
 なお、拡張制御部77Bが有する、ズーム制御機能を実現するための構成、及び、内視鏡形状検出装置の一部の機能を実現するための構成は、前述したように、一の拡張制御部に一体的に設けられるものに限らず、各々が別体の拡張制御部に設けられるものであっても良く、さらに、該別体の拡張制御部が各々異なる基板接続検知信号を出力するものであっても良い。
 拡張制御部77が、以上に述べたような、1または複数の拡張基板を有する構成であることにより、プロセッサ4は、複数の機能を容易に実現でき、また、容易かつ安価に多種の機能を設定することができる。
 なお、D1は、拡張制御部77Bでなく、内視鏡形状検出装置206C1,206C2に接続されてもよい。
 主制御部75のCPU131は、基板接続情報格納回路171及び基板接続情報格納回路182から出力される基板接続検知信号に基づき、例えば、取得したバイナリデータが「000」であれば拡張制御部77Aのみが接続されたと判断する。CPU131は、所定の画像サイズのネットワーク関連情報(に基づく画像)を自動的に表示させる。所定の画像サイズのネットワーク関連情報(に基づく画像)は、後述する図29の設定画面において設定された所定の位置(画面左上、左下、右上及び右下のいずれか)に、拡張制御部77Aのグラフィック回路169から、図内A5及びA6に示す接続を介して出力される。
 主制御部75のCPU131は、基板接続情報格納回路171及び基板接続情報格納回路182から出力される基板接続検知信号に基づき、例えば、取得したバイナリデータが「001」であれば拡張制御部77Bのみが接続されたと判断する。CPU131は、後述する図29の設定画面において設定された所定の位置(画面左上、左下、右上及び右下のいずれか)に、内視鏡形状検出画像、及びズームコントロール情報を自動的に表示させる。内視鏡形状検出画像は、拡張制御部77Bのグラフィック回路169から、図内A5及びA6に示す接続を介して出力される。ズームコントロール情報は、グラフィック回路106S及び106Hにおいて画像化される。なお、前記内視鏡形状検出画像及び前記ズームコントロール情報は、各々が重ならないように、CPU131により位置及び画像サイズが調整された状態として出力されるものであっても良い。また、前記内視鏡形状検出画像及び前記ズームコントロール情報は、各々が重なって出力される場合の優先度が設定された状態として(例えば、ズームコントロール情報が前面に表示されるといった状態として)出力されるものであっても良い。
 主制御部75のCPU131は、基板接続情報格納回路171及び基板接続情報格納回路182から出力される基板接続検知信号に基づき、例えば、取得したバイナリデータが「100」であれば拡張制御部77A及び拡張制御部77Bの両方が接続されたと判断する。CPU131は、後述する図29の設定画面において設定された所定の位置(画面左上、左下、右上及び右下のいずれか)に、拡張制御部77A及び77Bから出力される、ネットワーク関連情報(に基づく画像)、内視鏡形状検出画像及びズームコントロール情報を自動的に表示させる。
 なお、前記ネットワーク関連情報(に基づく画像)、前記内視鏡形状検出画像及び前記ズームコントロール情報は、各々が重ならないように、CPU131により位置及び画像サイズが調整された状態として出力されるものであっても良い。また、前記ネットワーク関連情報(に基づく画像)、前記内視鏡形状検出画像及び前記ズームコントロール情報は、各々が重なって出力される場合の優先度が設定された状態として(例えば、内視鏡形状検出画像が最前面に表示されるといった状態として)出力されるものであっても良い。
 また、拡張制御部77A及び77Bから出力される情報等は、後述する図29の設定画面において、非表示に設定することも可能である。
 主制御部75のCPU131は、例えば、取得したバイナリデータが「111」であれば、基板接続情報格納回路171及び基板接続情報格納回路182からの基板接続検知信号をいずれも検出できない状態、すなわち、拡張制御部77A及び拡張制御部77Bが両方とも接続されていないと判断する。そのため、CPU131は、拡張制御部77A及び77Bから出力される、ネットワーク関連情報(に基づく画像)、内視鏡形状検出画像及びズームコントロール情報をいずれも表示させない。
 なお、本実施形態においては、前述した拡張制御部77A及び77Bが、拡張制御部77として両方ともプロセッサ4に接続されているとして説明を行うものとする。
 ここで、プロセッサ4の電源がOFFからONに切り替えられた場合、または、プロセッサ4がリセットされた場合において、主制御部75のCPU131が拡張制御部77として接続される各基板を検出する(検出した)際に行う処理についての説明を、図12に示すフローチャートを用いて行う。
 主制御部75のCPU131は、基板接続情報格納回路171(及び基板接続情報格納回路182)から出力される基板接続検知信号に基づき、前述した、拡張制御部77A及び拡張制御部77Bのうち、いずれの拡張基板が拡張制御部77として接続されているかを検出する(図12のステップDDDFLW1)。そして、CPU131は、いずれの拡張基板も接続されていないことを検出した場合(図12のステップDDDFLW2)、拡張制御部77A及び77Bから出力される画像及び情報等をモニタ等に表示せず、処理を終了する。
 また、CPU131は、いずれかの拡張基板が接続されていることを検出した場合、後述する図29の設定画面における「Board」欄の各設定項目のうち、接続された拡張基板に該当する設定情報を参照し、該設定情報に応じた設定を行う(図12のステップDDDFLW3)。
 その後、CPU131は、操作デバイスにおいて、接続された拡張基板に関する情報または画像の表示がONまたはOFFするための入力があったか否かを検出する(図12のステップDDDFLW4及びステップDDDFLW5)。
 そして、CPU131は、操作デバイスにおいて、接続された拡張基板から出力される情報または画像の表示をONするための入力がなされた場合には、該情報または該画像を表示させる制御を行う(図12のステップDDDFLW6)。また、CPU131は、操作デバイスにおいて、接続された拡張基板から出力される情報または画像の表示をOFFするための入力がなされた場合には、該情報または該画像を消去させる制御を行う(図12のステップDDDFLW7)。
 なお、図12の処理として前述した各処理のうち、ステップDDDFLW4からステップDDDFLW7までの処理は、操作デバイスにおいて、後述する、「UPD」の機能、「ZScale」の機能、及び、「NET」の機能のうち、いずれか一の機能が割り当てられたキー等が操作された場合の処理を示すものである。
 図13は、図6のプロセッサが有する、フロントパネル76の構成の一例を示す図である。「ENH」(Enhance)76-1は、強調切り替えを行うための項目である。「IRIS」76-2は、測光(調光)切り替えを行うための項目である。「CUSTOM」76-3は、操作者がカスタマイズした設定を登録するための項目である。
 「EXAM」76-4は、検査の開始/終了をサーバー212に通知する為のスイッチ(キーボード5にもある)である。検査開始のときスイッチやLEDが点灯、検査終了のとき消灯するようにしてもよい。また、メニュー画面(不図示)で検査開始/終了のスイッチの機能のOn/offができるようにしてもよく、機能OFF時は、スイッチ/LEDが消灯にするようにしてもよい。また、検査開始スイッチを押したときに、所定のメニュー画面を表示させて、検査時に画面に表示させる文字情報やPinP(Picture in Picture)またはPoutP(Picture out Picture)画像を選択できるようにしてもよい。PinP画像またはPoutP画像とは、符号330,331の画像、又は合成回路108H及び合成回路108Sに入力される信号A5,F1,F2,A3,A3’,A6,A4,A4’で示される画像である。
 「WHT BAL」76-5は、ホワイトバランスを調整するための項目である。「リセット」76-6は、プロセッサ4をリセットする項目である。「MEMORY」76-7は、USBメモリ210との接続のために用いられる項目である。
 「MEMORY」76-7のコネクタに、USBメモリ210を接続すると、“RDY/BUSY”が点灯し、USBメモリ210を接続したことを示す。また“RDY/BUSY”の左隣にあるLEDが緑色に点灯する。
 USBメモリ210と送受信しているときは、“RDY/BUSY”の左隣にある左隣のLEDがオレンジ色の点滅になる。
 USBメモリ210と送受信している時に、STOPスイッチが押されると、送受信を中断し、また“RDY/BUSY”の左隣にあるLEDが緑色に点灯する。
 また、USBメモリ210を抜去して未接続にした場合は、“RDY/BUSY”が消灯し、“RDY/BUSY”の左隣にあるLEDが消灯する。
 ここで、図14を用いてSIO142の変形例について説明する。CPU131は、SIO142内のUSBホストコントローラ680を経由して、USBインターフェースにて、キーボード5、USB‐RS232C変換アダプタ687、プリンタ202を制御する。
 キーボード5、USB‐RS232C変換アダプタ687は、バスパワー駆動(プロセッサ4から電源を供給する)なので、CPU131は、USBホストコントローラ680を経由して電源ON後、電源供給回路から電源を供給する。
 また、CPU131は、定期的(例えば、1[sec]ごと)にコマンドを出力し、キーボード5、USB‐RS232C変換アダプタ687から正常応答を受信することで正常に動作していることを確認する。
 外来ノイズや(図示しないものも含め)周辺機器などからのノイズなどにより、キーボード5、USB‐RS232C変換アダプタ687がハングアップした場合などのように、正常応答が受信されなかった場合は、CPU131は次を行う、すなわち、CPU131は電源供給回路からの電源供給をOFFからONへすることにより、キーボード5、USB‐RS232C変換アダプタ687の初期化処理を行うようにしてもよい。
 また、プリンタ202はセルフパワーで動作している為、外来ノイズや図示しないものも含め)周辺機器などからのノイズなどにより、ハングアップした場合は、CPU131は次を行う。すなわち、CPU131は電源供給回路からの電源供給はOFFからONへせず、コマンドの初期化のみ(バスリセット処理)行うようにしてもよい。
 また、コネクタ684、コネクタ685、コネクタ686はUSB規格に準拠するUSBコネクタを使用するが、それぞれキーボード5、USB‐RS232C変換アダプタ687、プリンタ202専用としてもよい。その時は、コネクタ専用外の装置が接続された場合(例えば、コネクタ684にキーボード以外の装置(USB‐RS232C変換アダプタ687又はプリンタ202)が接続された場合)にエラー表示・警告を出すようにしてもよい。なお、フロントパネル76には、警告を出すブザーが搭載されていてもよい。
 図15から図20は、プロセッサ4に接続され得る(接続可能な)周辺機器の概略の構成を示す図である。なお、プロセッサ4に接続され得る周辺機器には、以降に説明するように、表示サイズ(出力サイズ)4:3のみに対応した機器と、表示サイズ(出力サイズ)16:9及び4:3の双方に対応可能な機器とが存在するものとする。また、各表示サイズの一例を図21、図22に示す。また、図15から図19までに示す各機器のうち、入力される信号(画像)の記録が可能であるファイリング装置等の機器は、画像記録部としての構成を有するものであるとし、入力される信号(画像)の表示が可能であるモニタ等の機器は、表示部としての構成を有するものであるとする。
 図15に示す各周辺機器としての、モニタ201A、プリンタ202A、VTR203A、ファイリング装置204A及び写真撮影装置205Aは、SDTV方式におけるアナログ信号の入出力、記録及び表示のうち、少なくともいずれか一が可能な機器である。そして、図15に示す各周辺機器は、信号線111Saを介して画像処理部72に接続されるとともに、主制御部75のSIO142及びPIO143にも接続される。
 図16に示す周辺機器のうち、モニタ201B1、プリンタ202B1、VTR203B1、ファイリング装置204B1及び写真撮影装置205B1は、HDTV方式におけるアナログ信号の入出力、記録及び表示のうち、少なくともいずれか一が可能な機器であるとともに、表示サイズ4:3のみに対応した機器である。また、図16に示す周辺機器のうち、モニタ201B2、プリンタ202B2、VTR203B2、ファイリング装置204B2及び写真撮影装置205B2は、HDTV方式におけるアナログ信号の入出力、記録及び表示のうち、少なくともいずれか一が可能な機器であるとともに、表示サイズ16:9及び4:3の双方に対応可能な機器である。そして、図16に示す各周辺機器は、信号線111Haを介して画像処理部72に接続されるとともに、主制御部75のSIO142及びPIO143にも接続される。
 図17に示す周辺機器のうち、モニタ201C1、プリンタ202C1、VTR203C1、ファイリング装置204C1、写真撮影装置205C1、内視鏡形状検出装置206C1及び超音波装置207C1は、SDTV方式及びHDTV方式におけるアナログ信号(またはデジタル信号)の入出力、記録及び表示のうち、少なくともいずれか一が可能な機器であるとともに、表示サイズ4:3のみに対応した機器である。また、図17に示す周辺機器のうち、モニタ201C2、プリンタ202C2、VTR203C2、ファイリング装置204C2、写真撮影装置205C2、内視鏡形状検出装置206C2及び超音波装置207C2は、SDTV方式及びHDTV方式におけるアナログ信号(またはデジタル信号)の入出力、記録及び表示のうち、少なくともいずれか一が可能な機器であるとともに、表示サイズ16:9及び4:3の双方に対応可能な機器である。そして、図17に示す各周辺機器は、信号線121aを介して画像処理部72に接続されるとともに、主制御部75のSIO142及びPIO143にも接続される。さらに、図17に示す各周辺機器は、図内E1に示す信号線の接続により、拡張制御部77Aのコントローラ164との接続が可能である。
 図18に示す周辺機器のうち、プリンタ202D1、ファイリング装置204D1、写真撮影装置205D1、光学記録装置208D1、HID209D1は、USB(登録商標)インターフェースによる入出力、記録及び表示のうち、少なくともいずれか一が可能な機器であるとともに、表示サイズ4:3のみに対応した機器である。また、図18に示す周辺機器のうち、プリンタ202D2、ファイリング装置204D2、写真撮影装置205D2、光学記録装置208D2、HID209D2は、USB(登録商標)インターフェースによる入出力、記録及び表示のうち、少なくともいずれか一が可能な機器であるとともに、表示サイズ16:9及び4:3の双方に対応可能な機器である。なお、USBメモリ210は、USB(登録商標)インターフェースを介して、図内E2に示す信号線から送られてくるデータを記録することができる不揮発性メモリである。さらに、図18に示す各周辺機器は、図内E2に示す信号線の接続により、拡張制御部77Aのコントローラ164との接続が可能である。なお、光学記録装置208D1及び208D2は、MO、DVD(ブルーレイ及びHDDVDを含む)またはCD±R/W等のいずれかからなるものであるとする。また、HID209D1及び209D2は、キーボード、マウスまたはホイール等のいずれかからなる操作デバイスであるとする。
 図19に示す周辺機器のうち、プリンタ202E1、ファイリング装置204E1、写真撮影装置205E1、光学記録装置208E1、HUB211は、イーサネット(登録商標)インターフェースによる入出力、記録及び表示のうち、少なくともいずれか一が可能な機器であるとともに、表示サイズ4:3のみに対応した機器である。また、図19に示す周辺機器のうち、プリンタ202E2、ファイリング装置204E2、写真撮影装置205E2、及び光学記録装置208E2、HUB211は、拡張制御部77Aのネットワーク通信機能により、ネットワークを介してプロセッサ4に接続される。プリンタ202E2、ファイリング装置204E2、写真撮影装置205E2、及び光学記録装置208E2、HUB211は、、例えば、イーサネット(登録商標)インターフェースによる入出力、記録及び表示のうち、少なくともいずれか一が可能な機器であるとともに、表示サイズ16:9及び4:3の双方に対応可能な機器である。さらに、図19に示す各周辺機器は、信号線162aを介し、拡張制御部77AのHUB162との接続が可能である。なお、光学記録装置208E1及び208E2は、MO、DVDまたはCD±R/W等のいずれかからなるものであるとする。
 HUB211は、例えばLAN等のネットワークを介してサーバー212またはPC端末213と接続される。
 図20に示すキーボード5には、主として、セットアップ部5-1、観察部5-2、RGBフィルタ52、観察モード部5-3、UPD部5-4、「EXAM」スイッチ及び情報部5-5、キー入力部5-6、テンキー部5-7からなる。セットアップ部5-1は、プロセッサ4のセットアップに関する設定を行う。観察部5-2は、観察環境についての制御を行う。観察モード部5-3は、RGBフィルタ52と、ランプ51から発せされる白色光のうち、所定の帯域の波長をカットすることにより、狭帯域な光(NBI、AFI、IRI)を生成する複数(例えば3つ)の特殊光フィルタ53A、53B及び53Cを制御する。RGBフィルタ52は、観察モードを切り替える(光源装置3の、白色光(Normal)をRGBの面順次光に変換する。UPD部5-4は、内視鏡形状検出装置(UPD)の制御を行う。情報部5-5は、検査の開始/終了をサーバー212に通知する為のスイッチである「EXAM」スイッチ及びメニュー画面を表示させるメニュースイッチを有する。
 UPD部5-4には、マーキングスイッチ5-41、リセットボタン5-42、1画面/2画面ボタン5-43と、左回転ボタン5-44、右回転ボタン5-45、スコープポジションボタン5-46が設けてある。リセットボタン5-42は、リセット操作を行う。
 1画面/2画面ボタン5-43は、1画面と2画面の表示の指示を行う。左回転ボタン5-44は、内視鏡挿入形状を左回転させてビューアングルを変更する。右回転ボタン5-45は、内視鏡挿入形状を右回転させてビューアングルを変更する。スコープポジションボタン5-46は、内視鏡挿入形状の表示の開始位置の設定を行う。また、シフトキーを押しながら、左回転ボタン5-44を押すと、内視鏡挿入形状の縮小を行うことができる。また、シフトキーを押しながら、右回転ボタン5-45を押すと、内視鏡挿入形状の拡大を行うことができる。
 このように、UPD部5-4を用いることにより、キーボード5を用いて内視鏡形状検出装置をリモートで操作することができる。なお、内視鏡形状検出装置が接続されているときは、UPD部5-4のボタン部分のLEDは点灯している。内視鏡形状検出装置が未接続時のときは、UPD部5-4のボタン部分のLEDは消灯している。この場合、キーボード5を用いて内視鏡形状検出装置を制御できないことを示す。
 なお、詳細については、特許第3971422号に記載とする。
 図23は、画像圧縮伸長部73の構成の一例を示す。まずは、画像を録画する場合について説明する。マスク処理回路611Hから出力されて信号線125aを介して送られたHD画像信号は分岐され、その一方のHD画像信号はFIFO634Hを介して、アービタ633へ出力される。分岐した他方のHD画像信号はサムネイル画像生成回路635Hへ出力される。
 サムネイル画像生成回路634Hは、マスク処理回路611Hから出力されて信号線125aを介して送られたHD画像信号に基づいてサムネイル画像を生成する。また、サムネイル画像生成回路634Hは、例えば、レリーズまたはプリンタへのキャプチャ等の記録指示が各操作デバイスにおいて行われる毎に、画像メモリ654に格納された前記サムネイル画像を出力する。
 また、マスク処理回路611Sから出力されて信号線124aを介して送られたSD画像信号は分岐される。、分岐した一方のSD画像信号はFIFO634Sを介して、アービタ633へ出力される。分岐した他方のSD画像信号はサムネイル画像生成回路635Sへ出力される。
 サムネイル画像生成回路635Sは、マスク処理回路611Sから出力されて信号線124aを介して送られたSD画像信号に基づいてサムネイル画像を生成する。また、サムネイル画像生成回路635Sは、例えば、レリーズまたはプリンタへのキャプチャ等の記録指示が各操作デバイスにおいて行われる毎に、画像メモリ654に格納された前記サムネイル画像を出力する。
 フレーム同期+RGB変換回路613,613’から出力されて信号線607,607’を介して送られた画像信号はそれぞれ、FIFO640,640’を介してアービタ633に出力される。
 アービタ633は、自身に入力された画像信号をラウンドロビン方式または処理に応じた優先順位で、外部の各部へ出力する。
 アービタ633へ出力されたこれらの画像信号は、画像メモリ654に一旦格納される。その後、これらの画像信号は、アービタ633及び各FIFO644,646,648,650を介して、JPEGエンコード/デコード回路647、TIFF・BMP変換回路647、またはYUV-RGB変換回路651へ出力される。
 JPEGエンコード/デコード回路645は、FIFO644を介して入力された画像信号に対して、JPEGエンコード/デコード処理(YUV-RGB変換を同時に実行可能)を行う。
 TIFF・BMP変換回路647は、FIFO646を介して入力された画像信号に対して、TIFFまたはBMPのいずれかのフォーマットにエンコード(または変換)する。
 拡大縮小回路649は、FIFO648を介して入力された画像信号に対して、画像の拡大処理または縮小処理を行う。
 YUV-RGB変換回路651は、FIFO650を介して入力された画像信号に対して、YUV-RGB変換処理を行う。
 なお、FIFO644,646,648,650,652,653、JPEGエンコード/デコード回路645、TIFF・BMP変換回路647、またはYUV-RGB変換回路651は、内部クロックに基づく制御信号CTL1で制御される。
 JPEGエンコード/デコード回路645、TIFF・BMP変換回路647、拡大縮小回路649、またはYUV-RGB変換回路651で処理された画像信号は、各FIFO644,646,648,650を介して、さらに、アービタ633を介して画像メモリ654へ格納される。
 画像メモリ654へ格納された画像信号は、後述するCPU151の制御により、アービタ633及びFIFO652を介して、信号線C1を介してバスブリッジ163へ出力される。
 次に、画像を再生する場合について説明する。記録されていた画像信号が、CPU151の制御により、バスブリッジ163、信号線C3、アービタ633を介して画像メモリ564へ出力される。画像メモリ654へ出力された画像信号は、アービタ633及び各FIFO644,646,648,650を介して、JPEGエンコード/デコード回路645、TIFF・BMP変換回路647、拡大縮小回路649、またはYUV-RGB変換回路651へ出力される。
 JPEGエンコード/デコード回路645、TIFF・BMP変換回路647、拡大縮小回路649、またはYUV-RGB変換回路651のそれぞれで処理された画像信号は、各FIFO644,646,648,650を介して、さらに、アービタ633を介して画像メモリ654へ格納される。
 画像メモリ654へ格納された画像信号は、FIFO642を介して信号線F1へ、またはFIFO643を介して信号線F2へ出力される。信号線F1、F2へ出力された信号は、合成回路108Hまたは108Sへ出力される。
 ここで、SSG123からの信号は、同期信号チェック回路631により外来ノイズ等の影響が除去され、画像キャプチャ・合成用コントロール632へ入力される。このとき、画像キャプチャ・合成用コントロール632は、その入力された信号に基づいて、HDTV画像用制御信号660H及びSDTV画像用制御信号660Sを生成する。
 HDTV画像用制御信号660HとSDTV画像用制御信号660Sは、SD/HD判別信号615に基づいて、セレクタ641によりその一方の制御信号が選択される(選択された制御信号を制御信号661で表す)。また、HDTV画像用制御信号660HとSDTV画像用制御信号660Sは、SD/HD判別信号615’に基づいて、セレクタ641’によりその一方の制御信号が選択される(選択された制御信号を制御信号661’で表す)。
 メモリコントローラ655は、HDTV画像用制御信号660H、SDTV画像用制御信号660S、制御信号CTL1、制御信号661、または制御信号661’に基づいて、制御信号662を出力する。
 HDTV画像用制御信号660Hは、FIFO634H、サムネイル画像生成回路635H、FIFO636H、FIFO642、メモリコントローラ655に対して出力される。
 SDTV画像用制御信号660Sは、FIFO634S、サムネイル画像生成回路635S、FIFO636S、FIFO643、メモリコントローラ655に対して出力される。
 制御信号661は、FIFO640、メモリコントローラ655に対して出力される。制御信号661’は、FIFO640’、メモリコントローラ655に対して出力される。
 制御信号662は、アービタ633、FIFO634H,636H,634S,636S,640,640’,642,643,644,646,648,650,652,653に対して出力される。
 図24は、同期信号チェック回路631の構成例を示す。同期信号チェック回路631では、以下で説明する同期信号チェックをHDTVとSDTVそれぞれについて行う。
 CLK検知部670には、SSG123からの信号である映像用クロック(74MHz、27MHz)と内部クロックが入力される。CLK検知部670は、映像用クロックのカウント値=内部クロックのカウント値(=特定の時間)を監視し、≠になったときに、NGを出力する。
 HSYNC検知部671には、SSG123からの信号である水平同期信号(HSYNC)及び映像用クロック(例えば、74MHz、27MHz、13.5MHz)が入力される。HSYNC検知部671は、1水平同期期間が規格値と一致するかを監視し、一致しないときすぐにNGを出力する。また、HSYNC検知部671は、OKの出力をHSYNC信号に同期して行う。
 VSYNC検知部672には、SSG123からの信号である垂直同期信号(VSYNC)、水平同期信号(HSYNC)、及びODD/EVEN判別信号が入力される。VSYNC検知部672は、1垂直同期期間が規格値と一致するかを監視し、一致しない時すぐにNGを出力(ODD/EVEN判別信号によりODD期間、EVEN期間それぞれの垂直同期期間を判別する)。また、VSYNC検知部672は、HSYNCをトリガとしてカウントする。また、VSYNC検知部672は、OKの出力を、フレーム同期をさせて行う。また、VSYNC検知部672は、ODD/EVEN判別信号によりODD→EVEN→ODD→EVENの順で信号が入力されているかも監視する。
 CLK検知部670、HSYNC検知部671、及びVSYNC検知部672から出力された結果は、AND回路673に入力される。AND回路673は、CLK検知部670、HSYNC検知部671、及びVSYNC検知部672からの入力がすべてOKのときのみ「1」を画像キャプチャ・合成用コントロール632へ出力する。
 このとき、レリーズ動作フロー中に、前述したノイズなどの影響で同期信号が乱れ、チェック結果がNGになった場合、同期信号が正常になりチェック結果がOKになるまで、画像メモリ654への格納を中断する。同期信号の周期(フレーム周期)でチェック結果信号(OK)が出力されため、画像メモリ654への格納の復帰はフレームの頭から行うことが可能である(NGはすぐに出力される為、格納処理はすぐに中断される)。ここでのレリーズ動作とは、信号線125aからのHDTVフリーズ画像とサムネイル画像を画像メモリ654に格納すると共に、該サムネイル画像の表示位置を設定することをいう。、またはレリーズ動作とは、信号線124aからのSDTVフリーズ画像とサムネイル画像を画像メモリ654に格納すると共に、該サムネイル画像の表示位置を設定することをいう。
 図25は、合成回路108Hまたは108Sにおいて生成される内視鏡合成画像の一例を示す図である。図25に示す各要素についての説明を、以降の項目1)から27)までに示す。
 1)内視鏡画像301は、
・内視鏡2A(または内視鏡2Bまたは内視鏡2C)の接続時には常時表示(非接続時は非表示)される。
 ・操作デバイスに割り当てられた画像サイズ変更キーの操作等により、画像サイズが変更される。
 2)A/D or DEC612,612’から入力され、合成108S,108Hで合成されるA3,A4,A3’,A4’の画像の表示例を330、331に示す。(本例では、内視鏡形状検出装置の画像を330及び超音波装置の画像を331が表示されている。)なお、内視鏡形状検出装置の画像330及び超音波装置の画像331は、図25のように、内視鏡合成画像として画面に表示されている場合にのみ、後述するレリーズ指示時に、後述する図32-38の外部画像1、外部画像2として記録されるようにする。内視鏡形状検出装置の画像330及び超音波装置の画像331は、内視鏡合成画像として表示されていないとき(消去されている時)にレリーズ指示された時は、外部画像としては記録されないようにしてもよい。
 3)アローポインタ301aは、
・緑色等の(生体内の被写体の色との区別がつきやすい)色により表示される。
 ・(例えば信号線111Saを介して出力される)SDTVの画像の出力と、(例えば信号線111Haを介して出力される)HDTVの画像の出力との相対位置を合わせて表示される。
 ・キーボード5のキー入力(例えば、「SHIFT」キーとカーソルキー(「↑」「↓」「←」「→」キー)との組み合わせ)に応じ、表示、消去及び先端側の向きの変更が可能である。
 ・キーボード5が有するカーソルキーの操作により、画像上における移動が可能である。
 ・キーボード5における所定の操作(または検査終了通知機能を有するキー等の操作)が行われた場合に非表示となる。
 ・キーボード5が有する所定のキーの操作により、いずれか一方を選択可能であるとともに、各々独立して表示、消去及び移動させることが可能である。
 4)ID No.(患者ID)303は、
・データ未入力時または検査終了通知機能を有するキー等の操作がなされた際には、項目名(ID No.)が表示される。また、キーボード5等によるデータの入力に応じて項目名が自動的に消去され、15文字までの入力データが表示される。
 ・データ未入力状態の際に、キーボード5が有するカーソルキー等のキー入力によりカーソル移動があった場合には、項目名が消去される。
 ・周辺機器から患者IDデータを受信した際には、受信した該IDデータが表示される。
 5)Name(患者名)304は、
・データ未入力時または検査終了通知機能を有するキー等の操作がなされた際には、項目名(Name)が表示される。また、キーボード5等によるデータの入力に応じて項目名が自動的に消去され、20文字までの入力データが表示される。
 ・データ中にスペースが有る場合、スペースの位置において改行される。(例えば、図25においては、「yamada」と「gentle」との間にスペースが存在するため、「gentle」が下の行に表示されている。)
・データ未入力状態の際に、キーボード5が有するカーソルキー等のキー入力によりカーソル移動があった場合には、項目名が消去される。
 ・周辺機器から患者名データを受信した際には、受信した該患者名データが表示される。
 6)Sex(患者名)305は、
・データ未入力時または検査終了通知機能を有するキー等の操作がなされた際には、項目名(Sex)が表示される。また、キーボード5等によるデータの入力に応じて項目名が自動的に消去され、1文字までの入力データが表示される。
 ・データ未入力状態の際に、キーボード5が有するカーソルキー等のキー入力によりカーソル移動があった場合には、項目名が消去される。
 ・周辺機器から患者名データを受信した際には、受信した該患者名データが表示される。
 7)Age(患者年齢)306は、
・データ未入力時または検査終了通知機能を有するキー等の操作がなされた際には、項目名(Age)が表示される。また、キーボード5等によるデータの入力に応じて項目名が自動的に消去され、3文字までの入力データが表示される。
 ・D.O.Birthが入力された際には、CPU131による年齢計算が行われ、自動的に入力及び表示される。
 ・データ未入力状態の際に、キーボード5が有するカーソルキー等のキー入力によりカーソル移動があった場合には、項目名が消去される。
 ・周辺機器から患者年齢データを受信した際には、受信した該患者年齢データが表示される。
 8)D.O.Birth(患者生年月日)307は、
・データ未入力時または検査終了通知機能を有するキー等の操作がなされた際には、項目名(D.O.Birth)が表示される。また、キーボード5等によるデータの入力に応じて項目名が自動的に消去され、入力データが表示される。
 ・データ未入力状態の際に、キーボード5が有するカーソルキー等のキー入力によりカーソル移動があった場合には、項目名が消去される。
 ・西暦表示の場合には8文字まで、また、和暦表示時には7文字まで(M:明治、T:大正、S:昭和、H:平成)入力可能であるとする。なお、プロセッサ4の設定画面上において、表示形式の設定が可能である。
 ・周辺機器から患者生年月日データを受信した際には、受信した該患者生年月日データが表示される。
 9)時刻情報308は、
・現在の日付及び時刻と、ストップウォッチとが表示される。なお、プロセッサ4の設定画面上において日付及び時刻の設定が可能である。これについて、図26を用いて説明する。図26に示すように、時刻情報308には、現在の日付(308a)及び時刻(308b)と、ストップウォッチの計測時間及び一時停止時間(308c)と、ストップウォッチのスプリット時間(308d)が表示される。なお、スプリット機能は、キーボードのストップウォッチキーとシフトキーとを組み合わせて押下することにより実現できる。
 ・省略表示されるものでも良い。また、前記省略表示の際に、内視鏡画像に重ならないように、日付、時刻は下2桁のみが表示されるものであっても良い。
 ・出力される画像の方式(SDTVまたはHDTV)によって、ストップウォッチの表示位置が異なるものであっても良い。
 ・SDTV出力において、ストップウォッチ動作時に、日付を非表示とするものであっても良い。
 ・例えば、ストップウォッチがHH”MM’SS(時”分’秒)の表示形式により表示されるものであるとする。
 ・フリーズキーによりフリーズされた場合にはフリーズしない(但し、ストップウォッチは除くものとする)。
 10)SCV309は、
・項目(「SCV:」)と、プロセッサ4の設定画面上において選択された写真撮影装置(写真撮影装置205A、205B1、205B2、205C1、205C2、205D1、205D2、205E1及び205E2のうちのいずれか)におけるRelease動作のカウント値とが表示される。(プロセッサ4の設定画面上においてOFFに設定されている場合には表示されない。)
・前記写真撮影装置との通信が確立した場合、前記写真撮影装置から出力されるカウント値が表示される。また、前記写真撮影装置との通信が確立した以外の場合、主制御部75のCPU131がカウントしたRelease動作のカウント値が表示される。
 11)CVP310は、
・プロセッサ4の設定画面上において選択されたプリンタ(プリンタ202A、202B1、202B2、202C1、202C2、202D1、202D2、202E1及び202E2のうちのいずれか)との通信が確立している場合に、項目(「CVP:」)と、キャプチャ数、分割数及びメモリページとが表示される。
 12)D.F311は、
・プロセッサ4の設定画面上において選択されたファイリング装置(ファイリング装置204A、204B1、204B2、204C1、204C2、204D1、204D2、204E1及び204E2のうちのいずれか)との通信が確立している場合に、項目(「D.F:」)と、Release動作のカウント値とが表示される。(なお、前記カウント値は、前記ファイリング装置から出力されるカウントコマンドに基づく値である。)
13)VTR312は、
・プロセッサ4の設定画面上において選択されたVTR(VTR203A、203B1、203B2、203C1及び203C2のうちのいずれか)等との通信が確立しており、かつ、該VTR等による動画像の記録、または、該VTR等に記録された動画像の再生を実行中の場合に表示される。
 14)PUMP313は、
・図示しない前方送水ポンプとの通信が確立しており、かつ、該前方送水ポンプが駆動している最中に表示される。
 15)周辺機器用エリア314は、
・周辺機器からのエラー情報等の受信データが、最大20文字により表示される(10文字/1行)
16)Physician(医師名)315は、
・データ未入力時または検査終了通知機能を有するキー等の操作がなされた際には、項目名(Physician)が表示される(なお、検査終了通知機能を有するキー等の操作がなされた際に消去してもよい)。また、キーボード5等によるデータの入力に応じて項目名が自動的に消去され、20文字までの入力データが表示される。
 ・データ未入力状態の際に、キーボード5が有するカーソルキー等のキー入力によりカーソル移動があった場合には、項目名が消去される。
 ・周辺機器から医師名データを受信した際には、受信した該医師名データが表示される。
 17)Comment316は、
・データ未入力時には、項目名(Comment)が表示される(なお、検査終了通知機能を有するキー等の操作がなされた際に表示してもよい)。また、キーボード5等によるデータの入力に応じて項目名が自動的に消去され、37文字までの入力データが表示される。
 ・周辺機器からコメントデータを受信した際には、受信した該コメントデータが表示される。
 18)内視鏡スイッチ情報317は、
・内視鏡2A(2B)の操作スイッチ部28A(28B)に割り当てられた各機能が、スィッチ毎に表示される。
 19)内視鏡関連情報318は、
・内視鏡2A(2Bまたは2C)のメモリ30A(30Bまたは30C)に格納された、該内視鏡2A(2Bまたは2C)に関する情報が表示される。
 20)カーソル319は、
・文字挿入モードにおいて、例えば「I」が表示される(キーボード5の「INS」キーまたは「Insert」キーオフ時)。
 ・文字上書きモードにおいて、例えば、所定の色により塗りつぶされた四角形が表示される(キーボード5の「INS」キーまたは「Insert」キーオフ時)。
 ・ローマ字入力モードにおいて、例えば、文字挿入モードと異なる色(水色等)の「I」が表示される(キーボード5の「ローマ字」キーオン時)。
 ・キーボード5の「CAPS LOCK」キーオン時には、大文字の入力が可能となる。
 ・キーボード5の「CAPS LOCK」キーオフ時には、カーソルの高さが「CAPS LOCK」キーオン時の半分になり、小文字の入力が可能となる。
 ・点滅する。
 21)コントラスト(CT)320Aは、
・操作デバイスに割り当てられた、コントラストキーにより設定されたコントラスト設定が表示される。(表示例:「N」…Normal、「L」…Low、「H」…High、「4」…無補正)
22)色彩強調(CE)321Aは、
・操作デバイスに割り当てられた色彩強調キーにより設定された色彩強調の設定が表示される。
 23)ヘモグロビンインデックス(IHb)322Aは、
・フリーズスイッチが操作されてフリーズ画像が出力された場合のIHb値がIHb322Aに表示される。
 ・フリーズ指示がなされていない場合には、「---」が表示される。
 ・後述する光源フィルタ種類325Aにおいて、「AFI」が表示されている場合には、表示しないようにしても良い。
 24)構造強調(EH)/輪郭強調(ED)323Aは、
・操作デバイスに割り当てられた強調キーにより設定された構造強調または輪郭強調の設定が表示される。
 ・構造強調Aを示す「EH:A*」と、構造強調Bを示す「EH:B*」とのうちのいずれかが、構造強調時に表示される(*はいずれも数値)。
 ・「ED:O」「ED:L」「ED:H」の3種のいずれか、または、「ED:L」「ED:M」「ED:H」の3種のいずれかが、輪郭強調時に表示される。
 25)拡大率324Aは、
・操作デバイスに割り当てられた電子拡大キーにより設定された電子拡大の設定が表示される。
 ・電子拡大に対応したCCDを有する内視鏡がプロセッサ4に接続された状態においてのみ表示される。
 26)光源フィルタ種類325Aは、
・光源装置3が有する各特殊光フィルタのうち、観察の内容に応じて使用設定されているフィルタの種類が表示される。
 ・通常光観察に対応したフィルタが使用設定されている場合(またはどの特殊光フィルタも用いられていない場合)、「Normal(またはNr)」が表示される。
 ・狭帯域光観察に対応したフィルタが使用設定されている場合、「NBI」が表示される。
 ・蛍光観察に対応したフィルタが使用設定されている場合、「AFI」が表示される。
 ・赤外光観察に対応したフィルタが使用設定されている場合、「IRI」が表示される。
 27)サムネイル画像326は、
・最大4つの(サムネイル画像用の)画像が表示される。(表示OFFに設定できても良く、また、検査終了通知機能を有するキー等の操作がなされた後、さらに、レリーズ機能が割り当てられたキーまたはスイッチが最初に入力された際に消去されるものであっても良い。)なお、サムネイル画像326は、メニュー表示時には、更新しないようにするか黒画像になるようにしてもよい。
 なお、以降の説明においては、説明の簡単のため、項目4)から20)までの各項目の要素、すなわち、ID No.303からカーソル319までの要素を観察情報群300として示す。内視鏡画像301に関する情報であるコントラスト320Aから光源フィルタ種類325Aまでの要素を画像関連情報群301Aとして示す。複数のサムネイル画像326をサムネイル画像群326Aとして示す。
 なお、図27に示すように、HDTVのように表示領域にスペースがある場合には、サムネイル画像326を4枚表示するようにしてもよい。図28に示すように、SDTVのように表示領域にスペースがない場合には、最新の1枚のサムネイル画像326を表示するようにしてもよい。
 なお、周辺機器との接続状態(SCV309、CVP310、D.F311、VTR312、PUMP313)について、常時表示/時限表示/非表示をメニューで設定できるようにしてもよい。
 図29は、プロセッサ4の設定画面の一例を示す図である。ここで、前記設定画面において設定可能な項目及び該項目に関連した機能についての説明を行う。なお、図29に示すようなプロセッサ4の設定画面は、例えば、画像処理部72のグラフィック回路106S(106H)において生成されるものであるとする。
 項目「thumbnail」は、サムネイル画像の作成を行うか否かの設定が可能な項目である。項目「thumbnail」が「ON」に設定された場合、主制御部75のCPU131は、次の処理を行う。すなわち、主制御部75のCPU131は、アービタ633を制御し、出力用画像を画像圧縮伸長部73のサムネイル画像生成回路635H,635Sを介して出力させる。また、項目「thumbnail」が「OFF」に設定された場合、主制御部のCPU131は、サムネイル画像生成回路635H,635Sを動作させない。
 項目「Scope Switch」は、操作デバイスとしての内視鏡2Aの操作スイッチ部28A、及び、操作デバイスとしての内視鏡2Bの操作スイッチ部28B、操作デバイスとしての内視鏡2Cの操作スイッチ部28Cが有する各スイッチに主制御部のCPU131が割り当てる機能を設定可能な項目である。なお、前記各スイッチに割り当て可能な機能の詳細については、後述するものとする。
 項目「Foot Switch」は、操作デバイスとしてのフットスイッチ6が有する各スイッチに主制御部75のCPU131が割り当てる機能を設定可能な項目である。なお、前記各スイッチに割り当て可能な機能の詳細については、後述するものとする。
 項目「Keyboard」は、操作デバイスとしてのキーボード5が有する各キーのうち、1または複数のキーに主制御部のCPU131が割り当てる機能を設定可能な項目である。なお、前記1または複数のキーに割り当て可能な機能の詳細については、後述するものとする。
 項目「Front Panel」は、操作デバイスとしてのフロントパネル76が有する各スイッチのうち、1または複数のスイッチに主制御部75のCPU131が割り当てる機能を設定可能な項目である。なお、前記1または複数のスイッチに割り当て可能な機能の詳細については、後述するものとする。
 「SDTV」欄の項目「Release1」、「Release2」、「Release3」及び「Release4」は、項目「Scope Switch」、「Foot Switch」、「Keyboard」及び「Front Panel」のいずれかに割り当て可能な機能のうち、SDTV方式の静止画像の記録に関する機能の一部であるとともに、以下に示す各子項目により、該静止画像の記録条件及び記録対象機器等を設定可能である。なお、「SDTV」欄の項目「Release1」、「Release2」、「Release3」及び「Release4」が有する各子項目において設定可能な内容は同一であるため、以下においては「Release1」の子項目に関する説明のみを行うものとする。
 項目「Release1」の子項目の1つである「周辺機器」は、SDTV方式の静止画像の記録対象機器を設定可能な項目である。なお、前記記録対象機器は、図15から図19の各図に示す各ファイリング装置(但し、ファイリング装置204B1及び204B2を除く)、各写真撮影装置(但し、写真撮影装置205B1及び205B2を除く)、各光学記録装置、PCカード167及びメモリカード168のうち、いずれか一の機器を示すものとする。また、前記「周辺機器」の項目を「OFF」に設定することにより、前記記録対象機器がない状態、すなわち、「Release1」の機能が割り当てられたキーまたはスイッチが操作されたとしても、SDTV方式の静止画像の記録が行われない設定とすることが可能である。
 項目「Release1」の子項目の1つである「Encode」は、SDTV方式の静止画像の記録を行う際に用いられるフォーマットを設定可能な項目である。なお、前記フォーマットとして設定可能なフォーマットは、例えば、JPEG、JPEG2000、TIFFまたはBMPのいずれかであるとする。前記項目「Encode」において、前述したうちのいずれかのフォーマットが選択及び設定された場合、主制御部75のCPU131は、次を行う。すなわち、CPU131は、アービタ633を制御し、出力用画像を画像圧縮伸長部73のJPEGエンコード/デコード回路645、TIFF・BMP変換回路647を介して出力させる。また、前記項目「Encode」において、「OFF」が選択された場合、主制御部のCPU131は、アービタ633を制御し、出力用画像を画像圧縮伸長部73のJPEGエンコード/デコード回路645、TIFF・BMP変換回路647を介さずに出力させる。
 項目「Release1」の子項目の1つである「Signal」は、出力用画像の信号形態を、YCrCb信号またはRGB信号のうちのいずれかに設定可能な項目である。前記項目「Signal」において、「YCrCb」が選択及び設定された場合、主制御部75のCPU131は、出力用画像を画像圧縮伸長部73のYUV-RGB変換回路651を介して出力させる。また、前記項目「Signal」において、「RGB」が選択された場合、主制御部のCPU131は、出力用画像を画像圧縮伸長部73のYUV-RGB変換回路651を介して出力させる。
 項目「Release1」の子項目の1つである「Format」は、項目「Signal」において設定されたYCrCb信号またはRGB信号のフォーマットを設定可能な項目である。なお、前記フォーマットとして設定可能なフォーマットは、4:2:0、4:1:1、4:2:2、4:4:4、Sequential(シーケンシャル)、Spectral Selection(周波数分割形)、Successive Approximation(近似精度向上形)、DPCM(可逆形)、Interleave、Non-Interleaveのうち、いずれか1または複数であるとする。項目「Format」において、前述したうちのいずれかのフォーマットが選択及び設定された場合、主制御部75のCPU131は、該フォーマットに応じた圧縮/変換処理を画像圧縮伸長部73のJPEGエンコード/デコード回路645、TIFF・BMP変換回路647に行わせる。なお、前記項目「Format」において、「OFF」が選択された場合、主制御部75のCPU131は、「SDTV」欄の項目「Release1」の子項目「Signal」において設定されたYCrCb信号またはRGB信号に対するフォーマットの変更を行わないものとする。
 項目「Release1」の子項目の1つである「Dot」は、「SDTV」欄の項目「Release1」の子項目「Signal」において設定されたYCrCb信号(コンポーネント)またはRGB信号(コンポーネント)の量子化精度を、8ビットまたは10ビットのうち、いずれかのドット数に設定可能な項目である。そして、主制御部のCPU131は、圧縮/変換処理を画像圧縮伸長部73のJPEGエンコード/デコード回路647、TIFF・BMP変換回路647に対し、入力される信号(コンポーネント)を前記ドット数により量子化された信号であるとして処理を行わせる。
 項目「Release1」の子項目の1つである「Level」は、出力用画像の圧縮レベルを設定可能な項目である。なお、前記圧縮レベルとしては、例えば、高画質かつ画像サイズが大である「High」、前記「High」の設定に比べて低画質かつ画像サイズが小である「Normal」、及び、前記「Normal」の設定に比べて低画質かつ画像サイズが小である「Low」の3つのレベルが選択可能である。そして、主制御部75のCPU131は、圧縮/変換処理を画像圧縮伸長部73のJPEGエンコード/デコード回645、TIFF・BMP変換回路647に対し、前述した3つのレベルに応じた圧縮/変換処理を行わせる。なお、前述した「High」、「Normal」及び「Low」の各設定は、例えば、JPEGフォーマットの場合、予め設定された量子化テーブルまたはハフマンテーブル等を用いることにより実現できる。
 なお、前述した「SDTV」欄の各項目のうち、項目「Encode」、「Signal」、「Format」、「Dot」及び「Level」は、「SDTV」欄の項目「Release1」の子項目「周辺機器」において、図18及び図19の各ファイリング装置、図18及び図19の各写真撮影装置、図18及び図19の各光学記録装置、PCカード167及びメモリカード168のうちのいずれかが選択された際にのみ有効(設定変更が可能)である。項目「Encode」、「Signal」、「Format」、「Dot」及び「Level」は、無効(設定変更が不可能)である場合には、例えば、濃い灰色のような色により表示される。
 「HDTV」欄の項目「Release1」、「Release2」、「Release3」及び「Release4」は、項目「Scope Switch」、「Foot Switch」、「Keyboard」及び「Front Panel」のいずれかに割り当て可能な機能のうち、HDTV方式の静止画像の記録に関する機能の一部である。また、「Release1」、「Release2」、「Release3」及び「Release4」は、以下に示す各子項目により、該静止画像の記録条件及び記録対象機器等を設定可能である。なお、「HDTV」欄の「Release1」、「Release2」、「Release3」及び「Release4」が有する各子項目において設定可能な内容は同一であるため、以下においては「Release1」の子項目に関する説明のみを行うものとする。
 項目「Release1」の子項目の1つである「周辺機器」は、HDTV方式の静止画像の記録対象機器を設定可能な項目である。なお、前記記録対象機器は、図15から図19の各図に示す各ファイリング装置(但し、ファイリング装置204Aを除く)、各写真撮影装置(但し、写真撮影装置205A除く)、各光学記録装置、PCカード167及びメモリカード168のうち、いずれか一の機器を示すものとする。また、前記「周辺機器」の項目を「OFF」に設定することにより、前記記録対象機器がない状態、すなわち、「Release1」の機能が割り当てられたキーまたはスイッチが操作されたとしても、HDTV方式の静止画像の記録が行われない設定とすることが可能である。
 項目「Release1」の子項目の1つである「Encode」は、HDTV方式の静止画像の記録を行う際に用いられるフォーマットを設定可能な項目である。なお、前記フォーマットとして設定可能なフォーマットは、例えば、JPEG、JPEG2000、TIFFまたはBMPのいずれかであるとする。前記項目「Encode」において、前述したうちのいずれかのフォーマットが選択及び設定された場合、主制御部のCPU131は、次を行う。すなわち、CPU131は、アービタ633を制御し、出力用画像を画像圧縮伸長部73のJPEGエンコード/デコード回路645、TIFF・BMP変換回路647を介して出力させる。また、項目「Encode」において、「OFF」が選択された場合、主制御部のCPU131は、出力用画像を画像圧縮伸長部73のJPEGエンコード/デコード回路645、TIFF・BMP変換回路647を駆動させない。
 項目「Release1」の子項目の1つである「Signal」は、出力用画像の信号形態を、YCrCb信号またはRGB信号のうちのいずれかに設定可能な項目である。前記項目「Signal」において、「YCrCb」が選択及び設定された場合、主制御部75のCPU131は、アービタ633を制御し、出力用画像を画像圧縮伸長部73のYUV-RGB変換回路651を介して出力させる。また、前記項目「Signal」において、「RGB」が選択された場合、主制御部のCPU131は、アービタ633を制御し、出力用画像を画像圧縮伸長部73のYUV-RGB変換回路651を介して出力させる。
 項目「Release1」の子項目の1つである「Format」は、「HDTV」欄の項目「Release1」の子項目「Signal」において設定されたYCrCb信号またはRGB信号のフォーマットを設定可能な項目である。なお、前記フォーマットとして設定可能なフォーマットは、4:2:0、4:1:1、4:2:2、4:4:4、Sequential(シーケンシャル)、Spectral Selection(周波数分割形)、Successive Approximation(近似精度向上形)、DPCM(可逆形)、Interleave、Non-Interleaveのうち、いずれか1または複数であるとする。前記項目「Format」において、前述したうちのいずれかのフォーマットが選択及び設定された場合、主制御部75のCPU131は、該フォーマットに応じた圧縮/変換処理を画像圧縮伸長部73のJPEGエンコード/デコード回路645、TIFF・BMP変換回路647に行わせる。なお、前記項目「Format」において、「OFF」が選択された場合、主制御部のCPU131は、「HDTV」欄の項目「Release1」の子項目「Signal」において設定されたYCrCb信号またはRGB信号に対するフォーマットの変更を行わないものとする。
 項目「Release1」の子項目の1つである「Dot」は、「HDTV」欄の項目「Release1」の子項目「Signal」において設定されたYCrCb信号(コンポーネント)またはRGB信号(コンポーネント)の量子化精度を、8ビットまたは10ビットのうち、いずれかのドット数に設定可能な項目である。そして、主制御部のCPU131は、画像圧縮伸長部73のJPEGエンコード/デコード回路645、TIFF・BMP変換回路647に対し、入力される信号(コンポーネント)を前記ドット数により量子化された信号であるとして圧縮/変換処理を行わせる。
 項目「Release1」の子項目の1つである「Level」は、出力用画像の圧縮レベルを設定可能な項目である。なお、前記圧縮レベルとしては、例えば、高画質かつ画像サイズが大である「High」、前記「High」の設定に比べて低画質かつ画像サイズが小である「Normal」、及び、前記「Normal」の設定に比べて低画質かつ画像サイズが小である「Low」の3つのレベルが選択可能である。そして、主制御部75のCPU131は、圧縮/変換処理を画像圧縮伸長部73のJPEGエンコード/デコード回路645、TIFF・BMP変換回路647に対し、前述した3つのレベルに応じた圧縮/変換処理を行わせる。なお、前述した「High」、「Normal」及び「Low」の各設定は、例えば、JPEGフォーマットの場合、予め設定された量子化テーブルまたはハフマンテーブル等を用いることにより実現できる。
 なお、前述した「HDTV」欄の各項目のうち、項目「Encode」、「Signal」、「Format」、「Dot」及び「Level」は、項目「周辺機器」において、図18及び図19の各ファイリング装置、図18及び図19の各写真撮影装置、図18及び図19の各光学記録装置、PCカード167及びメモリカード168のうちのいずれかが選択された際にのみ有効(設定変更が可能)である。項目「Encode」、「Signal」、「Format」、「Dot」及び「Level」は、無効(設定変更が不可能)である場合には、例えば、濃い灰色のような色により表示される。
 なお、「SDTV」欄及び「HDTV」欄が有する各項目の設定は、図29に示すような設定画面上において、ユーザにより設定されるものに限らない。例えば、プロセッサ4に所定の周辺機器が接続され、かつ、「SDTV」欄または「HDTV」欄の項目「周辺機器」において該所定の周辺機器が選択された場合に、所定の項目が自動的に所定の設定内容となるものであっても良い。
 「Board」欄が有する項目「NETWORK」、「UPD」及び「ZOOM Controller」は、拡張制御部77に関する設定を行うことが可能な項目である。
 項目「NETWORK」は、拡張制御部77として拡張制御部77Aが接続された場合に、該拡張制御部77Aから出力されるネットワーク関連情報(に基づく画像)の表示または非表示、及び、該ネットワーク関連情報(に基づく画像)の表示位置の設定を行うことが可能な項目である。
 項目「UPD」は、拡張制御部77として、内視鏡形状検出装置の一部の機能を有する拡張制御部77Bが接続された場合に、該拡張制御部77Bから出力される内視鏡形状画像の表示または非表示、及び、該内視鏡形状画像の表示位置の設定を行うことが可能な項目である。
 項目「ZOOM Controller」は、拡張制御部77として、ズーム制御機能を有する拡張制御部77Bが接続された場合に、該拡張制御部77Bから出力されるズームコントロール情報の表示または非表示、及び、該ズームコントロール情報の表示位置の設定を行うことが可能な項目である。
 また、項目「NETWORK」、「UPD」及び「ZOOM Controller」は、項目「PinP」及び「Position」を子項目として各々有している。
 項目「NETWORK」の子項目である「PinP」は、「ON」に設定されることにより前述したネットワーク関連情報(に基づく画像)がPinPにより表示される。また、「PinP」は、「OFF」に設定されることにより該ネットワーク関連情報(に基づく画像)が非表示となる。なお、前述した「ON」または「OFF」の設定は、図29に示すような設定画面上において行われるものに限らない。、例えば、前述した「ON」または「OFF」の設定は、後述する「NET」の機能が割り当てられたキーまたはスイッチの操作により行われるものであっても良い。
 項目「NETWORK」の子項目である「Position」は、PinPにより表示されるネットワーク関連情報(に基づく画像)の表示位置を、左上、左下、右上及び右下のうちのいずれかから選択することができる項目である。
 項目「UPD」の子項目である「PinP」は、「ON」に設定されることにより前述した内視鏡形状検出画像がPinPにより表示される。また、「PinP」は、「OFF」に設定されることにより該内視鏡形状検出画像が非表示となる。なお、前述した「ON」または「OFF」の設定は、図29に示すような設定画面上において行われるものに限らず、例えば、後述する「UPD」の機能が割り当てられたキーまたはスイッチの操作により行われるものであっても良い。
 項目「UPD」の子項目である「Position」は、PinPにより表示される内視鏡形状検出画像の表示位置を、左上、左下、右上及び右下のうちのいずれかから選択することができる項目である。
 項目「ZOOM Controller」の子項目である「PinP」は、「ON」に設定されることにより前述したズームコントロール情報がPinPにより表示される。また、「PinP」は、「OFF」に設定されることにより該ズームコントロール情報が非表示となる。なお、前述した「ON」または「OFF」の設定は、図29に示すような設定画面上において行われるものに限らない。例えば、前述した「ON」または「OFF」の設定は、後述する「ZScale」の機能が割り当てられたキーまたはスイッチの操作により行われるものであっても良い。
 項目「ZOOM Controller」の子項目である「Position」は、PinPにより表示されるズームコントロール情報の表示位置を、左上、左下、右上及び右下のうちのいずれかから選択することができる項目である。
 「Release Time」欄の項目「SDTV」及び「HDTV」は、レリーズ指示(記録指示)が行われた後、静止画像を表示し続ける時間を設定可能な項目である。なお、前記静止画像を表示し続ける時間は、例えば、0.1秒、0.5秒、1秒、2秒、3秒、4秒、5秒、6秒、7秒、8秒及び9秒のうちのいずれかから選択可能であるとする。
 なお、「Release Time」欄の項目「SDTV」及び「HDTV」の設定は、図29に示すような設定画面上において、ユーザにより設定されるものに限らない。項目「SDTV」及び「HDTV」の設定は、例えば、プロセッサ4に所定の周辺機器が接続され、かつ、項目「周辺機器」において該所定の周辺機器が選択された場合に、自動的に所定の設定内容となるものであっても良い。
 項目「Mon size」は、画面表示のサイズを、16:9または4:3のいずれかから選択及び設定可能な項目である。
 項目「暗号化」は、拡張制御部77Aの暗号処理回路170における暗号化処理及び復号化処理を行うか否かを設定可能な項目である。
 また、図30は、プロセッサ4の設定画面のうち、例えば、キーボード5等の操作により図29の設定画面から遷移した後の画面である、別の設定画面の一例を示す図である。ここで、前記設定画面において設定可能な項目及び該項目に関連した機能についての説明を行う。なお、図30に示すようなプロセッサ4の設定画面は、例えば、画像処理部72のグラフィック回路106S(106H)において生成されるものであるとする。
 「Decode」欄が有する各項目は、静止画像及び動画像の表示に関する設定が可能な項目である。
 「Decode」欄の項目「Device」は、プロセッサ4に接続される周辺機器のうち、表示させたい所望の画像が記録されている周辺機器を選択可能な項目である。項目「Device」において「TYPE1」が選択された場合、主制御部75のCPU131は、プロセッサ4に接続される周辺機器のうち、光学記録装置208E1または208E2に記録された画像を読み込む。項目「Device」において「TYPE2」が選択された場合、主制御部75のCPU131は、プロセッサ4に接続される周辺機器のうち、ファイリング装置204E1または204E2に記録された画像を読み込む。項目「Device」において「TYPE3」が選択された場合、主制御部75のCPU131は、プロセッサ4に接続される周辺機器のうち、光学記録装置208D1または208D2に記録された画像を読み込む。項目「Device」において「TYPE4」が選択された場合、主制御部75のCPU131は、プロセッサ4に接続される周辺機器のうち、ファイリング装置204D1または204D2に記録された画像を読み込む。項目「Device」において「TYPE5」が選択された場合、主制御部75のCPU131は、プロセッサ4に接続される周辺機器のうち、コントローラ164に接続されるUSB(登録商標)メモリ210に記録された画像を読み込む。項目「Device」において「TYPE6」が選択された場合、主制御部75のCPU131は、プロセッサ4に接続される周辺機器のうち、PCカード167に記録された画像を読み込む。項目「Device」において「TYPE7」が選択された場合、主制御部75のCPU131は、プロセッサ4に接続される周辺機器のうち、メモリカード168に記録された画像を読み込む。項目「Device」において「TYPE8」が選択された場合、主制御部75のCPU131は、プロセッサ4に接続される周辺機器のうち、サーバー212に記録された画像を読み込む。
 「Decode」欄の項目「Decode Type」は、表示させる内視鏡合成画像の種類を、SDTV及びHDTVのうちのいずれかから選択及び設定可能な項目である。
 「Decode」欄の項目「thumbnail」は、サムネイル画像ファイルを使用したマルチ画像生成を行うか否かを設定可能な項目である。前記項目「thumbnail」において「USE」が選択された場合、拡大縮小回路649は、サムネイル画像ファイルからマルチ画像を生成する処理を行う。また、前記項目「thumbnail」において「NO」が選択された場合、拡大縮小回路649は、入力される出力用画像に基づいてサムネイル画像を生成するとともに、該サムネイル画像を一覧表示可能なマルチ画像を生成する処理を行う。
 「Decode」欄の項目「Mult Num.」は、マルチ画像表示において表示される画像の数を、例えば、1枚から32枚までの間において設定可能な項目である。主制御部75のCPU131は、マルチ画像表示において、前記項目「Mult Num」において設定された数だけ画像が表示されるように、画像圧縮伸長部73の拡大縮小回路649に対して制御を行う。なお、前記項目「Mult Num」は、「Decode」欄の項目「thumbnail」においてサムネイルファイルを使用する設定とした場合に、網掛け表示等により、設定不可能な状態とするものであっても良い。
 次に、前述にて説明した各項目のうち、項目「Scope Switch」、「Foot Switch」、「Keyboard」及び「Front Panel」のいずれかに割り当て可能な機能、及び、該機能を実現するためにプロセッサ4の各部等が行う動作について説明を行う。なお、前記機能が割り当てられたキー及びスイッチにおいて行われた操作は、SIO142またはPIO143のいずれかと、システムバス131aとを介してCPU131により検知されるものであるとする。
 選択可能な機能のうちの1つである「Freeze」は、フリーズ画像を出力させるためのフリーズ指示を行うことができる機能である。このような機能であるフリーズ機能が割り当てられたキーまたはスイッチが操作されると、CPU131は、次の処理を行う。すなわち、CPU131は、BUF139を介してフリーズ回路96及びメモリ97を制御し、フリーズ画像を出力させるための制御を行う。なお、本実施形態においては、前述したフリーズ機能が割り当てられたキーまたはスイッチのことを、フリーズスイッチと記述するものとする。
 選択可能な機能のうちの1つである「Release1」は、静止画像を周辺機器(記録対象機器)等に記録させるためのレリーズ指示を行うことができる機能である。このような機能であるレリーズ機能が割り当てられたキーまたはスイッチが操作されると、CPU131は、グラフィック回路106Sまたは(及び)106Hを制御する。そして、CPU131は、図25に示す画面のSCV309の値及びD.F311の値に各々1ずつ加算した値を出力させる。また、レリーズ機能が割り当てられたキーまたはスイッチが操作されると、CPU131は、次の処理を行う。すなわち、CPU131は、前述した設定画面の、「SDTV」欄の項目「Release1」の子項目の1つである「周辺機器」において設定された周辺機器等にSDTV方式の出力用画像を記録させる。このとき、CPU131は、「HDTV」欄の項目「Release1」の子項目の1つである「周辺機器」において設定された周辺機器等にHDTV方式の出力用画像を記録させる。
 なお、本実施形態においては、前述した「Release1」の機能は、「Release2」、「Release3」及び「Release4」として、同様の機能を最大4つのキーまたはスイッチに割り当てることが可能であるとする。
 ここで、「Release1」から「Release4」までのレリーズ機能が割り当てられた各キーまたは各スイッチのうちのいずれかが操作された場合に、出力用画像を記録対象機器に記録させるためにCPU131が行う制御の詳細について説明を行う。なお、「Release1」から「Release4」は全て同様の機能を有するため、以降においては、「Release1」のみについて説明を行うものとする。
 図29に示す設定画面の「Release1」における記録対象機器として、例えば、図15、図16及び図17に示す、各ファイリング装置及び各写真撮影装置のうちの少なくとも一の装置が選択された場合、CPU131は、次の処理を行う。すなわち、CPU131は、SIO142またはPIO143を介し、出力用画像を該少なくとも一の装置に記録させる制御を行う。
 図29に示す設定画面の「Release1」における記録対象機器として、例えば、図18に示す各ファイリング装置、各写真撮影装置、各光学記録装置及びUSBメモリのうちの少なくとも一の装置が選択された場合、CPU131は、次の処理を行う。すなわち、CPU131は、画像圧縮伸長部73のアービタ633から出力される出力用画像を、拡張制御部77Aのコントローラ164等を介し、該少なくとも一の装置に記録させる制御を行う。
 図29に示す設定画面の「Release1」における記録対象機器として、例えば、図10に示すPCカード167及びメモリカード168のうちのいずれか一の装置が選択された場合、CPU131は、次の処理を行う。すなわち、CPU131は、画像圧縮伸長部73のアービタ633から出力される出力用画像を、拡張制御部77Aのカードコントローラ165等を介して該一の装置に記録させる制御を行う。
 図29に示す設定画面の「Release1」における記録対象機器として、例えば、図19に示す各ファイリング装置、各写真撮影装置、各光学記録装置及びサーバー212のうちの少なくとも一の装置が選択され、かつ、圧縮率の高い画像の記録を行う設定である場合、CPU131は、次の処理を行う。すなわち、CPU131は、画像圧縮伸長部73のアービタ633から出力される出力用画像をHUB162及び信号線162a等を介して該少なくとも一の装置に記録させる。このとき、CPU131は、バックアップ用に該出力用画像をバッファ166に対しても記録させるための制御を行う。また、図29に示す設定画面の「Release1」における記録対象機器として、例えば、図19に示す各ファイリング装置、各写真撮影装置、各光学記録装置、及びサーバーのうちの少なくとも一の装置が選択され、かつ、圧縮率の低い画像の記録を行う設定である場合、CPU131は、次の処理を行う。すなわち、CPU131は、画像圧縮伸長部73のアービタ633から出力される出力用画像をバッファ166に対して記録させるための制御を行う。その後、例えば、検査終了通知機能を有するキーが操作されることにより、検査の終了が通知される。すると、バッファ166に記録された各出力用画像のうち、一部または全部の画像が、図19に示す各ファイリング装置、各写真撮影装置、各光学記録装置及びサーバーのうちの少なくとも一の装置に記録される。
 選択可能な機能のうちの1つである「Iris」は、測光(調光)の方式を、ピーク、平均または自動のうちのいずれかから選択及び切替を行うことが可能な機能である。このような機能である測光切替機能が割り当てられたキーまたはスイッチが操作される。すると、CPU131は、該操作に応じた指示に基づいて生成した調光信号を、信号線59a,58a等を介して光源装置3へ出力する。
 選択可能な機能のうちの1つである「Enhance」は、画像の強調表示を、例えば、構造強調または輪郭強調のうちのいずれかから選択及び切替を行うことが可能な機能である。このような機能である強調切替機能が割り当てられたキーまたはスイッチが操作されると、CPU131は、グラフィック回路106Sまたは(及び)106Hを制御し、図25に示す画面の構造強調/輪郭強調323Aの表示内容を変更して出力させる。また、強調切替機能が割り当てられたキーまたはスイッチが操作されると、CPU131は、BUF139を介して拡大/強調回路99Hまたは(及び)99Sを制御し、強調された状態の出力用画像を出力させる。
 選択可能な機能のうちの1つである「Contrast」は、画像のコントラストを、例えば、「Low」(低コントラスト)、「Normal」(中コントラスト)、「High」(高コントラスト)及び無補正のうちのいずれかから選択及び切替を行うことが可能な機能である。このような機能であるコントラスト切替機能が割り当てられたキーまたはスイッチが操作される。すると、CPU131は、グラフィック回路106Sまたは(及び)106Hを制御し、図25に示す画面のコントラスト320Aの表示内容を変更して出力させる。また、コントラスト切替機能が割り当てられたキーまたはスイッチが操作されると、CPU131は、BUF139を介して前段画像処理回路95を制御し、該操作に応じた指示に基づくγ変換を行わせる。
 選択可能な機能のうちの1つである「Img.Size」は、出力用画像の画像サイズを切替可能な機能である。このような機能である画像サイズ切替機能が割り当てられたキーまたはスイッチが操作される。すると、CPU131は、BUF139を介して拡大/強調回路99Hまたは(及び)99Sを制御し、出力用画像の画像サイズを変更して(拡大された画像を)出力させる。また、画像サイズ切替機能が割り当てられたキーまたはスイッチが操作されると、CPU131は、BUF139を介して合成回路108Hまたは(及び)108Sを制御する。これにより、CPU131は、マスク処理が施された画像信号に画像サイズが変更された画像を合成して出力させる。
 選択可能な機能のうちの1つである「VTR」は、プロセッサ4に接続される周辺機器のうち、VTRにおける動画像の記録と、該動画像の記録の一時停止とをトグル動作により切り替え可能な機能である。このような機能であるVTR記録機能が割り当てられたキーまたはスイッチが操作される。すると、CPU131は、グラフィック回路106Sまたは(及び)106Hを制御し、図25に示す画面のVTR312の表示状態を変更して出力させる(動画像記録中には「VTR」が表示され、一時停止中には「VTR」が非表示となる)。また、CPU131は、VTR記録機能が割り当てられたキーまたはスイッチが操作される度に、次を行う。すなわち、CPU131は、プロセッサ4に接続される周辺機器のうち、例えば、VTR203A、203B1、203B2、203C1または203C2のうち、一(または複数)のVTRに対し、動画像の記録を行わせる指示と、動画像の記録を一時停止させる指示とを交互に出力する。なお、CPU131は、VTRからの一の動画像の再生中にVTR記録機能が割り当てられたキーまたはスイッチが操作された場合、該一の動画像の再生を中断するものとする。また、CPU131は、VTR記録機能が割り当てられたキーまたはスイッチが操作される毎に、次を行う。すなわち、CPU131は、前記一の動画像と異なる他の動画像の記録を行わせる指示と、該他の動画像の記録を一時停止させる指示とを交互に出力するものとする。なお、前述した、VTR記録機能により動画像の記録を行わせる指示及び動画像の記録を一時停止させる指示は、前述した各VTR以外に、ファイリング装置204C1及び204C2に対しても出力されるものであっても良い。また、図15から図17までに示す各VTRに、前述したVTR記録機能を有する、プロセッサ4による機能の割り当てから独立したスイッチ等が設けられていても良い。
 選択可能な機能のうちの1つである「Capture」は、プロセッサ4に接続される周辺機器のうち、プリンタにおける静止画像のキャプチャを行うことが可能な機能である。このような機能であるキャプチャ機能が割り当てられたキーまたはスイッチが操作されると、CPU131は、グラフィック回路106Sまたは(及び)106Hを制御し、図25に示す画面のCVP310の表示内容(カウント値及びメモリページ等)を変更して出力させる。また、キャプチャ機能が割り当てられたキーまたはスイッチが操作されると、CPU131は、プロセッサ4に接続される周辺機器のうち、プリンタに対し、出力用画像のキャプチャを行う指示と、該出力用画像とを出力する。
 ここで、「Capture」によるキャプチャ機能が割り当てられた各キーまたは各スイッチのうちのいずれかが操作された場合に、出力用画像を対象機器にキャプチャさせるためにCPU131が行う制御の詳細について説明を行う。
 例えば、図15、図16及び図17に示す各プリンタのうち、少なくとも一のプリンタにおいて出力用画像のキャプチャが行われる場合、CPU131は、SIO142またはPIO143を介し、出力用画像を該一のプリンタにおいてキャプチャさせる制御を行う。
 例えば、図18に示す各プリンタのうち、少なくとも一のプリンタが選択された場合、CPU131は、画像圧縮伸長部73のアービタ633から出力される出力用画像を、拡張制御部77Aのコントローラ164等を介し、該一のプリンタにおいてキャプチャさせる制御を行う。
 例えば、図19に示す各プリンタのうち、少なくとも一のプリンタが選択され、かつ、圧縮率の高い画像のキャプチャを行う設定である場合、CPU131は、次を行う。すなわち、CPU131は、画像圧縮伸長部73のアービタ633から出力される出力用画像をHUB162及び信号線162a等を介して該一のプリンタにキャプチャさせるとともに、該出力用画像をバッファ166に対しても記録させるための制御を行う。また、例えば、図19に示す各プリンタのうち、少なくとも一のプリンタが選択され、かつ、圧縮率の低い画像の記録を行う設定である場合、CPU131は、次を行う。すなわち、CPU131は、画像圧縮伸長部73のアービタ633から出力される出力用画像をバッファ166に対して記録させるための制御を行う。その後、例えば、検査終了通知機能を有するキーが操作されることにより、検査の終了が通知される。すると、バッファ166に記録された各出力用画像のうち、一部または全部の画像が、図19に示す各プリンタのうち、少なくとも一のプリンタにおいてキャプチャされる。
 なお、前述したプリンタの選択は、図29に示す設定画面において行われるようにしても良い。
 選択可能な機能のうちの1つである「Print」は、プロセッサ4に接続される周辺機器のうち、プリンタに対し、静止画像を印刷して出力させることが可能な機能である。このような機能であるプリント機能が割り当てられたキーまたはスイッチが操作されると、CPU131は、プロセッサ4に接続される周辺機器のうち、プリンタに対し、出力用画像の印刷を行わせる指示を出力する。
 ここで、「Print」によるプリント機能が割り当てられた各キーまたは各スイッチのうちのいずれかが操作された場合に、出力用画像を対象機器に印刷させるためにCPU131が行う制御の詳細について説明を行う。
 例えば、図15、図16及び図17に示す各プリンタのうち、少なくとも一のプリンタにおいて出力用画像の印刷が行われる場合、CPU131は、SIO142またはPIO143を介し、該一のプリンタ内にキャプチャされた静止画像を印刷させる制御を行う。
 例えば、図18に示す各プリンタのうち、少なくとも一のプリンタが選択された場合、CPU131は、拡張制御部77Aのコントローラ164等を介し、該一のプリンタ内にキャプチャされた静止画像を印刷させる制御を行う。
 例えば、図19に示す各プリンタのうち、少なくとも一のプリンタが選択された場合、CPU131は、HUB162及び信号線162a等を介し、該一のプリンタ内にキャプチャされた静止画像を印刷させる制御を行う。
 選択可能な機能のうちの1つである「Stop W.」は、図25に示す画面の時刻情報308のうち、ストップウォッチの表示状態及び動作状態を切替可能な機能である。このような機能であるストップウォッチ機能が割り当てられたキーまたはスイッチが操作されると、CPU131は、次を行う。すなわち、CPU131は、RTC134により示される時間に基づいてグラフィック回路106Sまたは(及び)106Hを制御し、図25に示す画面の時刻情報308のうち、ストップウォッチの表示状態を切り替える。なお、本実施形態においては、前記ストップウォッチの表示状態は、ストップウォッチ機能が割り当てられたキーが操作される毎に、ストップウォッチ表示及び動作開始と、ストップウォッチ一時停止と、ストップウォッチ非表示とが順次切り替えられるものとする。
 選択可能な機能のうちの1つである「UPD」は、拡張制御部77Bのグラフィック回路169において生成及び出力される内視鏡形状画像の表示及び非表示を、トグル動作により切り替え可能な機能である。このような機能であるUPD画像切替機能が割り当てられたキーまたはスイッチが操作されると、CPU131は、次を行う。すなわち、CPU131は、該操作に応じた指示に基づき、拡張制御部77Bのグラフィック回路169から出力される内視鏡形状画像を、合成回路108Hまたは(及び)108Sにおいて合成して出力させるか否かを制御する。(なお、前記制御に伴う処理については、図12のステップDDDFLW4からステップDDDFLW7までに示す処理の説明として述べた箇所を参照のこと。)
 選択可能な機能のうちの1つである「ZScale」は、拡張制御部77Bから出力されるズームコントロール情報の表示及び非表示を、トグル動作により切り替え可能な機能である。このような機能であるZScale画像切替機能が割り当てられたキーまたはスイッチが操作されると、CPU131は、該操作に応じた指示に基づき、グラフィック回路106S及び106Hにおいてズームコントロール情報を画像化させる。それとともに、CPU131は、合成回路108H及び合成回路108Sにおいて該ズームコントロール情報をマスク合成及び出力させるか否かを制御する。(なお、前記制御に伴う処理については、図12のステップDDDFLW4からステップDDDFLW7までに示す処理の説明として述べた箇所を参照のこと。)
 選択可能な機能のうちの1つである「Zoom」は、出力用画像に対する電子拡大処理の倍率を切り替えることが可能な機能である。このような機能である電子拡大倍率機能が割り当てられたキーまたはスイッチが操作されると、CPU131は、BUF139を介して拡大/強調回路99Hまたは(及び)99Sを制御し、該操作に応じた指示に基づく倍率による電子拡大処理を行わせる。
 選択可能な機能のうちの1つである「IHb」は、ヘモグロビンインデックスに応じた色彩強調の度合いを切り替え可能な機能である。このような機能であるヘモグロビンインデックス色彩強調機能が割り当てられたキーまたはスイッチが操作されると、CPU131は、次を行う。すなわち、CPU131は、グラフィック回路106Sまたは(及び)106Hを制御し、図25に示す画面の色彩強調321Aの表示内容を変更して出力させる。また、ヘモグロビンインデックス色彩強調機能が割り当てられたキーまたはスイッチが操作されると、CPU131は、次を行う。すなわち、CPU131は、BUF139を介し、ヘモグロビンインデックスに応じた色彩強調処理である、IHb色彩強調処理の度合いについての制御を後段画像処理回路98に対して行う。
 選択可能な機能のうちの1つである「PUMP」は、(図示しない)前方送水ポンプにより行われる送水のON及びOFFを、トグル動作により切り替え可能な機能である。このような機能である前方送水切替機能が割り当てられたキーまたはスイッチが操作されると、CPU131は、次を行う。すなわち、CPU131は、(図示しない)前方送水ポンプに対し、前方送水を実行または停止させるための制御を行う。また、前方送水切替機能が割り当てられたキーまたはスイッチが操作されると、CPU131は、グラフィック回路106Sまたは(及び)106Hを制御し、図25に示す画面におけるPUMP313の表示内容を変更して出力させる。
 選択可能な機能のうちの1つである「Exam End」は、プロセッサ4に接続される周辺機器等に対し、検査終了を通知することが可能な機能である。このような機能である検査終了通知機能が割り当てられたキーまたはスイッチが操作されると、CPU131は、次を行う。すなわち、CPU131は、グラフィック回路106Sまたは(及び)106Hを制御し、図25に示す画面として表示されている観察情報群300が有する各情報のうち、一部の情報をクリア(させるとともに、代わりに項目名を表示)させる。また、検査終了通知機能が割り当てられたキーまたはスイッチが操作されると、CPU131は、検査終了を示す信号をプロセッサ4の各部へ出力する。
 選択可能な機能のうちの1つである「M-REC」は、プロセッサ4に接続される周辺機器のうち、光学記録装置及びファイリング装置における動画像の記録と、該動画像の記録の一時停止とをトグル動作により切り替え可能な機能である。このような機能である動画像記録機能が割り当てられたキーまたはスイッチが操作されると、CPU131は、次を行う。すなわち、CPU131は、グラフィック回路106Sまたは(及び)106Hを制御し、図25に示す画面のVTR312の表示状態を変更して出力させる(動画像記録中には「VTR」が表示され、一時停止中には「VTR」が非表示となる)。また、CPU131は、動画像記録機能が割り当てられたキーまたはスイッチが操作される度に、次を行う。すなわち、CPU131は、プロセッサ4に接続される周辺機器である、例えば、ファイリング装置204D1、204D2、204E1及び204E2と、光学記録装置208D1、208D2、208E1及び208E2とのうち、一(または複数)の装置に対し、動画像の記録を行わせる指示と、動画像の記録を一時停止させる指示とを交互に出力する。なお、図18及び図19に示す各ファイリング装置及び(または)各光学記録装置に、前述した動画像記録機能を有する、プロセッサ4による機能の割り当てから独立したスイッチ等が設けられていても良い。
 選択可能な機能のうちの1つである「特殊光」は、光源装置3が有する特殊光フィルタ53A、53B及び53Cのうち、ランプ51の光路上に配置するフィルタをトグル動作により選択及び切替可能な機能である。このような機能である特殊光フィルタ切替機能が割り当てられたキーまたはスイッチが操作されると、CPU131は、グラフィック回路106Sまたは(及び)106Hを制御し、図25に示す画面の光源フィルタ種類325Aの表示状態を変更して出力させる。また、特殊光フィルタ切替機能が割り当てられたキーまたはスイッチが操作されると、CPU131は、次を行う。すなわち、CPU131は、該操作に応じた指示に基づく制御を信号線59a,58a等を介して行うことにより、光源装置3のランプ51の光路上に配置するフィルタを変更させる。さらに、特殊光フィルタ切替機能が割り当てられたキーまたはスイッチが操作されると、CPU131は、次を行う。すなわち、CPU131は、BUF139を介し、前段画像処理回路95、後段画像処理回路98、拡大/強調回路99H及び拡大/強調回路99Sの各部を制御し、ランプ51の光路上に配置されたフィルタの種類に応じた画像処理を前記各部に対して行わせる。
 選択可能な機能のうちの1つである「P-VTR」は、プロセッサ4に接続される周辺機器のうち、VTRに記録された動画像の再生と、該動画像の再生の一時停止とをトグル動作により切り替え可能な機能である。このような機能であるVTR再生機能が割り当てられたキーまたはスイッチが操作されると、CPU131は、次を行う。すなわち、CPU131は、グラフィック回路106Sまたは(及び)106Hを制御し、図25に示す画面のVTR312の表示状態を変更して出力させる(動画像再生中には「VTR」が表示され、一時停止中には「VTR」が非表示となる)。また、CPU131は、VTR再生機能が割り当てられたキーまたはスイッチが操作される度に、次を行う。すなわち、CPU131は、プロセッサ4に接続される周辺機器のうち、例えば、VTR203A、203B1、203B2、203C1または203C2のうち、一のVTRに対し、動画像の再生を行わせる指示と、動画像の再生を一時停止させる指示とを交互に出力する。なお、VTRにおいて動画像の記録が行われている最中、動画像の早送りが行われている最中、または動画像の巻き戻しが行われている最中のいずれかにおいてVTR再生機能が割り当てられたキーまたはスイッチが操作されると、CPU131は、次を行う。すなわち、CPU131は、それら(動画像の記録、早送り及び巻き戻し)に関する処理を中断するとともに、該キーまたは該スイッチが操作される毎に、動画像の再生を行わせる指示と、動画像の再生を一時停止させる指示とを交互に出力するものとする。なお、前述した、VTR再生機能により動画像の再生を行わせる指示及び動画像の再生を一時停止させる指示は、前述した各VTR以外に、ファイリング装置204C1及び204C2に対しても出力されるものであっても良い。
 選択可能な機能のうちの1つである「M-PLY」は、プロセッサ4に接続される周辺機器のうち、光学記録装置及びファイリング装置における動画像の再生と、該動画像の再生の一時停止とをトグル動作により切り替え可能な機能である。このような機能である動画像再生機能が割り当てられたキーまたはスイッチが操作されると、CPU131は、次を行う。すなわち、CPU131は、グラフィック回路106Sまたは(及び)106Hを制御し、図25に示す画面のVTR312の表示状態を変更して出力させる(動画像再生中には「VTR」が表示され、一時停止中には「VTR」が非表示となる)。また、動画像再生機能が割り当てられたキーまたはスイッチが操作される度に、CPU131は、次を行う。すなわち、CPU131は、プロセッサ4に接続される周辺機器である、例えば、ファイリング装置204D1、204D2、204E1及び204E2と、光学記録装置208D1、208D2、208E1及び208E2とのうち、一の装置に対し、動画像の再生を行わせる指示と、動画像の再生を一時停止させる指示とを交互に出力する。なお、図18及び図19に示す各ファイリング装置及び(または)各光学記録装置に、前述した動画像再生機能を有する、プロセッサ4による機能の割り当てから独立したスイッチ等が設けられていても良い。
 選択可能な機能のうちの1つである「NET」は、拡張制御部77Aから出力される、ネットワーク関連情報(に基づく画像)の表示及び非表示を、トグル動作により切り替え可能な機能である。このような機能であるネットワーク関連情報画像切替機能が割り当てられたキーまたはスイッチが操作されると、CPU131は、該操作に応じた指示に基づき、拡張制御部77Aから出力されるネットワーク関連情報(に基づく画像)を、合成回路108Hまたは(及び)108Sにおいて合成して出力させるか否かを制御する。(なお、前記制御に伴う処理については、図12のステップDDDFLW4からステップDDDFLW7までに示す処理の説明として述べた箇所を参照のこと。)
 選択可能な機能のうちの1つである「TELE」は、内視鏡2A(2B)が有する対物光学系22A(22B)を拡大(テレ)方向に移動させることが可能な機能である。CPU131は、このような機能であるテレ機能が割り当てられたキーまたはスイッチが操作され続けている間、拡張制御部77Bの駆動回路186を介して内視鏡2A(及び2B)のアクチュエータ23A(23B)を駆動させる。これにより、CPU131は、対物光学系22A(22B)を挿入部21A(21B)の軸方向かつ先端側方向である、拡大(テレ)方向に移動させる。また、CPU131は、テレ機能が割り当てられたキーまたはスイッチが操作されると、グラフィック回路106Sまたは(及び)106Hを制御することにより、ズームコントロール情報の表示内容を、拡大(テレ)に応じた内容に変更して出力させる。
 選択可能な機能のうちの1つである「WIDE」は、内視鏡2A(2B)が有する対物光学系22A(22B)を広角(ワイド)方向に移動させることが可能な機能である。CPU131は、このような機能であるワイド機能が割り当てられたキーまたはスイッチが操作され続けている間、拡張制御部77Bの駆動回路186を介して内視鏡2A(及び2B)のアクチュエータ23A(23B)を駆動させる。これにより、CPU131は、対物光学系22A(22B)を挿入部21A(21B)の軸方向かつ基端側方向である、広角(ワイド)方向に移動させる。また、ワイド機能が割り当てられたキーまたはスイッチが操作されると、CPU131は、次を行う。すなわち、CPU131は、グラフィック回路106Sまたは(及び)106Hを制御することにより、ズームコントロール情報の表示内容を、広角(ワイド)に応じた内容に変更して出力させる。
 選択可能な機能のうちの1つである「OFF」は、前述した各機能のうちのいずれも割り当てないようにするための設定である。すなわち、「OFF」に設定されたキーまたはスイッチが操作された場合においては、プロセッサ4は何も処理を行わない。
 なお、CPU131は、前述した各機能のうち、例えば、拡張制御部77A及び77Bの接続状態の検出結果等により、一部の機能のみを選択できるようにするものであっても良い。具体的には、CPU131は、拡張制御部77A及び77Bのうち、未接続のもの(または検知できなかったもののいずれか)に関する機能を選択不可能または非表示にする等の処理を行うものであっても良い。
 図31は、表示サイズ、画像サイズ、内視鏡の種類(内視鏡接続検知信号)に応じて画像を格納することを説明するための図である。表示サイズ、画像サイズ、内視鏡の種類(内視鏡接続検知信号)に応じて、画像の座標値(mrstarth,mrstartv,mrendh,mrendv)が変わる。そのため、表示サイズ、画像サイズ、内視鏡の種類(内視鏡接続検知信号)をパラメータとして、上記座標値(mrstarth,mrstartv,mrendh,mrendv)をテーブル値として、プログラムROMもしくは、バックアップRAM155に格納する。これより、内視鏡画像301のみ切り取って記録することができる。ここで記録される内視鏡画像301は、信号線124aまたは125aからの映像信号に基づく画像に相当する。
 また、信号線607,607’から入力される画像は、図7A-図7Bにあるように、拡大縮小・画像配置を行う前の画像となる為、接続装置の種類・画像の映像フォーマット(HDTV/SDTVなど)に応じて、画像の大きさや位置が決定する。そのため、SD/HD判別信号615,615’に基づいて、接続装置の種類・画像の映像フォーマット(HDTV/SDTVなど)を判別し、その判別結果、接続装置の種類・画像の映像フォーマットをパラメータとし、画像の座標値をテーブル値として、プログラムROMもしくは、バックアップRAM155に格納する。そのテーブル値に基づいて、内視鏡形状検出装置の画像/超音波装置の画像部分のみ切り取って記録することができる。
 次に、図15から図19までに示す各ファイリング装置及び各光学記録装置、PCカード167、メモリカード168及びUSB(登録商標)メモリ、バッファ166、サーバ212内において、画像を記録する場合に用いられるディレクトリ構造の例を、図32に示す。
 Ethernet(登録商標)やUSBインターフェースなどで各ファイリング装置及び各光学記録装置、PCカード167、メモリカード168及びUSB(登録商標)メモリに、プロセッサ4で作成したデータを転送し、図32のようにフォルダやファイルを構成する。
 最上位フォルダの配下には、デジタルカメラと同じDCM規格に準拠したDCIMフォルダがある。DCIMフォルダの配下には、検査情報格納フォルダがある。検査情報格納フォルダは、図32の例で言えば、100OLYMP、101OLYMPに相当する。検査情報格納フォルダは、例えば、このように、連番でフォルダを作成し、データを保存するようにしてもよい。
 検査情報格納フォルダの配下には、アノテーション格納フォルダがある。アノテーション格納フォルダには、検査内画像を用いたアノテーションデータが保存される。アノテーション格納フォルダは、図32の例で言えば、100OLYMP、101OLYMP、102OLYMPに相当する。なお、アノテーションデータを複数作成した場合は、連番でフォルダを作成し、データを保存するようにしてもよい。
 これにより、例えば、サーバーのデータを端末で修正することで、ユーザに最適な表示画像が生成可能である。また、そのデータをビデオプロセッサへ送信することで、ユーザに最適な表示画像が、ビデオプロセッサでも再生可能となる。
 図33は、図32の、DCIMフォルダ、検査情報格納フォルダ、アノテーション格納フォルダを説明するための図である。
 DCIMフォルダには、検査情報格納ファイルが格納されている。検査情報格納ファイルは、検査情報格納フォルダ毎に、検査管理ID、検査種別、検査日時、患者情報を管理・保存したファイルである。1つの検査情報格納ファイルに対して、検査情報(検査管理ID・検査種別・検査日時・患者情報)の追加・削除を行う。検査情報格納ファイルの詳細については、図34で説明する。
 検査情報格納フォルダには、撮影情報管理ファイル、HDTV画像ファイル、SDTV画像ファイル、外部画像ファイル1、外部画像ファイル2が格納されている。撮影情報管理ファイルは、検査情報格納フォルダ内への記録画像毎に、記録時の画面表示状態や設定値などを管理・保存したファイルである。1つの撮影情報管理ファイルに対して、記録時の画面表示状態や設定値などの追加・削除を行う。例えば125aを介して図47-図51、17のように記録されたHDTV内視鏡画像301の画像ファイル、例えば124aを介して図47-図51、17のように記録されたSDTV内視鏡画像301の画像ファイル、例えば607を介して図47-図51、17のように記録された外部画像1(330)の外部画像ファイル1、例えば607’を介して図47-図51、17のように記録された外部画像2(331)の外部画像ファイル2はそれぞれ、例えば、XXXX0001.JPG~XXXX9999.JPGのJPEG画像データファイルと、例えば、XXXX0001.TIF~XXXX9999.TIFFのTIFF画像データファイルである。撮影情報管理ファイルの詳細については、図35で説明する。
 アノテーション格納フォルダには、アノテーション管理ファイル、HDTV画像ファイル、SDTV画像ファイル、外部画像ファイル1、外部画像ファイル2が格納されている。アノテーション管理ファイルは、アノテーションの画面表示状態や設定値などを管理・保存したファイルである。1つのアノテーション管理ファイルに対して、アノテーションの画面表示状態や設定値などの追加・削除を行う。HDTV画像ファイル、SDTV画像ファイル、外部画像ファイル1、外部画像ファイル2はそれぞれ、例えば、XXXX0001.JPG~XXXX9999.JPGのJPEG画像データファイルと、例えば、XXXX0001.TIF~XXXX9999.TIFFのTIFF画像データファイルである。
 なお、アノテーション表示例は、図57の(1)、(2)、(3)となる。
 図34は、検査情報格納ファイルの詳細を説明するための図である。検査情報格納ファイルは、図25に記載されている情報や「検査管理ID」、「検査種別」、「検査日時」、「患者情報」の項目を含む。「検査管理ID」は、日付+検査管理用番号からなる。「検査種別」は、例えば、上部(胃・十二指腸)/下部(大腸・小腸・肛門)等の検査する部位を示す。「検査日時」は、検査を行った日時を示す。「患者情報」には、患者ID、患者名(Name)、性別(Sex)、年齢(Age)が含まれる。
 図35は、図29の各設定画面項目や撮影情報管理ファイルの詳細を説明するための図である。撮影情報管理ファイルは、「表示文字情報の表示状態」、「保存画像情報」、「画像表示状態」、「その他表示情報」の項目を含む。
 「表示文字情報の表示状態」は、合成回路108Hまたは108Sにおいて生成される内視鏡合成画像300-1にて表示させる文字の表示状態を設定するための項目である。「表示文字情報の表示状態」には、例えば、「ID」、「NAME」、「SEX」、「AGE」、「現在日付」、「現在時刻」、「ストップウォッチ」、「スプリットタイム」、「SCVカウンター」、「CVPカウンター」、「DFカウンター」、「VTRカウンター」、「デジタルカウンター」、「Ehレベル」、「Ceレベル」、「IHb表示」、「コメント」、「特殊光表示」、「Near_Focus」、「電子拡大」について、表示(ON)/非表示(OFF)を設定したり、「表示言語」について例えば英語と設定したり、「文字表示色」について、例えば「白」と設定することができる。
 「保存画像情報」には、合成回路108Hまたは108Sにおいて生成される内視鏡合成画像300-1を保存する場合に、内視鏡合成画像300-1を構成する各画像に関する情報が格納される。例えば、内視鏡画像(HDTV画像/SDTV画像)について、の場合、HDTV画像の幅、高さ、切り欠き、ファイル名が格納される。例えば、外部機器(1,2)の場合、画像の種類(HDTV/SDTV)、幅、高さ、ファイル名が格納される。
 「画像表示状態」には、内視鏡画像の表示について、ON(表示)/OFF(非表示)、表示開始位置(内視鏡合成画像300-1における座標)、表示サイズ、表示優先順が格納される。また、外部機器(1,2)の表示について、ON(表示)/OFF(非表示)、表示開始位置(内視鏡合成画像300-1における座標)、表示サイズ、表示優先順が格納される。
 「その他表示情報」には、アローポインタの表示(内視鏡合成画像300-1における矢印の表示)について、ON(表示)/OFF(非表示)、アローポインタの向き、アローポインタの表示座標(内視鏡合成画像300-1における矢印の座標)が格納される。
 図36は、合成回路108Hまたは108Sにおいて生成される内視鏡合成画像300-1についての検査情報管理ファイルと撮影情報管理ファイルの例を示す。図37は、図36の検査情報管理ファイルと撮影情報管理ファイルに対応する内視鏡合成画像300-1を示す。例えば、図37の右側の内視鏡合成画像300-1の場合には、検査情報管理ファイルと撮影情報管理ファイルは、図36の左側に示すような内容になる。
 なお、サムネイル画像の画像ファイル、及び、該サムネイル画像の元となった画像の画像ファイルは、図38に示すように各々が別の画像ファイルであっても良いし、また、図39に示すように各々が組み合わさった1つの画像ファイルとして構成されるものであっても良い。なお、図38及び図39において、「SOI」はファイルデータの初めの部分を示す情報であり、また、「EOI」はファイルデータの終わりの部分を示す情報であるとする。
 なお、図32-図39のファイルや周辺機器等に記録される各画像(動画像及び静止画像)には、例えば、以降に記す各項目a)からz)までに列挙する各情報等のうち、少なくとも一の情報等が付加されるものであっても良い。
 a)図25に示す画面に示される観察情報群300及び該観察情報群300に関する設定情報。
 b)画像関連情報群301A及び該画像関連情報群301Aに関する設定情報。
 c)周辺機器の接続情報(記録枚数、記録状態や接続の有無や電源状態や通信状態、プリンタなどの分割モードやプリント枚数、VTRの動作状態(再生、録画または停止))。
 d)画像関連情報群301A以外の、内視鏡画像301に関する情報(IHb擬似カラーの表示域、画像サイズ(Medium、Semi-FullまたはFullのいずれか)、モノクロの設定等)。
 e)内視鏡2A(または2Bまたは2C)の操作スイッチ部28A(または28Bまたは28C)、キーボード5及びフロントパネル76に割り当てられた機能(キーボード5におけるCaps Lock、Insert、及び、文字入力設定等)。
 f)アローポインタ301aの表示状態。
 g)時刻情報308が有するストップウォッチの動作状態(動作中または停止中)。
 h)時刻情報308が省略表示されているか否かの情報。
 i)内視鏡合成画像に表示されている各メッセージ。
 j)内視鏡合成画像の表示サイズ(画面アスペクト比)。
 k)サムネイル画像群326Aが有するサムネイル画像326の数。
 l)内視鏡合成画像上における、各情報の表示状態(表示または消去)。
 m)内視鏡2A(または2Bまたは2C)のメモリ30A(または30Bまたは30C)に格納されている情報。
 n)プロセッサ4のシリアルナンバー。
 o)プロセッサ4の電源がONされた回数。
 p)画像が記録された日付及び時刻。
 q)内視鏡2A(または2Bまたは2C)の種類。
 r)測光(調光)の設定状態(ピーク、平均または自動)。
 s)イーサネット(登録商標)のMACアドレス及びIPアドレス。
 t)画像のデータサイズ。
 u)画像の縮小率。
 v)画像の色空間(sRGB等)。
 w)画像の識別情報。
 x)各設定画面(図29及び図30等)における設定内容。
 y)フォーマットのヘッダファイル及びマーカー等。
 z)画像の記録対象である機器のシリアルナンバー及び製品名。
 なお、前述した項目d)における画像サイズ(Medium、Semi-FullまたはFullのいずれか)は、例えば、前述した、画像サイズ切替機能が割り当てられたキーまたはスイッチの操作により変更可能なものであるとする。
 ここで、周辺機器等に記録された静止画像が表示される際に、主制御部75のCPU131が行う制御及び処理についての説明を、図41A-図41Bのフローチャートを用いて行う。
 主制御部75のCPU131は、まず、操作デバイスに設けられた、例えば、記録画像表示指示キーの入力がなされたか否かを、SIO142またはPIO143のいずれかを介して検出する(図41A-図41BのステップCFLW1)。なお、各操作デバイスのうち、HID209D1及び209D2が有する記録画像表示指示キーの入力がなされたか否かの検出は、CPU131により行われるものに限らない。例えば、拡張制御部77AのCPU151が記録画像表示指示キーの入力がなされたか否かを検出するとともに、該検出結果がSIO159及びSIO142等を介してCPU131に入力されるものであっても良い。
 その後、CPU131は、記録画像表示指示キーの入力がなされたことを検出すると、グラフィック回路106H、グラフィック回路106S、グラフィック回路169のいずれかにおいて、静止画像の表示準備中である旨を示すメッセージ(例えば「Please Wait」等のメッセージ)または画像(黒画面またはカラーバー等の画像)を生成及び出力させるための制御を行う(図41A-図41BのステップCFLW2)。なお、前述した表示準備中である旨を示すメッセージまたは画像を、以降(及び図面)においてはウェイト画面と記すものとする。また、ウェイト画面を表示させる際に行われる処理は、特に記載の無い場合、前述した、図41A-図41BのステップCFLW2の処理と同様の処理であるとする。
 その後、CPU131は、周辺機器等に格納されているディレクトリ名及び画像ファイル名を読み込んで、例えば、図40に示すように、その読み込んだディレクトリ名及びファイル名についてのディレクトリ構造を表示させる制御を行う(図41A-図41BのステップCFLW3)。なお、図41A-図41BのステップCFLW3の処理においてCPU131が参照する周辺機器は、図30の設定画面上の「Decode」欄の項目「Device」において設定された機器であるとする。
 CPU131は、参照した周辺機器(図30の設定画面上の「Decode」欄の項目「Device」において設定された機器)に格納されているディレクトリ名及び画像ファイル名を表示させる際に、図40に示す表示方法を用いるものに限らない。例えば、画像に付加されたサイズ情報、識別情報、縮小率及び(または)データサイズ等の情報に基づき、図30の設定画面上の「Decode」欄の項目「Decode Type」において設定された種類(SDTVまたはHDTVのいずれか)の画像及びサムネイルのみを表示させるものであっても良い。また、CPU131は、参照した周辺機器等に格納されているディレクトリ名及び画像ファイル名を表示させる際に、最初にディレクトリ名のみを表示させるとともに、一のディレクトリを選択して所定のキー(またはスイッチ)が入力されたことを検出した場合(例えばHIDの1つであるマウスの右クリック)にのみ、該一のディレクトリに格納されている画像ファイル名を表示させるようにしても良い。さらに、操作デバイスの操作により選択されたディレクトリ名や画像ファイル名は、所定のキー(例えば、キーボード5、または、HID209D1及び209D2が有する文字キー等)により名前の変更が可能であるとする。また、CPU131は、ディレクトリ及び(または)画像ファイルの数が多い場合には、複数ページによる表示を行わせるものであっても良い。
 操作デバイスの所定のキー(例えばキーボード5が有する矢印キー等)の入力によりディレクトリが選択され、確定キー(例えばキーボード5が有するENTERキー等)の入力により一のディレクトリが確定されると(図41A-図41BのステップCFLW4)、CPU131は、次を行う。すなわち、CPU131は、ウェイト画面を表示させる処理を行う(図41A-図41BのステップCFLW5)とともに、該ウェイト画面表示中にマルチ画像を生成して出力させる(図41A-図41BのステップCFLW6)。
 ここで、図41A-図41BのステップCFLW6の処理の詳細について説明を行う。
 CPU131は、参照した周辺機器(図30の設定画面上の「Decode」欄の項目「Device」において設定された機器)に格納されているディレクトリ内の各画像ファイルを読み込んだ後、該各画像ファイルを、バスブリッジ163と、アービタ633とを介し、画像メモリ654に格納させる。なお、この処理において画像メモリ654に格納される画像ファイルは、前記ディレクトリ内の全画像ファイルに限らず、例えば、サムネイル画像ファイルのみであっても良い。また、CPU131は、参照した周辺機器等に格納されているディレクトリ内の画像ファイルに暗号化処理が施されている場合には、暗号処理回路170により該画像ファイルを複号化した後、画像メモリ654に格納させる。
 その後、CPU131は、画像圧縮伸長部73において、画像メモリ654に格納された各画像ファイルを順次出力させる。また、CPU131は、画像メモリ654に格納された各画像ファイルに付加されている情報に基づき、伸長/変換処理及びRGB変換処理が該各画像ファイルのフォーマット等に応じて適切に行われるように、アービタ633を制御する。また、CPU131は、画像メモリ654から出力される画像ファイルが拡大縮小回路649を介して出力されるように、アービタ633を制御する。
 拡大縮小回路649は、図30の設定画面上の「Decode」欄の項目「thumbnail」において「USE」が選択された場合には、サムネイル画像ファイルの画像サイズに基づき、該画像サイズに応じたマルチ画像を生成する処理を行う。具体的には、180×120のサイズを有するSDTV方式のサムネイル画像ファイルが入力された場合、拡大縮小回路649は、16個の画像を一の画面に並べたマルチ画像を生成して出力する。
 また、拡大縮小回路649は、図30の設定画面上の「Decode」欄の項目「thumbnail」において「NO」が選択された場合には、入力される画像ファイルからマルチ画像を生成する処理を行う。具体的には、拡大縮小回路649は、図30の設定画面上の「Decode」欄の項目「Mult Num.」において設定された数だけサムネイル画像を生成し、該サムネイル画像を一の画面に並べたマルチ画像を生成して出力する。
 拡大縮小回路649において生成されたマルチ画像は、クロック信号の周波数に基づいて1フレームずつ順次、FIFO642または643からF1またはF2として出力される。具体的には、拡大縮小回路649において生成されたマルチ画像がSDTV方式の画像である場合、画像メモリ654及びFIFO642または643を介して、13.5MHzのクロック信号に同期するタイミングにおいて、マルチ画像は合成回路108Sに対して出力される。また、拡大縮小回路649において生成されたマルチ画像がHDTV方式の画像である場合、画像メモリ654及びFIFO642または643を介して、74MHzのクロック信号に同期するタイミングにおいて、マルチ画像は合成回路108Hに対して出力される。
 なお、CPU131は、FIFO642または643から出力されるマルチ画像のうち、図30の設定画面上の「Decode」欄の項目「Decode Type」において設定された種類(SDTVまたはHDTV)のマルチ画像のみを表示するための制御を行うものであっても良い。具体的には、CPU131は、図30の設定画面上の「Decode」欄の項目「Decode Type」においてなされた設定(SDTVまたはHDTV)に応じ、合成回路108H及び合成回路108Sのうち、該設定に合致する一方から出力された一のマルチ画像のみを表示させる。それととともに、CPU131は、該設定に合致しない他方から出力された他のマルチ画像の表示を行わず、かつ、該他のマルチ画像の代わりに、黒画面または青画面等の所定の画像、または図42-図43に示すように、エラー表示を表示させるように制御を行うものであっても良い。ここで、図42-図43について説明する。
 図42は、HDTV画像が記憶されている場合の画面の表示例を示す。図43は、HDTV画像のみ記録している場合は、SDTV画像について記録画像がない旨のエラー表示を行うことを示す図である。図42、図43のマルチ画像は、前述した図41A-図41BのステップCFLW6の処理にて生成される。
 例えば、後述するように、マルチ画像がUSBメモリ210に記録されるとする。HDTV画像のみ記録すると、USBメモリ210にはHDTV画像のみが記録される。このとき、USBメモリ210に格納されたマルチ画像からいずれかを選択すると、図42に、その選択したHDTV画像を再生することができる。ところが、この場合、SDTV画像は記録されていないから、SDTV画像の再生をすることができない。したがって、SDTV画像データの内容を管理するための画面には、図43に示すように、「記録画像なし」を示すエラー表示がされる。
 さて、前述した図41A-図41BのステップCFLW6の処理により、例えば、図44に示すような状態としてマルチ画像が生成されて出力される。
 図44に示すマルチ画像内における太線の枠は、マルチ画像に含まれる各画像のうち、現在選択されている画像を示す選択枠であり、例えば、操作デバイスの所定のキー(例えばキーボード5等が有する矢印キー)の入力により移動させることができる。なお、前記選択枠は、グラフィック回路106Hにおいて生成された後、合成回路108Hにより合成される。また、前記選択枠は、グラフィック回路106Sにおいて生成された後、合成回路108Sにより合成され、各々出力される。また、前記選択枠は、グラフィック回路169において生成されるものであっても良い。
 また、各マルチ画像は、図45に示すように、例えば、操作デバイスが有する次ページ切り替えキー(例えばキーボード5等が有するPageUpキー)または前ページ切り替えキー(例えばキーボード5等が有するPageDownキー)の入力により、ページ(マルチ画像1画面)毎の切り替え表示が可能である。CPU131は、前記次ページ切り替えキーまたは前記前ページ切り替えキーのうちのいずれかの入力による、マルチ画像のページ切り替え指示を検出すると(図41A-図41BのステップCFLW7)、ウェイト画面を表示させる処理を行う(図41A-図41BのステップCFLW8)。これとともに、CPU131は、該ウェイト画面表示中に、指定されたページのマルチ画像を生成して出力させる(図41A-図41BのステップCFLW9)。なお、CPU131は、図41A-図41BのステップCFLW9に示す処理のように、指定されたページのマルチ画像を逐一生成するものに限らない。例えば、CPU131は、既に生成した一のマルチ画像のページが指定された場合に、該一のマルチ画像をそのまま出力するものであっても良い。また、現在選択されている画像を示す選択枠は、ページ切り替え時に、マルチ画像内の最も左上の画像を選択している状態として表示されるものであっても良い。さらに、CPU131は、ページが1ページしかないにも関わらずページ切り替えの指示をした場合、前ページがないにも関わらず前ページ切り替えの指示をした場合、または、次ページがないにも関わらず次ページの指示をした場合のうち、いずれか一の場合を検出した際に、次を行ってもよい、すなわち、CPU131は、キーボード5等が有するキーの入力を無効にし、かつ、エラー音やエラー表示などの警告を行わせるものであっても良い。また、CPU131は、複数のマルチ画像において、ページ数を(該複数のマルチ画像各々の)右上隅等に表示させるものであっても良い。
 CPU131は、操作デバイスの所定のキー(例えばキーボード5等が有するBackspaceキーまたはESCキー)の入力により、前画面に戻るための指示がなされたことを検出した場合には(図41A-図41BのステップCFLW10)、次を行う、すなわち、CPU131は、図41A-図41BのステップCFLW2の処理によりウェイト画面を表示した後、図41A-図41BのステップCFLW3の処理によりディレクトリ名及び画像ファイル名を表示させる制御を再度行う。
 CPU131は、マルチ画像内の一の画像が選択枠により選択され、かつ、操作デバイスの確定キー(例えばキーボード5等が有するENTERキー)の入力により該一の画像の選択が確定されたことを検出した場合に(図41A-図41BのステップCFLW11)、次を行う。すなわち、CPU131は、ウェイト画面を表示させる処理を行う(図41A-図41BのステップCFLW12)とともに、該ウェイト画面表示中に、サムネイル画像としての該一の画像の元の画像を出力させる(図41A-図41BのステップCFLW13)。
 ここで、図41A-図41BのステップCFLW13の処理の詳細について説明を行う。
 CPU131は、選択されたサムネイル画像の元の画像にあたる画像ファイルを、図30の設定画面上の「Decode」欄の項目「Device」において設定された機器(図41A-図41BのステップCFLW6の処理において参照した機器)から読み込む。CPU131は、該画像ファイル(図32-図39で示している内視鏡画像301のHDTV画像ファイル、SDTV画像ファイル、外部画像ファイル1、外部ファイル2を含む)を、バスブリッジ163と、アービタ633とを介し、画像メモリ654に格納させる。なお、CPU131は、図30の設定画面上の「Decode」欄の項目「Device」において設定された機器に記録された全ての画像ファイルが(図41A-図41BのステップCFLW6の処理により)予め画像メモリ654に格納されている場合には、画像メモリ654に格納された各画像ファイルから元の画像にあたる画像ファイルを抽出する処理を行うものであっても良い。
 その後、CPU131は、画像圧縮伸長部73において、画像メモリ654に格納された元の画像ファイルを出力させつつ、該元の画像ファイルに付加されている情報に基づき、伸長/変換処理及びRGB変換処理が該元の画像ファイルのフォーマット等に応じて適切に行われるように、アービタ633を制御する。また、CPU131は、画像メモリ654から出力される元の画像ファイルが拡大縮小回路649を介さずに出力されるように、アービタ633を制御する。画像圧縮伸長部73におけるこのような処理により、圧縮された状態の元の画像ファイルは、伸長された状態の元の画像としてアービタ633から出力される。
 アービタ633から出力された元の画像は、FIFO642または643に入力された後、クロック信号の周波数に基づいて出力される。具体的には、前記元の画像がSDTV方式の画像である場合、FIFO642または643は、13.5MHzのクロック信号に同期するタイミングにおいて、該元の画像を合成回路108Sに対して出力する。また、前記元の画像がHDTV方式の画像である場合、FIFO642または643は、74MHzのクロック信号に同期するタイミングにおいて、該元の画像を合成回路108Hに対して出力する。
 なお、CPU131は、FIFO642または643から出力される元の画像のうち、図30の設定画面上の「Decode」欄の項目「Decode Type」において設定された種類(SDTVまたはHDTV)の元の画像のみを表示するための制御を行うものであっても良い。具体的には、CPU131は、図30の設定画面上の「Decode」欄の項目「Decode Type」においてなされた設定(SDTVまたはHDTV)に応じ、合成回路108H及び合成回路108Sのうち、該設定に合致する一方から出力された一の元の画像のみを表示させるようにしてもよい。それとともに、CPU131は、該設定に合致しない他方から出力された他の元の画像の表示を行わず、かつ、該他の元の画像の代わりに、黒画面または青画面等の所定の画像、または図42-図43で示すように、エラー表示を表示させるように制御を行うものであっても良い。
 そして、前述した図41A-図41BのステップCFLW13の処理により、例えば、図46に示すような状態として元の画像が出力される。なお、CPU131は、前記元の画像が表示されている際に、操作デバイスに設けられた所定のLEDを点灯させる、または、元の画像が表示されている旨のメッセージを表示させる等により、(観察中の画像ではなく、)周辺機器等に記録された画像が表示されている事を告知させる処理を行うものであっても良い。これにより、ユーザは、周辺機器等に記録された画像が(モニタ等の表示部に)表示されていることを容易に認識することができる。
 また、各元の画像は、図46に示すように、例えば、操作デバイスが有する次ページ切り替えキー(例えばキーボード5等が有するPageUpキー)または前ページ切り替えキー(例えばキーボード5等が有するPageDownキー)の入力により、ページ(元の画像1画面)毎の切り替え表示が可能である。
 CPU131は、前記次ページ切り替えキーまたは前記前ページ切り替えキーのうちのいずれかの入力による、元の画像のページ切り替え指示を検出する。と(図41A-図41BのステップCFLW14)、すると、CPU131は、ウェイト画面を表示させる処理を行う(図41A-図41BのステップCFLW15)とともに、該ウェイト画面表示中に、指定されたページの元の画像を生成して出力させる(図41A-図41BのステップCFLW16)。なお、CPU131は、図41A-図41BのステップCFLW9に示す処理のように、指定されたページの元の画像を逐一生成するものに限らず、例えば、既に生成した一の元の画像のページが指定された場合に、該一の元の画像をそのまま出力するものであっても良い。さらに、CPU131は、ページが1ページしかないにも関わらずページ切り替えの指示をした場合、前ページがないにも関わらず前ページ切り替えの指示をした場合、または、次ページがないにも関わらず次ページの指示をした場合のうち、いずれか一の場合を検出した際に、次を行ってもよい。すなわち、CPU131は、キーボード5等が有するキーの入力を無効にし、かつ、エラー音やエラー表示などの警告を行わせるものであっても良い。また、CPU131は、複数の元の画像において、ページ数を(該複数の元の画像各々の)右上隅等に表示させるものであっても良い。
 CPU131は、操作デバイスの所定のキー(例えばキーボード5等が有するBackspaceキーまたはESCキー)の入力により、前画面に戻るための指示がなされたことを検出した場合には(図41A-図41BのステップCFLW17)、次を行う。すなわち、CPUは、図41A-図41BのステップCFLW5の処理によりウェイト画面を表示した後、図41A-図41BのステップCFLW6の処理によりマルチ画像を出力させる制御を再度行う。
 また、CPU131は、前述した図41A-図41BのステップCFLW4の処理において、操作デバイスの所定のキー(例えばキーボード5が有する矢印キー等)及び確定キー(例えばキーボード5が有するENTERキー等)の入力により、一の画像ファイルが直接選択及び確定されたことを検出する(図41A-図41BのステップCFLW18)。すると、CPU131は、図41A-図41BのステップCFLW12の処理によりウェイト画面を表示するとともに、図41A-図41BのステップCFLW13の処理により該一の画像ファイルの元の画像を出力させる処理を行う。
 なお、CPU131は、ディレクトリ名及びファイル名が表示されたまま選択及び確定がなされない状態において、操作デバイスの所定のキー(例えばキーボード5等が有するBackspaceキーまたはESCキー)の入力により前画面に戻るための指示がなされたことを検出した場合には(図41A-図41BのステップCFLW20)、周辺機器等に記録された静止画像を表示するための一連の処理を終了する。
 ここで、各操作デバイスが有するキー及びスイッチ等のうち、レリーズ機能またはキャプチャ機能のいずれかの機能が付加されたキーまたはスイッチ(以降、これらをまとめて記録指示キーと記す)が入力された場合に行われる処理について説明する。なお、以降においては、表示サイズ(図29の設定画面における「Mon size」)が16:9に設定された内視鏡合成画像(例えば、図25に示すような画像)の記録を行うものとして説明を行うものとする。さらに、以降に記す図47から図51までの説明は、前記記録指示キーとして、前述した、「Release1」から「Release4」までのうちのいずれかが割り当てられたキーまたはスイッチの入力があった場合の処理及び動作について、主に述べるものとする。
 まず、主制御部75のCPU131は、操作デバイスの記録指示キーが入力されたか否かを検出する。そして、CPU131は、操作デバイスの記録指示キーの入力を検出すると(図47のステップBBFLW1)、画像を静止させるための処理、及び、該処理により静止させた画像に対してさらに行われる処理である、静止画像処理を行う(図47のステップBBFLW2)。
 具体的には、CPU131は、図47のステップBBFLW2の静止画像処理として、フリーズ回路96においてフリーズ画像を生成させるとともにプリフリーズ処理を行わせる。その後、CPU131は、後段画像処理回路98を制御して静止画像におけるIHbの平均値を算出させる。そして、CPU131は、グラフィック回路106Hを制御してヘモグロビンインデックス322Aの表示内容を前記算出結果に応じて一時的に変更させる。それから、CPU131は、グラフィック回路106Hを制御して時刻情報308の表示を一時的に固定(フリーズ)させる。それから、CPU131は、グラフィック回路106Hを制御してカーソル319を一時的に消去させる。それから、CPU131は、拡張制御部77A及び77Bのグラフィック回路169を制御して画像等を一時的に固定(フリーズ)または消去させる。それから、CPU131は、合成回路108H及び108Sを制御してサムネイル画像群326Aを一時的に消去させるための処理を行う。このような各制御及び処理により、合成回路108Sから出力されるSDTVの内視鏡合成画像、及び、合成回路108Hから出力されるHDTVの内視鏡合成画像の両画像が静止した状態となる。なお、操作デバイスに割り当てられたフリーズ機能を有するスイッチにより、内視鏡画像301としてフリーズ画像が既に表示されている場合においては、前述した図47のステップBBFLW2の各処理のうち、時刻情報308に関する処理、カーソル319に関する処理、グラフィック回路169に対する制御、及び、サムネイル画像群326Aに関する処理以外の処理を省略するものとする。また、図内及び以降において、図47のステップBBFLW2において行われる各処理を、静止画像処理と記すものとする。
 CPU131は、表示サイズ4:3及び16:9の両方の画像に対応可能な周辺機器が前記項目「周辺機器」において設定されている場合には(図47のステップBBFLW3)、さらに、該周辺機器は、次を行う。すなわち、該周辺機器が、記録指示が行われた際にモニタに表示される静止画像に略一致する画像を記録可能なモードである、記録画像表示モードに対応しているか否かを検出する。そして、CPU131は、表示サイズ4:3及び16:9の両方の画像に対応可能であり、かつ、前記記録画像表示モードに対応している周辺機器が前記項目「周辺機器」において設定されている場合には(図47のステップBBFLW5)、後述する図50に示す制御及び処理を行う。また、CPU131は、表示サイズ4:3及び16:9の両方の画像に対応可能であり、かつ、前記記録画像表示モードに対応していない周辺機器が前記項目「周辺機器」において設定されている場合には(図47のステップBBFLW5)、後述する図51に示す制御及び処理を行う。なお、図47のステップBBFLW5後に行う図50または図51に示す制御及び処理は、図47に示すように、択一的でなく、両方行うようにしてもよい。
 また、CPU131は、表示サイズ4:3のみの画像に対応可能な周辺機器が前記項目「周辺機器」において設定されている場合には(図47のステップBBFLW3)、さらに、該周辺機器が記録画像表示モードに対応しているか否かを検出する。そして、CPU131は、表示サイズ4:3のみの画像に対応可能であり、かつ、前記記録画像表示モードに対応している周辺機器が前記項目「周辺機器」において設定されている場合には(図47のステップBBFLW4)、後述する図48に示す制御及び処理を行う。また、CPU131は、表示サイズ4:3のみの画像に対応可能であり、かつ、前記記録画像表示モードに対応していない周辺機器が前記項目「周辺機器」において設定されている場合には(図47のステップBBFLW4)、後述する図49に示す制御及び処理を行う。なお、図47のステップBBFLW4後に行う図48または図49に示す制御及び処理は、図47に示すように、択一的でなく、両方行うようにしてもよい。
 図15から図19に示される各周辺機器のうち、図16のプリンタ202B1、VTR203B1、ファイリング装置204B1及び写真撮影装置205B1は、表示サイズ4:3のみの画像に対応可能な機器であるとともに、前記記録画像表示モードに対応している機器(モニタ201B1またはモニタ201C1に表示される静止画像に略一致する画像を記録可能な機器)である。そのため、図29の設定画面の「HDTV」欄の項目「Release1」、「Release2」、「Release3」及び「Release4」各々が有する子項目の1つである「周辺機器」において、図16のプリンタ202B1、VTR203B1、ファイリング装置204B1及び写真撮影装置205B1のいずれかが選択及び設定された場合、CPU131は、後述する図48に示す制御及び処理を行う。
 図15から図19に示される各周辺機器のうち、図16のプリンタ202B2、VTR203B2、ファイリング装置204B2、写真撮影装置205B2、USBメモリ210及びサーバー212は、表示サイズ4:3及び16:9の両方の画像に対応可能であるとともに、前記記録画像表示モードに対応している機器(モニタ201B2またはモニタ201C2に表示される静止画像に略一致する画像を記録可能な機器)である。そのため、図29の設定画面の「HDTV」欄の項目「Release1」、「Release2」、「Release3」及び「Release4」各々が有する子項目の1つである「周辺機器」において、図16のプリンタ202B2、VTR203B2、ファイリング装置204B2及び写真撮影装置205B2、USBメモリ210及びサーバー212のいずれかが選択及び設定された場合、CPU131は、後述する図50に示す制御及び処理を行う。
 図15から図19に示される各周辺機器のうち、図17のプリンタ202C1、VTR203C1、ファイリング装置204C1、写真撮影装置205C1、内視鏡形状検出装置206C1及び超音波装置207C1は、表示サイズ4:3のみの画像に対応可能な機器であるとともに、前記記録画像表示モードに対応している機器(モニタ201C1またはモニタ201B1に表示される静止画像に略一致する画像を記録可能な機器)である。そのため、図29の設定画面の「HDTV」欄の項目「Release1」、「Release2」、「Release3」及び「Release4」各々が有する子項目の1つである「周辺機器」において、図17のプリンタ202C1、VTR203C1、ファイリング装置204C1、写真撮影装置205C1、内視鏡形状検出装置206C1及び超音波装置207C1のいずれかが選択及び設定された場合、CPU131は、後述する図48に示す制御及び処理を行う。
 図15から図19に示される各周辺機器のうち、図17のプリンタ202C2、VTR203C2、ファイリング装置204C2、写真撮影装置205C2、内視鏡形状検出装置206C2、超音波装置207C2、USBメモリ210及びサーバー212は、表示サイズ4:3及び16:9の両方の画像に対応可能な機器であるとともに、前記記録画像表示モードに対応している機器(モニタ201C2またはモニタ201B2に表示される静止画像に略一致する画像を記録可能な機器)である。そのため、図29の設定画面の「HDTV」欄の項目「Release1」、「Release2」、「Release3」及び「Release4」各々が有する子項目の1つである「周辺機器」において、図17のプリンタ202C2、VTR203C2、ファイリング装置204C2、写真撮影装置205C2、内視鏡形状検出装置206C2及び超音波装置207C2、USBメモリ210及びサーバー212のいずれかが選択及び設定された場合、CPU131は、後述する図50に示す制御及び処理を行う。
 図15から図19に示される各周辺機器のうち、図18のプリンタ202D1、ファイリング装置204D1、写真撮影装置205D1、光学記録装置208D1及びHID209D1は、表示サイズ4:3のみの画像に対応可能な機器であるとともに、前記記録画像表示モードに対応していない機器である。そのため、図29の設定画面の「HDTV」欄の項目「Release1」、「Release2」、「Release3」及び「Release4」各々が有する子項目の1つである「周辺機器」において、図18のプリンタ202D1、ファイリング装置204D1、写真撮影装置205D1、光学記録装置208D1及びHID209D1のいずれかが選択及び設定された場合、CPU131は、後述する図49に示す制御及び処理を行う。
 図15から図19に示される各周辺機器のうち、図18のプリンタ202D2、ファイリング装置204D2、写真撮影装置205D2、光学記録装置208D2及びHID209D2、USBメモリ210及びサーバー212は、表示サイズ4:3及び16:9の両方の画像に対応可能な機器であるとともに、前記記録画像表示モードに対応していない機器である。そのため、図29の設定画面の「HDTV」欄の項目「Release1」、「Release2」、「Release3」及び「Release4」各々が有する子項目の1つである「周辺機器」において、図18のプリンタ202D2、ファイリング装置204D2、写真撮影装置205D2、光学記録装置208D2及びHID209D2、USBメモリ210及びサーバー212のいずれかが選択及び設定された場合、CPU131は、後述する図51に示す制御及び処理を行う。なお、図10に示すPCカード167及びメモリカード168もまた、表示サイズ4:3及び16:9の両方の画像に対応可能な機器であるとともに、前記記録画像表示モードに対応していない機器である。これにより、図29の設定画面の「HDTV」欄の項目「Release1」、「Release2」、「Release3」及び「Release4」各々が有する子項目の1つである「周辺機器」において、PCカード167及びメモリカード168のいずれかが選択及び設定された場合、CPU131は、後述する図51に示す制御及び処理を行うものとする。
 図15から図19に示される各周辺機器のうち、図19のプリンタ202E1、ファイリング装置204E1、写真撮影装置205E1及び光学記録装置208E1は、表示サイズ4:3のみの画像に対応可能な機器であるとともに、前記記録画像表示モードに対応していない機器である。そのため、図29の設定画面の「HDTV」欄の項目「Release1」、「Release2」、「Release3」及び「Release4」各々が有する子項目の1つである「周辺機器」において、図19のプリンタ202E1、ファイリング装置204E1、写真撮影装置205E1及び光学記録装置208E1のいずれかが選択及び設定された場合、CPU131は、後述する図49に示す制御及び処理を行う。
 図15から図19に示される各周辺機器のうち、図19のプリンタ202E2、ファイリング装置204E2、写真撮影装置205E2及び光学記録装置208E2、USBメモリ210及びサーバー212は、表示サイズ4:3及び16:9の両方の画像に対応可能な機器であるとともに、前記記録画像表示モードに対応していない機器である。そのため、図29の設定画面の「HDTV」欄の項目「Release1」、「Release2」、「Release3」及び「Release4」各々が有する子項目の1つである「周辺機器」において、図19のプリンタ202E2、ファイリング装置204E2、写真撮影装置205E2及び光学記録装置208E2、USBメモリ210及びサーバー212のいずれかが選択及び設定された場合、CPU131は、後述する図51に示す制御及び処理を行う。
 ここで、図47の各処理に続けて行われる処理である、図48の各処理(及び該各処理に付随する処理)についての説明を行う。
 CPU131は、合成回路108H及びフリーズ回路96及び同時化101H、101Sを制御することにより、表示サイズ4:3の記録用のフリーズ画像(以降、記録用フリーズ画像と記す)を生成する。かつ、CPU131は、グラフィック回路106Hを制御して画像信号に応じた画像に関連する情報(以降、内視鏡関連情報と記す)を示す文字及びグラフィック情報の位置を図22に示すように4:3の表示サイズの位置に変更する。それから、CPU131は、その位置を変更した文字及びグラフィック情報をD/A110Hまたは画像出力部121に対して出力させる(図48のステップBBFLW11)。
 グラフィック回路106Hは、マスク処理回路611Hによりマスク処理された画像信号に応じた画像に関連する情報(以降、内視鏡関連情報と記す)を示す文字及びグラフィック情報を生成して出力する。
 CPU131は、図29の設定画面の「HDTV」欄の項目「Release1」、「Release2」、「Release3」及び「Release4」各々が有する子項目の1つである「周辺機器」において設定された周辺機器へ、記録指示信号または記録指示コマンドを出力し、フリーズ画像を記録させる(図48のステップBBFLW12)。
 CPU131は、信号線125aからのHDTVフリーズ画像とサムネイル画像を画像メモリ654に格納させるとともに、該サムネイル画像をサムネイル群326Aにおけるサムネイル画像326の表示位置の設定を行う(図48のBBFLW13)。
 次に、CPU131は、信号線124aからのSDTVフリーズ画像とサムネイル画像を画像メモリ654に格納させるとともに、該サムネイル画像をサムネイル群326Aにおけるサムネイル画像326の表示位置の設定を行う(図48のBBFLW14)。
 さらに、CPU131は、図29の設定画面上の「Release Time」欄の項目「HDTV」において設定された時間が経過したか否かを検出する。
 そして、CPU131は、図29の設定画面上の「Release Time」欄の項目「HDTV」において設定された時間が経過したことを検出すると(図48のステップBBFLW15)、後述する図48のステップBBFLW16に示す処理を引き続き行う。また、CPU131は、図29の設定画面上の「Release Time」欄の項目「HDTV」において設定された時間が経過していないことを検出すると(図48のステップBBFLW15)、該「Release Time」欄の項目「HDTV」において設定された時間(HDTVレリーズ期間)が経過したか否かの検出を繰り返し行う(図48のステップBBFLW15)。
 その後、CPU131は、以降に記す処理により静止画像処理を解除するとともに、合成回路108Hを制御することにより、HDTVの内視鏡合成画像を生成及び出力させる(図48のステップBBFLW16)。
 具体的には、CPU131は、後述するようにフリーズ回路96及び同時化101Hのフリーズ処理を中断する制御をすることにより、内視鏡画像301として動画像を出力させる。また、CPU131は、サムネイル画像のうち、例えば、図48のステップBBFLW13及びステップBBFLW14において生成されたサムネイル画像を新たにサムネイル画像326として出力させる処理を行う。
 そして、CPU131は、記録指示キーが入力された際に拡張制御部77A及び(または)77Bのグラフィック回路169から画像等が出力されていたことを検出した場合には、拡張制御部77A及び(または)77Bのグラフィック回路169を制御して該画像等の一部または全ての出力を再開させる処理を前記処理に併せて行う。さらに、CPU131は、グラフィック回路106Hを制御し、観察情報群300のD.F311(またはSCV309またはCVP310)の値に1を加えて表示させる。そして、CPU131は、ヘモグロビンインデックス322Aの表示内容を(例えば「IHb=---」に)変更させ、時刻情報308の表示の固定を解除させ、カーソル319を再表示させる処理を前記処理に併せて行う。また、CPU131は、フリーズ回路96及び同時化101Hにおけるフリーズ画像の生成を中断させ、合成回路108Hにおいて動画像を出力させる処理を前記処理に併せて行う。また、CPU131は、同時化回路101S及びメモリ104Sを制御してフリーズ画像を生成させるとともに、該フリーズ画像を合成回路108Sに対して該フリーズ画像を出力させる処理を前記処理に併せて行う。これにより、CPU131は、SDTVの静止画像を継続して出力させる。
 かつグラフィック回路106Hを制御して画像信号に応じた画像に関連する情報(以降、内視鏡関連情報と記す)を示す文字及びグラフィック情報の位置を図21に示すように元の16:9の表示サイズの位置に変更する。
 そして、CPU131は、「Release Time」欄の項目「SDTV」において設定された期間が経過したことを検出すると(図48のステップBBFLW17)、図48のステップBBFLW16と同様の処理により静止画像処理を解除する(図48のステップBBFLW18)。それとともに、CPU131は、同時化回路101S及びメモリ104Sを制御することにより、フリーズ画像の生成を中断させるための処理を行う。
 また、以上に述べた、(図47及び)図48に示す一連の処理により、モニタ等に表示される画面が遷移する。
 ここで、図47の各処理に続けて行われる処理である、図49の各処理(及び該各処理に付随する処理)についての説明を行う。
 CPU131は、信号線125aからのHDTVフリーズ画像とサムネイル画像を画像メモリ654に格納させるとともに、該サムネイル画像をサムネイル群326Aにおけるサムネイル画像326の表示位置の設定を行う(図49のBBFLW41)。
 次に、CPU131は、信号線124aからの信号に基づくSDTVフリーズ画像とサムネイル画像を画像メモリ654に格納させるとともに、該サムネイル画像をサムネイル群326Aにおけるサムネイル画像326の表示位置の設定を行う(図49のBBFLW42)。
 次に、CPU131は、信号線607からの入力画像を画像メモリ654に格納させる(図48のBBFLW43)。
 次に、CPU131は、信号線607’からの入力画像を画像メモリ654に格納させる(図48のBBFLW44)。
 そして、CPU131は、図48のステップBBFLW16及びステップBBFLW18と同様の処理により静止画像処理を解除する(図49のステップBBFLW45)。これにより、CPU131は、内視鏡画像301として動画像を出力させる。
 その後、CPU131(及びCPU151)は、画像メモリ654に格納されている、記録用フリーズ画像、A/D or DEC612,612’を介して周辺機器から入力される信号線607,607’の外部画像、及びサムネイル画像を圧縮・記録させる処理を行う(図49のステップBBFLW46)。なお、図49のステップBBFLW46の処理の詳細については、図51のステップBBFLW86の処理に関する説明として後述するものとする。このとき、表示サイズ(出力サイズ)4:3の場合の配置情報(画面に表示された構成要素の座標情報)を記録するようにしてもよい。
 以上に述べた、(図47及び)図49に示す一連の処理により、モニタ等に表示される画面が遷移する。
 ここで、図47の各処理に続けて行われる処理である、図50の各処理(及び該各処理に付随する処理)についての説明を行う。
 そして、CPU131は、図29の設定画面の「HDTV」欄の項目「Release1」、「Release2」、「Release3」及び「Release4」各々が有する子項目の1つである「周辺機器」において設定された周辺機器へ、信号線142aまたは143aを介して記録指示信号または記録指示コマンドを出力し、表示サイズ16:9の内視鏡合成画像を記録させる(図50のステップBBFLW61)。
 CPU131は、信号線125aからのHDTVフリーズ画像とサムネイル画像を画像メモリ654に格納させるとともに、該サムネイル画像をサムネイル群326Aにおけるサムネイル画像326の表示位置の設定を行う(図50のBBFLW62)。
 次に、CPU131は、信号線124aからのSDTVフリーズ画像とサムネイル画像を画像メモリ654に格納させるとともに、該サムネイル画像をサムネイル群326Aにおけるサムネイル画像326の表示位置の設定を行う(図50のBBFLW63)。
 CPU131は、図29の設定画面上の「Release Time」欄の項目「HDTV」において設定された時間が経過したことを検出すると(図50のステップBBFLW64)、後述する図50のステップBBFLW65に示す処理を引き続き行う。また、CPU131は、図29の設定画面上の「Release Time」欄の項目「HDTV」において設定された時間が経過していないことを検出すると(図50のステップBBFLW64)、図29の設定画面上の「Release Time」欄の項目「HDTV」において設定された時間(HDTVレリーズ期間)が経過したか否かの検出を繰り返し行う(図50のステップBBFLW64)。
 その後、CPU131は、前述した、図48のステップBBFLW16、ステップBBFLW17及びステップBBFLW18と同様の処理を行うことにより、静止画像処理を解除する(図50のステップBBFLW65、ステップBBFLW66及びステップBBFLW67)。
 以上に述べた、(図47及び)図50に示す一連の処理により、モニタ等に表示される画面が遷移する。
 ここで、図47の各処理に続けて行われる処理である、図51の各処理(及び該各処理に付随する処理)についての説明を行う。
 CPU131は、信号線125aからの信号に基づくHDTVフリーズ画像とサムネイル画像を画像メモリ654に格納させる。それとともに、CPU131は、該サムネイル画像をサムネイル群326Aにおけるサムネイル画像326の表示位置の設定を行う(図51のBBFLW81)。
 次に、CPU131は、信号線124aからのSDTVフリーズ画像とサムネイル画像を画像メモリ654に格納させる。それとともに、CPU131は、該サムネイル画像をサムネイル群326Aにおけるサムネイル画像326の表示位置の設定を行う(図51のBBFLW82)。
 次に、CPU131は、信号線607からの入力画像を画像メモリ654に格納させる(図51のBBFLW83)。
 次に、CPU131は、信号線607’からの入力画像を画像メモリ654に格納させる(図51のBBFLW84)。
 その後、CPU131は、図49のステップBBFLW45と同様の処理により静止画像処理を解除する静止画像処理を解除する(図51のステップBBFLW85)ことにより、内視鏡画像301として動画像を出力させる。
 そして、CPU131(及びCPU151)は、前述した図49のステップBBFLW46の処理と略同様の処理により、画像メモリ654に格納されている、表示サイズ16:9の内視鏡合成画像及びサムネイル画像を圧縮及び記録させる処理を行う(図51のステップBBFLW86)。
 ここで、図51のステップBBFLW86の処理の詳細について、図52及び図53のフローチャートを用いて説明を行う。なお、図52及び図53のフローチャートは、図29の設定画面において、「SDTV」欄及び「HDTV」欄の項目「Release2」及び「Release3」が操作デバイスの記録指示キーとして設定され、項目「thumbnail」が「ON」に設定され、項目「Release2」及び「Release3」の子項目「周辺機器」が出力先の周辺機器(ファイリング装置204E1、サーバー212、USBメモリ210等)に設定され、さらに、項目「Release2」の子項目「Encode」がJPEG(等の比較的高圧縮率のフォーマット)に設定され、項目「Release3」の子項目「Encode」がTIFF(等の、非圧縮または比較的低圧縮率のフォーマット)に設定された、という条件において説明を行うものとする。
 まず、CPU131は、図47のステップBBFLW1においてなされた記録指示キーの操作が、「Release2」のレリーズ機能が割り付けられたキーまたはスイッチによるもの、または、「Release3」のレリーズ機能が割り付けられたキーまたはスイッチによるもののいずれであるかを検出する。
 そして、CPU131は、図47のステップBBFLW1においてなされた記録指示キーの操作が、「Release2」のレリーズ機能が割り付けられたキーまたはスイッチによるものであることを検出した場合(図52のステップVFLW1)、画像メモリ654に格納された各画像に対して圧縮/変換処理などの処理を施し、再度画像メモリ654に格納させる(図52のステップVFLW2)。その後、CPU131は、画像メモリ654に格納されている記録用フリーズ画像を再度出力させ、拡大縮小649にて各画像のサムネイル画像を生成させ、JPEGエンコード/デコード回路647においてJPEGフォーマットの圧縮/変換処理を施させた後、該圧縮/変換処理後の各画像を画像メモリ654に格納させる(図52のステップVFLW2)。なお、CPU131は、図52のステップVFLW2の処理の際に、図29の設定画面において設定された内容に応じ、YUV-RGB変換処理回路651における処理を適宜行わせるものであるとする。
 そして、CPU131(またはCPU151)は、画像メモリ654に格納された、JPEGフォーマットの記録用フリーズ画像を、拡張制御部77Aのバッファ166に対して出力させる(図52のステップVFLW3)。なお、CPU131(またはCPU151)は、図52のステップVFLW3の処理において、JPEGフォーマットの記録用フリーズ画像に併せ、各サムネイル画像もまたバッファ166に対して出力させるものとする。バッファ166は、例えばプロセッサ4内部の不揮発性メモリである。また、図52のステップVFLW3の処理においては、バッファ166の代わりに、コントローラ164に接続された図示しないUSB(登録商標)メモリが使用されるものであっても良い。
 それから、CPU151は、図33-図35、図36-図37で説明したように、画像メモリ654に格納された各画像を構成画像とする内視鏡合成画像についての検査情報管理ファイル及び撮影情報管理ファイルを作成する(VFLW3-1)。
 その後、拡張制御部77AのCPU151は、図29の設定画面の項目「暗号化」がONまたはOFFのうちのいずれに設定されているかを検出する。そして、CPU151は、図29の設定画面の項目「暗号化」がONであることを検出する(図52のステップVFLW4)。すると、CPU131は、JPEGフォーマットの記録用フリーズ画像、及び各サムネイル画像、検査情報管理ファイル及び撮影情報管理ファイルに対し、暗号処理回路170による暗号化を施させる。その後、CPU131は、暗号化後のJPEGフォーマットの記録用フリーズ画像及び各サムネイル画像と検査情報管理ファイル及び撮影情報管理ファイルを、出力先の周辺装置(ファイリング装置204E1、サーバー212、またはUSBメモリ210等)に対して出力させる(図52のステップVFLW5)。なお、USBメモリ210については、図29、図30の設定メニューに関係なく、プロセッサ4に接続した時に、これらの情報をUSBメモリ210に自動的に記録するようにしてもよい。
 また、CPU151は、図29の設定画面の項目「暗号化」がOFFであることを検出する(図52のステップVFLW4)。すると、CPU131は、JPEGフォーマットの記録用フリーズ画像及び各サムネイル画像と、検査情報管理ファイル及び撮影情報管理ファイルを、出力先の周辺装置(ファイリング装置204E1、サーバー212、またはUSBメモリ210等)に対して出力させる(図52のステップVFLW6)。なお、USBメモリ210をプロセッサ4に接続した時に、これらの情報をUSBメモリ210に自動的に記録するようにしてもよい。
 そして、CPU151は、各画像の出力先の周辺機器(ファイリング装置204E1、サーバー212、またはUSBメモリ210等)への出力が完了したことを検出すると(図52のステップVFLW7)、出力が完了した該各画像をバッファ166からクリアした(図52のステップVFLW8)後、処理を終了する。なお、出力が完了した該各画像をバッファから転送済みの状態とするのでもよい。これについて、図56を用いて説明する。
 図56は、バッファ166に格納された画像データの内容を管理するための画面例を示す。図56の画面700は、バッファ166に格納された画像データの内容を参照するときに表示される画面である。
 画面700の画像フォルダ一覧701は、検査日付選択欄702と患者名選択欄703からなる。検査日付選択欄702では、バッファ166に格納された画像フォルダの検査日付を選択することができる。患者名選択欄703では、検査日付選択欄702で選択された検査日付の画像フォルダのうち特定の患者の画像フォルダを選択することができる。入力欄704には、フォルダ情報を入力することができる。「終了(Menu)」ボタン705を押下すれば、当該画面700を閉じる。「USBメモリ(P)」ボタン706を押下すれば、USBメモリ210に格納された画像データの内容を管理するための画面へ遷移する。「選択(S)」ボタン707を押下すれば、検査日付一覧702及び患者名選択欄703から特定の患者の画像フォルダを選択することができる。「編集(E)」ボタン708を押下すれば、画像フォルダの編集を行うことができる。
 患者名選択欄703において、「カンジャメイ030」、「カンジャメイ019」は、図56において他の患者名より細い書体で表示されている。その表示は「カンジャメイ030」「カンジャメイ019」に対応する画像フォルダ(または画像データ)がバッファ166から出力先の周辺機器(ファイリング装置204E1、サーバー212またはUSBメモリ210等)へ既に転送済みであることを示している。この場合、画像フォルダ(または画像データ)の再転送は行わず、画像データを、リングバッファで順次消去するようにしてもよい。また、バッファ166の空き容量が所定量以下になった場合は、バッファ166への格納をせずVFLW3の処理をパスするようにしてもよい。
 また、CPU131は、図47のステップBBFLW1においてなされた記録指示キーの操作が、「Release3」のレリーズ機能が割り付けられたキーまたはスイッチによるものであることを検出した場合(図52のステップVFLW1及びVFLW9)、画像メモリ654に格納された各画像に対して圧縮/変換処理などの処理を施し、再度画像メモリ654に格納させる(図52のステップVFLW10)。その後、CPU131は、画像メモリ654に格納されている記録用フリーズ画像を再度出力させる。それから、CPU131は、拡大縮小649にて各画像のサムネイル画像を生成させる。それから、CPU131は、TIFF・BMP変換回路647においてTIFFフォーマットの圧縮/変換処理を施させる。その後、CPU131は、該圧縮/変換処理後の各画像を画像メモリ654に格納させる(図52のステップVFLW10)。なお、CPU131は、図52のステップVFLW9の処理の際に、図29の設定画面において設定された内容に応じ、YUV-RGB変換処理回路651における処理を適宜行わせるものであるとする。
 そして、CPU131は、画像メモリ654に格納された、TIFFフォーマットの記録用フリーズ画像を、拡張制御部77Aのバッファ166に対して出力させた(図52のステップVFLW11)後、処理を終了する。
 なお、CPU131は、図52のステップVFLW3及び図52のステップVFLW11において、各画像をバッファ166に出力させる際に、前述した各項目a)からz)までに列挙する各情報のうちの少なくとも一を、画像に付加することにより併せて出力させるための処理を行うものであっても良い。また、図52のステップVFLW11の処理の後、バッファ166に格納された各画像が出力先の周辺機器(ファイリング装置204E1、サーバー212またはUSBメモリ210等)に対して出力される際の処理の詳細については、後述するものとする。
 ここで、前述した図52のステップVFLW11の処理においてバッファ166に格納された各画像が、例えば、検査終了通知機能を有するキーが入力された場合に出力先の周辺機器(ファイリング装置204E1、サーバー212またはUSBメモリ210等)に対して出力される際の処理の詳細についての説明を、図53のフローチャートに沿って行う。
 拡張制御部77AのCPU151は、検査終了通知機能を有するキーの入力を検出すると、バッファ166に格納された各画像を読み込む。その後、CPU151は、画像圧縮伸長部73の拡大縮小回路649において、該各画像を一覧表示させるためのマルチ画像を生成及び出力させるための処理を行う(図53のステップVVFLW1)。
 図53のステップVVFLW1における処理の具体例は、以下に記す通りである。
 拡張制御部77AのCPU151は、バッファ166に格納された各画像を読み込み、該各画像を、バスブリッジ163及び画像圧縮伸長部73のアービタ633を介して画像メモリ654に格納させる。
 そして、CPU151は、例えば、画像メモリ654に格納された各画像に付加された情報に基づいてアービタ633を制御する。これにより、CPU151は、前記各画像のフォーマット等に応じ、拡大縮小回路649による拡大/縮小処理、及び、YUV-RGB変換回路651によるにRGB変換処理を、前記各画像に対して適宜行わせる。
 また、CPU151は、アービタ633から出力される各画像が拡大縮小回路649を介して出力されるように、アービタ633に対して制御を行う。
 拡大縮小回路649は、例えば、アービタ633から出力される各画像のサイズに応じて一の画面内に一覧表示させるサムネイル画像の個数を設定する。それとともに、拡大縮小回路649は、該サムネイル画像の個数に応じた(例えば一の画面内に16個のサムネイル画像が一覧表示されるような)マルチ画像を生成及び出力する。
 拡大縮小回路649により生成されたマルチ画像は、FIFO642または643及び、合成回路108Hまたは108S等を介して(モニタ等の表示部に対して)出力される。
 そして、以上に述べた、図53のステップVVFLW1における処理により、例えば、図55に示すようなマルチ画像が生成及び出力される。
 なお、図55に示すようなマルチ画像において、観察情報群300、画像関連情報群301Aが表示されるものであっても良い。
 なお、図55に示すマルチ画像内における太線の枠は、マルチ画像に含まれる各画像のうち、現在選択されている画像を示す選択枠である。例えば、選択枠は、操作デバイスの所定のキー(例えばキーボード5等が有する矢印キー)の入力により移動させることができる。なお、前記選択枠は、グラフィック回路106Hにおいて生成された後、合成回路108Hにより合成される。また、前記選択枠は、グラフィック回路106Sにおいて生成された後、合成回路108Sにより合成され、各々出力される。また、前記選択枠は、グラフィック回路169において生成されるものであっても良い。
 CPU151は、図55のマルチ画像において1または複数のサムネイル画像が選択され、確定キー(例えばキーボード5等が有するENTERキー)の入力により確定されたことを検出する(図53のステップVVFLW2)。
 それから、CPU151は、図33-図35、図36-図37で説明したように、画像メモリ654に格納された各画像を構成画像とする内視鏡合成画像についての検査情報管理ファイル及び撮影情報管理ファイルを作成する(VVFLW2-1)。さらに、図29の設定画面の項目「暗号化」がONまたはOFFのうちのいずれに設定されているかを検出する。
 そして、CPU151は、図29の設定画面の項目「暗号化」がONであることを検出すると(図53のステップVVFLW3)、TIFFフォーマットの記録用フリーズ画像、及び各サムネイル画像、検査情報管理ファイル及び撮影情報管理ファイルに対し、暗号処理回路170による暗号化を施させる。その後、CPU151は、暗号化後のTIFFフォーマットの記録用フリーズ画像及び各サムネイル画像と、検査情報管理ファイル及び撮影情報管理ファイルを、出力先の周辺装置(ファイリング装置204E1、サーバー212、またはUSBメモリ210等)に対して出力させる(図53のステップVVFLW4)。なお、USBメモリ210をプロセッサ4に接続した時に、これらの情報をUSBメモリ210に自動的に記録するようにしてもよい。
 また、CPU151は、図29の設定画面の項目「暗号化」がOFFであることを検出すると(図53のステップVVFLW3)、JPEGフォーマットの記録用フリーズ画像及び各サムネイル画像と、検査情報管理ファイル及び撮影情報管理ファイルを、出力先の周辺装置(ファイリング装置204E1、サーバー212、またはUSBメモリ210等)に対して出力させる(図53のステップVVFLW5)。なお、USBメモリ210をプロセッサ4に接続した時に、これらの情報をUSBメモリ210に自動的に記録するようにしてもよい。
 CPU151は、各画像の出力先の周辺機器(ファイリング装置204E1、サーバー212、またはUSBメモリ210等)への出力が完了したことを検出すると(図53のステップVVFLW6)、出力が完了した該各画像をバッファ166からクリアした(図53のステップVVFLW7)後、処理を終了する。なお、図56で説明したように、出力が完了した該各画像をバッファから転送済みの状態とするのでもよい。この場合、画像データの再転送は行わず、画像データを、リングバッファで順次消去するようにしてもよい。
 なお、CPU151は、例えば、図53のステップVVFLW1及びステップVVFLW2の処理を行うことなく、バッファ166に記録された全画像を出力先の周辺機器(ファイリング装置204E1、サーバー212またはUSBメモリ210等に対して)出力させるものであっても良い。
 また、前述した図52のステップVFLW11の処理においてバッファ166に格納された各画像が、例えば、プロセッサ4の電源がOFFからONへ切換えられた場合にファイリング装置204B1に対して出力される際の処理の詳細についての説明を、図54のフローチャートに沿って行う。
 CPU151は、プロセッサ4の電源がOFFからONへ切換えられた際に、クリアされていない画像がバッファ166に格納されているか否かを検出する。そして、CPU151は、プロセッサ4の電源がOFFからONへ切換えられた際に、クリアされていない画像がバッファ166に格納されていないことを検出すると(図54のステップVVVFLW1)、処理を終了する。
 また、CPU151は、プロセッサ4の電源がOFFからONへ切換えられた際に、クリアされていない画像がバッファ166に格納されていることを検出する(図54のステップVVVFLW1)。
 それから、CPU151は、図33-図35,図36-図37で説明したように、画像メモリ654に格納された各画像を構成画像とする内視鏡合成画像についての検査情報管理ファイル及び撮影情報管理ファイルを作成する(VVVFLW1-1)。さらに、図29の設定画面の項目「暗号化」がONまたはOFFのうちのいずれに設定されているかを検出する。
 そして、CPU151は、図29の設定画面の項目「暗号化」がONであることを検出すると(図54のステップVVVFLW2)、TIFFフォーマットの記録用フリーズ画像、及び各サムネイル画像、検査情報管理ファイル及び撮影情報管理ファイルに対し、暗号処理回路170による暗号化を施させる。その後、CPU151は、暗号化後のTIFFフォーマットの記録用フリーズ画像及び各サムネイル画像と、検査情報管理ファイル及び撮影情報管理ファイルを、出力先の周辺装置(ファイリング装置204E1、サーバー212、またはUSBメモリ210等)に対して出力させる(図54のステップVVVFLW3)。なお、USBメモリ210をプロセッサ4に接続した時に、これらの情報をUSBメモリ210に自動的に記録するようにしてもよい。
 また、CPU151は、図29の設定画面の項目「暗号化」がOFFであることを検出すると(図54のステップVVVFLW2)、JPEGフォーマットの記録用フリーズ画像及び各サムネイル画像と、検査情報管理ファイル及び撮影情報管理ファイルを、出力先の周辺装置(ファイリング装置204E1、サーバー212、またはUSBメモリ210等)に対して出力させる(図54のステップVVVFLW4)。なお、USBメモリ210をプロセッサ4に接続した時に、これらの情報をUSBメモリ210に自動的に記録するようにしてもよい。
 その後、CPU151は、出力が完了した該各画像をバッファ166からクリアし(図54のステップVVVFLW5)、処理を終了する。
 なお、CPU151は、図54のステップVVVFLW1の処理の後に、例えば、図53のステップVVFLW1における処理と同様の処理により、バッファ166からクリアされていない画像の一覧を示すためのマルチ画像を生成させる処理を行わせるものであっても良い。
 また、図54のステップVVVFLW1の処理は、図56で説明した、出力が未完了の該各画像について、VVVFLW1-1、VVVFLW2、VVVFLW3、VVVFLW4の処理を行ってもよく、ステップVVVFLW5の処理も、図56で説明したように、出力が完了した該各画像をバッファから転送済みの状態とするのでもよい。この場合、画像データの再転送は行わず、画像データを、リングバッファで順次消去するようにしてもよい。
 以上に述べた、(図47及び)図51に示す一連の処理により、モニタ等に表示される画面が遷移する。
 なお、図29の設定画面における項目「Release1」から「Release4」までのうちのいずれか一の子項目である「周辺機器」において、記録画像表示モードに対応している機器と、記録画像表示モードに対応していない機器とを含む複数の機器が設定された場合、CPU131は、例えば、図48のステップBBFLW18、または、図50のステップBBFLW67の処理を行った後、図52に示す各処理と同様の圧縮処理及び記録処理をさらに行うものであっても良い。
 次に、図42-図43、図44-図46、図52-図55とは別の内視鏡画像301、外部画像330、331(内視鏡形状検出装置の画像330と超音波装置の画像331)の再生について説明する。図56の画面700において、「USBメモリ(P)」ボタン706を押下すると、図57に示すように、USBメモリ210に格納された画像データの内容を管理するための画面710が表示される。図57の画面710の「内部(I)」ボタン711を押下すると、図56の画面700に戻る。「USBメモリ(P)」ボタン706と「内部(I)」ボタン711との相違を除いて、図57の画面710の構成要素である画像フォルダ一覧711(検査日付選択欄712、患者名選択欄713)、入力欄714、「終了(Menu)」ボタン715、「USBメモリ(P)」ボタン716、「選択(S)」ボタン717、「編集(E)」ボタン718はそれぞれ、図56の画面700の構成要素である画像フォルダ一覧701(検査日付選択欄702、患者名選択欄703)、入力欄704、「終了(Menu)」ボタン705、「USBメモリ(P)」ボタン706、「選択(S)」ボタン707、「編集(E)」ボタン708と同じなので、その説明を省略する。
 図57において、検査日付選択欄712から対象となる検査日付を選択し、患者名選択欄713から対象となる患者名フォルダを選択して、「選択(S)」ボタン717を押下する。すると、その選択した画像フォルダに含まれる画像群に対応するサムネイル画像群がマルチ画像720として表示される。
 そのマルチ画像720からいずれかのサムネイル画像を選択して、「表示(v)」ボタン721を押下すると、その選択したサムネイル画像に対応する画像が再生される。
 一方、そのサムネイル画像の一覧720からn枚(n≧1)のサムネイル画像を選択して、「アノテート(A)」ボタン722を押下すると、画面がn分割されて、その選択したサムネイル画像に対応するn枚の画像が再生される。図57の(1)の場合は、そのマルチ画像720から1枚のサムネイル画像を選択して、「アノテート(A)」ボタン722を押下した場合である。図57の(2)の場合は、そのマルチ画像720から2枚のサムネイル画像を選択して、「アノテート(A)」ボタン722を押下した場合である。(3)の場合は、そのサムネイル画像の一覧720から4枚のサムネイル画像を選択して、「アノテート(A)」ボタン722を押下した場合である。
 ところで、図32に示すディレクトリ構造を有するフォルダの画像データは、プロセッサ4より、コントローラ161、HUB162を介して信号線162へ出力され、HIB211を介して、サーバー212へ送られ、サーバー212内の大容量記憶装置に格納することができる。そして、HUB211を介して、プロセッサ4またはPC端末213を用いて、サーバー212内の大容量記憶装置に格納したそのフォルダデータにアクセスすることができ、プロセッサ4またはPC端末213の表示装置に、内視鏡合成画像300-1を表示させることができる。さらに、プロセッサ4またはPC端末213の表示装置に表示させた内視鏡合成画像300-1について、図58に示すように、構成画像のサイズを変更する等、その表示態様を変更することもできる。以下では、PC端末213上での内視鏡合成画像のレイアウト変更について説明するが、プロセッサ4上での内視鏡合成画像のレイアウト変更をするようにしてもよい。
 図58の上側の画像は、PC端末213の表示装置に表示させた内視鏡合成画像300-1であり、その内視鏡合成画像300-1についての検査情報管理ファイル及び撮影情報管理ファイルが図59の左側に示すファイルである。PC端末213において、その内視鏡合成画像300-1のレイアウトの変更を行うことができる。
 例えば、内視鏡合成画像300-1から左上にある外部画像1を削除し、内視鏡画像300の横幅を狭め、左下にある外部画像2のサイズを小さくして、図58の下側の内視鏡合成画像300-1’のように変更することもできる。この変更に伴い、サーバー212内の大容量記憶装置に記憶された検査情報管理ファイル及び撮影情報管理ファイルの内容も、図59の右側に示すように、更新される(図59の右側において、図59の左側のファイルより変更された部分については、下線を引いて示している)。
 このように、サーバー212へアクセスしてPC端末213で表示した内視鏡合成画像300-1を、PC端末213上で修正し、PC端末213上またはサーバー213で保存することができる。このとき、検査情報管理ファイル及び撮影情報管理ファイル内のデータが、図59の右側のように自動的に書き換わることで、ユーザーに最適な画像のファイルが生成できる。また、そのように更新された検査情報管理ファイル及び撮影情報管理ファイルをプロセッサ4に送信することで、ユーザーは最適な画像の再生することができる。
 さらに、PC端末213上における内視鏡合成画像の表示態様の変更について説明する。例えば、図60に示すように、内視鏡合成画像300-1上で、その構成画像である内視鏡形状検出装置の画像330と超音波装置の画像331を、内視鏡合成画像300-1で移動させたり(図60(2))、サイズを縮小したり(図60(3))、PoutP表示させたり(図60(4))、主画面を切り替えたり(図60(5))することができる。
 具体的に説明すると、図60において、PC端末213のディスプレイに表示された表示形態の変更前の内視鏡合成画像300-1では、内視鏡画像301が主画面として、内視鏡形状検出装置の画像330と超音波装置の画像331とがそれぞれ子画面として、PinP形式で表示されている(図60(1))。
 図60(1)の状態から、PC端末213を操作して、内視鏡形状検出装置の画像330と超音波装置の画像331を移動させた状態が図60(2)である。
 図60(1)の状態から、PC端末213を操作して、内視鏡形状検出装置の画像330と超音波装置の画像331のサイズを縮小させた状態が図60(3)である。
 図60(1)の状態から、PC端末213を操作して、内視鏡形状検出装置の画像330と内視鏡画像301とをPoutP形式で表示させた状態が図60(4)である。
 図60(1)の状態から、主画面を超音波装置の画像331に、子画面を内視鏡画像301に切り替えた状態が図60(5)である。
 図60(2)~図60(4)のように、画像の配置やサイズを変更した場合、図59で説明したように、その画像の配置やサイズ情報を、画像が重ならず、最適なサイズに変更して、PC端末213またはサーバー212の記憶装置に保存することができる。そのため、ユーザの診断に最適な画像に構築することが可能になる。
 また、PC端末213またはサーバー212において保存した画像の配置情報やサイズ情報をプロセッサ4に送信することができる。これにより、プロセッサ4側でもPC端末213と同じ情報で容易に再生することができる。
 次に、ウォッチドックタイマによりリセット回路140が起動して、画像処理の一部が初期化することについて、図61を用いて説明する。画像処理部72には、リセット回路140の出力が入力されている。
 CPU131が正常に動作している場合(ハングアップ前)、CPU131が合成108H,108Sを制御しての画像(たとえばモニタ201A、201B1、201B2、201C1、201C2の画面上)には、図61(A)で示すように、グラフィック回路106H,106Sによって生成されたメニュー画面、または、図61(B)で示すように、グラフィック回路106H,106S、A5,A6,F1,F2,A3,A4,A3’,A4’の信号から構成されるマルチ画像が表示されているとする。
 図61(A)または(B)の状態で、CPU131がハングアップすると、ウォッチドッグタイマが働いて、リセット回路140のリセットがONする。リセット回路140のリセットがONした場合は、合成回路108H/108Sは、図61(C)に示すように、同時化回路101H/101Sからの内視鏡画像301のみが確実に出力されるように制御する。
 これにより、CPU131がハングアップしても、ユーザが誤操作、誤診断しないように内視鏡画像301が表示されるようにする。
 また、画像処理部72内の各ブロックについては、リセット回路140のリセットがONになる時に、初期化するものとしないものを用意する。例えば、画像入出力処理部121出力がHDMIのみに対応したモニタと接続時、CPU131は画像入出力処理部121出力がHDMI(High-Definition Multimedia Interface)出力になるような設定値を画像入出力処理部121に設定しているが、リセット回路140のリセットをONしても画像入出力処理部121出力の設定値がHDMIでない初期値にならないように、設定値(HDMI)がそのまま維持されるようにしてもよい。
 次に、プロセッサ4におけるメニュー画面の設定内容の一例を、図62、図63に示す。設定画面例については、図29、図30を用いて説明したが、画面のレイアウトは、図29、図30に限定されず、たとえば図62、図63に示すように、タブ形式を用いてもよい。
 図62、図63において、メニュー画面800では、タブでメニューを切り替えることができる。図62では、「レリーズ1」、「レリーズ2」、「PIP/POP」、「構造/輪郭強調」、「色彩強調」、「色調/明るさ」、「観察設定(1)」、「観察設定(2)」のタブが設けられている。設定したいメニューのタブを選択すると、その選択したメニューの詳細が表示される。
 図62では、タブ「観察設定(1)」801が選択されている。タブ「観察設定(1)」801の「モニター設定」802では、モニターの設定を行うことができる。これにより、モニタ201A,201B1,201C1の設定をプロセッサ4のメニューで行うことができる。このとき、「モニター設定」802で設定した情報をバックアップRAM137又は155に格納すると共に、プロセッサ4の電源ON時や設定変更時に、その設定した情報をプロセッサ4のCPU131がバックアップRAM137又は155から読み出し、例えば142a,143aを介してモニタ201A、201B1、201B2、201C1、201C2へ送信するようにしてもよい。
 図63では、「CV映像出力」、「調光/NR」、「レリーズ時間SD」、「日時/コメント」、「CV動作/検査終了」、「静止画保存」、「プリンター」のタブが設けられている。
 タブ「静止画保存」を選択すると、図63に示すように、「静止画保存設定」、「USBメモリ保存画像」、「サーバー保存画像」の設定欄が設けられている。
 設定欄「静止画保存設定」には、「保存フォーマット」、「保存先」、「USBメモリ同時保存」、「Exif情報記録」の設定項目が含まれる。
 設定項目「保存フォーマット」では、保存する静止画のフォーマットの変更(例えば、JPEG(圧縮率含む)、TIFF、RAW、BMPなど)を設定することができる。当該項目「保存フォーマット」は、図29のRelease1~4の子項目「Encode」に相当する。
 設定項目「保存先」では、静止画の保存先の機器を設定することができる。このとき、保存先として図15から図19までに示す各ファイリング装置及び各光学記録装置、PCカード167、メモリカード168、USBメモリ210及びサーバー212等の機器を設定することができる。当該項目「保存先」は、図29のRelease1~4の子項目「周辺機器」に相当する。
 設定項目「USBメモリ同時保存」をONに設定すると、項目「保存先」で設定した機器への画像データの保存と同時に、USBメモリ210への保存も行うことができる。
 設定項目「Exif情報記録」では、デジタルカメラ等の規格である、Exif形式、DCF形式で保存するかを選択することができる。
 設定欄「USBメモリ保存画像」には、「内視鏡画像」、「PIP/POP」についての設定項目が含まれる。
 設定項目「内視鏡画像」では、USBメモリ210に保存する内視鏡画像として、信号線125aからのHDTV画像を保存するかまたは信号線124aからのSDTV画像を保存するか設定することができる。
 設定項目「PIP/POP」では、USBメモリ210に保存するPinP/Pout表示対象の画像として、信号線607,607’からの画像を保存するか否かを設定することができる。
 設定欄「サーバー保存画像」には、「内視鏡画像」、「PIP/POP」についての設定項目が含まれる。
 設定項目「内視鏡画像」では、サーバー212に保存する内視鏡画像として、信号線125aからのHDTV画像を保存するかまたは信号線124aからのSDTV画像を保存するか設定することができる。
 設定項目「PIP/POP」では、サーバー212に保存するPinP/Pout表示対象の画像として、信号線607,607’からの画像信号を保存するか否かを設定することができる。
 ところで、PinP/PoutPの切り替えは、メニューで設定することができる。図20において、キーボード5の観察部5-2には、PinP/PoutPの制御を行うための項目「PIP/POP」部5-21が設けられている。「PIP/POP」部5-21には、「ON」キー、「表示形式」キー、「入力切替」キーが設けられている。
 「ON」キーをON/OFFすることにより、PinP/PoutP表示のON/OFFを切り替えることができる。「ON」キーをONした場合において、表示対象の入力端子に外部映像信号が入力されていないときには、「入力無し(No Input)」旨のメッセージを表示し、PIP表示には黒画面を出力する。
 「入力切替」キーを押下する毎に、例えば、(1)内視鏡形状検出装置画像330→(2)超音波装置画像331→(3)内視鏡形状検出装置画像330+超音波装置画像331の両方→(1)→(2)→(3)→(1)・・・というように、表示させる表示対象の外部映像(端子)を切替えることができる。
 「表示形式」キーを押下する毎に、表示形態(表示モード)を、PinPの場合には、例えば図64,図65に示す順で切替えることができ、PoutPの場合には、図66,図67に示す順で、切替えることができる。
 PinP設定において、「入力切替」キーで「(1)内視鏡形状検出装置画像」が選択されている場合、例えば、図64(1)-1に示すように、内視鏡画像301(主画面)と共に、内視鏡形状検出装置の画像330がPIP表示されている。
 図64(1)-1の状態で「表示形式」キーを押下すると、図64(1)-2に示すように、主画面が内視鏡形状検出装置の画像330に切り替わる。図64(1)-2の状態で「表示形式」キーを押下すると、図64(1)-3に示すように、主画面として内視鏡形状検出装置の画像330のみが表示される。図64(1)-3の状態で「表示形式」キーを押下すると、図64(1)-1の状態に戻る。
 また、PinP設定において、「入力切替」キーで「(2)超音波装置画像」が選択されている場合、例えば、図64(2)-1に示すように、内視鏡画像301(主画面)と共に、超音波装置の画像331がPinP表示されている。
 図64(2)-1の状態で「表示形式」キーを押下すると、図64(2)-2に示すように、主画面が超音波装置の画像331に切り替わる。図64(2)-2の状態で「表示形式」キーを押下すると、図64(2)-3に示すように、主画面として内視鏡形状検出装置の画像330のみが表示される。図64(2)-3の状態で「表示形式」キーを押下すると、図64(2)-1の状態に戻る。
 また、PinP設定において、「入力切替」キーで「(3)内視鏡形状検出装置画像+超音波装置画像」が選択されている場合、例えば、図65(3)-1に示すように、内視鏡画像301(主画面)と共に、内視鏡形状検出装置の画像330及び超音波装置の画像331がPinP表示されている。
 図65(3)-1の状態で「表示形式」キーを押下すると、図65(3)-2に示すように、主画面が超音波装置の画像331に切り替わり、内視鏡画像301は左下に画面で表示される。図65(3)-2の状態で「表示形式」キーを押下すると、図65(3)-3に示すように、主画面が内視鏡形状検出装置の画像330に切り替わり、超音波装置の画像331は左上に子画面で表示される。図65(3)-3の状態で「表示形式」キーを押下すると、図65(3)-4に示すように、主画面として超音波装置の画像331のみが表示される。図65(3)-4の状態で、「表示形式」キーを押下すると、図65(3)-5に示すように、主画面として内視鏡形状検出装置の画像330のみが表示される。図65(2)-3の状態で「表示形式」キーを押下すると、図65(3)-1の状態に戻る。
 次に、PoutP設定において、「入力切替」キーで「(1)内視鏡形状検出装置画像」が選択されている場合、例えば、図66(1)-1に示すように、内視鏡画像301と共に、内視鏡形状検出装置の画像330がPoutP表示されている。
 図66(1)-1の状態で「表示形式」キーを押下すると、図66(1)-2に示すように、内視鏡画像301と内視鏡形状検出装置の画像330の表示位置が入れ替わる。図66(1)-2の状態で「表示形式」キーを押下すると、図66(1)-3に示すように、内視鏡形状検出装置の画像330のみが表示される。図66(1)-3の状態で「表示形式」キーを押下すると、図66(1)-1の状態に戻る。
 また、PoutP設定において、「入力切替」キーで「(2)超音波装置画像」が選択されている場合、例えば、図66(2)-1に示すように、内視鏡画像301と共に、超音波装置の画像331がPoutP表示されている。
 図66(2)-1の状態で「表示形式」キーを押下すると、図66(2)-2に示すように、内視鏡画像301と超音波装置の画像331の表示位置が入れ替わる。図66(2)-2の状態で「表示形式」キーを押下すると、図66(2)-3に示すように、超音波装置の画像331のみが表示される。図66(2)-3の状態で「表示形式」キーを押下すると、図66(2)-1の状態に戻る。
 また、PoutP設定において、「入力切替」キーで「(3)内視鏡形状検出装置画像+超音波装置画像」が選択されている場合、例えば、図67(3)-1に示すように、内視鏡画像301と共に、内視鏡形状検出装置の画像330がPoutP表示されている。
 図67(3)-1の状態で「表示形式」キーを押下すると、図67(3)-2に示すように、内視鏡画像301と内視鏡形状検出装置の画像330の表示位置が入れ替わる。図67(3)-2の状態で「表示形式」キーを押下すると、図67(3)-3に示すように、内視鏡画像301と共に、超音波装置の画像331がPoutP表示されている。図67(3)-3の状態で「表示形式」キーを押下すると、図67(3)-4に示すように、内視鏡画像301と超音波装置の画像331の表示位置が入れ替わる。図67(3)-4の状態で、「表示形式」キーを押下すると、図67(3)-5に示すように、内視鏡形状検出装置の画像330のみが表示される。図67(3)-5の状態で、「表示形式」キーを押下すると、図67(3)-6に示すように、超音波装置の画像331のみが表示される。図67(2)-6の状態で「表示形式」キーを押下すると、図67(3)-1の状態に戻る。
 なお、PinP/PoutP表示切替において、内視鏡画像301が表示されない場合(すなわち、内視鏡形状検出装置の画像330のみ表示される場合、超音波装置の画像331のみ表示される場合、または内視鏡形状検出装置の画像330と超音波装置の画像331が表示される場合)、または内視鏡画像301が主画面として表示されない場合には、例えば、図64、図65に示すように、文字情報を主画面切り替え時に消去するようにしてもよい。また、文字情報だけでなく、カラーバー等も文字情報と同様に、主画面切り替え時に消去するようにしてもよい。
 また、プロセッサ4の電源ON時は、PinP/PoutP表示はOFFで動作するようにしてもよい。また、「入力切替」キーで選択した(1)/(2)/(3)の選択情報は、バックアップRAM137又は155に保存し、電源を再投入後、PinP/PoutP表示をONした際、プロセッサ4のCPU131がバックアップRAM137又は155から読み出し、前回選択した画像が表示されるようにしてもよい。また、「表示形式」キーで切り替えた状態も、バックアップRAM137又は155に保存し、電源を再投入後、PinP/PoutP表示をONした際、プロセッサ4のCPU131がバックアップRAM137又は155から読み出し、前回の状態で表示されるようにしてもよい。
 なお、上記した「PIP/POP」部5-21の処理は、プロセッサ4内で行っていたが、モニタ201A、201B1、201B2、201C1、201C2にも「PIP/POP」部5-21と同様の処理機能があってもよい。この場合、プロセッサ4は、キーボード5の観察部5-2の操作情報を例えば142a,143aによりリモートの制御のみ行い、PinP/PoutPの処理はモニタ201A、201B1、201B2、201C1、201C2で行うようにするようにしてもよい。
 なお、PoutP表示ができるのは、HDTV画像の場合のみである。仮に、SDTV画像でPoutP表示をONにすれば、表示範囲が狭い為、図68に示すように、PoutP表示ができないことをエラー警告する。
 上述の通り、プロセッサ4で生成した内視鏡合成画像を構成する各画像は、サーバー212に格納される。そして、プロセッサ4上やPC端末213上において、その画像のレイアウトを変更することができる。これについて、以下に詳述する。
 第1の実施例としては、プロセッサ4は、内視鏡合成画像300-1を構成する各画像(例えば、内視鏡画像301、内視鏡形状検出装置の画像330、超音波装置の画像331)と、観察情報群300と、各構成画像の座標等のレイアウト情報を含む画像データ群を、図52のステップVFLW5及びステップVFLW6、図53のステップVVFLW4及びステップVVFLW5、図54のステップVVVFLW3及びステップVVVFLW4の処理に基づいて、出力する。
 プロセッサ4から出力された合成画像データ群は、サーバー212へ送られる。サーバー212は、その合成画像データ群を受信すると、その合成画像データ群をサーバー212内部の記憶装置に格納する。
 また、プロセッサ4において、再生画像を構成する少なくとも1以上の構成画像を指定した場合、再生表示させるために指定された画像を識別する情報(例えば画像ファイル名)と、その再生画像に関連する情報(例えば、図34の検査情報管理ファイル、図35のデータ項目「表示文字情報の表示状態」及び「保存画像情報」)と、前記再生画像の画像レイアウト情報(例えば、図35のデータ項目「画像表示状態」)とを備えた再生画像指定情報(例えば、撮影情報管理ファイル)を設定することができる。プロセッサ4は、その設定した再生画像指定情報をサーバー212へ送信する。
 サーバー212は、プロセッサ4から送信された再生画像指定情報を受信する。すると、サーバー212は、その再生画像指定情報に基づいて、サーバー212内部の記憶装置に格納された合成画像データ群から再生画像を形成する。その後、サーバー212は、その形成した再生画像を出力する。
 プロセッサ4は、サーバー212から出力された再生画像を受信すると、その受信した画像を再生する。
 第2の実施例として、プロセッサ4は、内視鏡合成画像300-1を構成する各画像(例えば、内視鏡画像301、内視鏡形状検出装置の画像330、超音波装置の画像331)と、観察情報群300と、各構成画像の座標等のレイアウト情報を含む画像データ群を、図52のステップVFLW5及びステップVFLW6、図53のステップVVFLW4及びステップVVFLW5、図54のステップVVVFLW3及びステップVVVFLW4の処理に基づいて、出力する。
 プロセッサ4から出力された合成画像データ群は、サーバー212へ送られる。サーバー212は、その合成画像データ群を受信すると、その合成画像データ群をサーバー212内部の記憶装置に格納する。
 PC端末213によって、サーバー212内部の記憶装置に格納された合成画像データ群にアクセスし、PC端末213上で内視鏡合成画像300-1を表示させる。PC端末213上で、内視鏡合成画像300-1を構成する各画像のレイアウトを変更する。これにより、PC端末213は、図59に示すように、再生表示させるために指定された画像を識別する情報(例えば画像ファイル名)と、その再生画像に関連する情報(例えば、図34の検査情報管理ファイル、図35のデータ項目「表示文字情報の表示状態」及び「保存画像情報」)と、前記再生画像の画像レイアウト情報(例えば、図35のデータ項目「画像表示状態」)とを備えた再生画像指定情報(例えば、撮影情報管理ファイル)を設定することができる。PC端末213は、その設定した再生画像指定情報をサーバー212へ送信する。
 サーバー212は、PC端末213から送信された再生画像指定情報を受信する。すると、サーバー212は、その再生画像指定情報に基づいて、サーバー212内部の記憶装置に格納された合成画像データ群から再生画像を形成する。その後、サーバー212は、その形成した再生画像を出力する。
 PC端末213は、サーバー212から出力された再生画像を受信すると、その受信した画像を再生する。
 本実施形態によれば、複数の入力源から入力される画像の合成画像(例えば、内視鏡合成画像300-1)を記録再生する画像記録再生システムは、合成画像データ群出力手段、合成画像データ群記録手段、再生画像指定情報設定手段、再生画像形成手段、再生画像出力手段、再生手段を備える。
 合成画像データ群出力手段は、前記合成画像を構成する構成画像(例えば、内視鏡画像301、内視鏡形状検出装置の画像330、超音波装置の画像331)と、前記合成画像に関連する情報(例えば、観察情報群300)と、前記合成画像の画像レイアウト情報(例えば、内視鏡画像301、内視鏡形状検出装置の画像330、超音波装置の画像331の座標情報)を備えた合成画像データ群を出力する。合成画像データ群出力手段は、例えば本実施形態で言えば、プロセッサ4、より具体的には、CPU151により行われる図52のステップVFLW5及びステップVFLW6、図53のステップVVFLW4及びステップVVFLW5、図54のステップVVVFLW3及びステップVVVFLW4の処理に相当する。
 合成画像データ群記録手段は、出力された前記合成画像データ群を記録する。合成画像データ群記録手段は、例えば本実施形態で言えば、サーバー212に相当する。
 再生画像指定情報設定手段は、再生画像を構成する少なくとも1以上の構成画像を指定する情報(例えば、指定された画像を識別する画像ファイル名)と、前記再生画像に関連する情報(例えば、図34の検査情報管理ファイル、図35のデータ項目「表示文字情報の表示状態」及び「保存画像情報」)と、前記再生画像の画像レイアウト情報(例えば、図35のデータ項目「画像表示状態」)とを備えた再生画像指定情報(例えば、撮影情報管理ファイル)を設定する。再生画像指定情報設定手段は、例えば本実施形態で言えば、プロセッサ4またはPC端末213に相当する。
 再生画像形成手段は、設定された前記再生画像指定情報に基づき、記録された前記合成画像データ群から再生画像を形成する。再生画像形成手段は、例えば本実施形態で言えば、サーバー212に相当する。
 再生画像出力手段は、形成された前記再生画像を出力する。再生画像出力手段は、例えば本実施形態で言えば、サーバー212に相当する。
 再生手段は、出力された前記再生画像を受信し、再生する。再生手段は、例えば本実施形態で言えば、プロセッサ4またはPC端末213に相当する。
 このように構成することにより、内視鏡合成画像を構成する各要素、個別に記録し、個々の要素を所望のレイアウトに再構成した画像を再生することができると共に、そのようなレイアウト変更をプロセッサだけでなく、プロセッサ以外の装置においても可能となる。
 また、前記画像記録再生システムは、外部画像を入力する為の外部装置と接続されると共に、内視鏡と接続された内視鏡システム(例えば、プロセッサ4)と、画像記録装置(例えば、サーバー212)とを備える。このとき、前記内視鏡システム(例えば、プロセッサ4)は、前記合成画像データ群出力手段と、前記再生画像指定情報設定手段と、前記再生画像指定情報を送信する手段と、前記再生手段と、を備える。また、前記画像記録装置(例えば、サーバー212)は、前記合成画像データ群記録手段と、前記再生画像指定情報を受信する手段と、前記再生画像形成手段と、前記再生画像出力手段と、を備える。
 このように構成することにより、プロセッサ4により生成された内視鏡合成画像のレイアウトの変更をサーバー側で行うことができる。
 また、前記画像記録再生システムは、外部画像を入力する為の外部装置と接続されると共に、内視鏡と接続された内視鏡システム(例えば、プロセッサ4)と、画像記録装置(例えば、サーバー212)と、画像再生装置(例えば、PC端末213)とを備える。
 前記内視鏡システム(例えば、プロセッサ4)は、前記合成画像データ群出力手段と、を備える。前記画像記録装置(例えば、サーバー212)は、前記合成画像データ群記録手段と、前記再生画像指定情報を受信する手段と、前記再生画像形成手段と、前記再生画像出力手段と、を備える。前記画像再生装置(例えば、PC端末213)は、前記再生画像指定情報設定手段と、前記再生画像指定情報を送信する手段と、前記再生手段と、を備える。
 このように構成することにより、プロセッサ4により生成されて、サーバー213に格納された内視鏡合成画像のレイアウトの変更をPC端末213側で行うことができる。
 また、前記前記合成画像に関連する情報と、前記再生画像に関連する情報とは、検査管理用番号、検査部位、検査日時、患者ID、患者名、患者性別、患者年齢の少なくとも1つを含む。また、前記合成画像の画像レイアウト情報と、前記再生画像の画像レイアウト情報とは、画像の種類、画像の幅、画像の高さの少なくとも1つを含む。
 また、前記再生画像の画像レイアウト情報には、さらに、各画像について該画像を表示させるか否かを判別する情報及び該画像の表示開示位置の少なくとも1つを含む。
 また、前記合成画像データ群に含まれる前記合成画像を構成する各構成画像及び前記合成画像に関連する情報は、それぞれ相互に独立している。
 以上に述べたように、内視鏡システム1のプロセッサ4は、表示サイズ16:9の画像がモニタ等に表示されている場合であって、かつ、該表示サイズに対応していない機器に該画像を記録する場合においても、記録に適した画像を出力することができる。これにより、内視鏡システム1のプロセッサ4は、内視鏡画像の記録を行う際のユーザの負担を軽減することができる。
 以上に述べたように、内視鏡システム1のプロセッサ4は、図29の設定画面において、レリーズ機能を有するキー(またはスイッチ)が入力された際の、画像の記録対象となる周辺機器、及び、該画像が圧縮処理される際に用いられるフォーマット等を、レリーズ機能の割り当て対象となるキー(またはスイッチ)毎に設定可能な構成を有している。そのため、内視鏡システム1のプロセッサ4は、レリーズ機能を有するキーまたはスイッチとして、例えば、図52に示すように、高圧縮率のフォーマットの画像を記録するためのキーまたはスイッチと、非圧縮または低圧縮率のフォーマットの画像を記録するためのキーまたはスイッチとが使い分けられながら画像の記録が行われることにより、ユーザが観察を行っている最中においても、該観察を寸断することなく、画像フォーマット及び圧縮率の選択を容易かつ短時間に行うことを可能とする。また、内視鏡システム1のプロセッサ4は、高圧縮率のフォーマットが選択された際に、画像をリアルタイムかつ連続して(周辺機器等に対して)記録させることが可能である。
 また、以上に述べたように、内視鏡システム1のプロセッサ4は、例えば、図53に示すように、低圧縮率のフォーマットの画像をバッファ166に格納しつつ、所定のタイミングにおいて、ユーザが選択した画像のみを出力させる機能を有している。そのため、内視鏡システム1のプロセッサ4は、低圧縮率のフォーマットの画像がネットワーク上に伝送される際の伝送負荷を軽減することができる。
 以上に述べたように、内視鏡システム1のプロセッサ4は、拡張基板として構成された拡張制御部77A及び77Bが接続されたことを自動的に検出可能であるとともに、該検出結果に基づき、接続された拡張基板の機能に関する画像または情報を、拡張制御部77A及び77Bの接続後すぐに表示することができる。その結果、内視鏡システム1のプロセッサ4は、ユーザが観察に費やす時間を、従来に比べて短縮することができる。
 以上に述べたように、内視鏡システム1のプロセッサ4は、記録される画像に暗号化処理を行うことが可能であるため、例えば、暗号解除の機構をもたない装置において、該画像の表示をできなくすることが可能である。その結果、ユーザは、患者情報のセキュリティ対策、及び、個人情報の保護を確実に行うことができる。
 なお、本発明は、上述した各実施形態に限定されるものではなく、発明の趣旨を逸脱しない範囲内において種々の変更や応用が可能であることは勿論である。
 1   内視鏡システム
 2A,2B,2C   内視鏡
 3   プロセッサ
 72  画像処理部
 73  画像圧縮伸長部
 75  主制御部
 77A,77B  拡張制御部
 131,151  CPU
 

Claims (7)

  1.  複数の入力源から入力される画像の合成画像を記録再生する画像記録再生システムであって、
     前記合成画像を構成する構成画像と、前記合成画像に関連する情報と、前記合成画像の画像レイアウト情報を備えた合成画像データ群を出力する合成画像データ群出力手段と、
     出力された前記合成画像データ群を記録する合成画像データ群記録手段と、
     再生画像を構成する少なくとも1以上の構成画像を指定する情報と、前記再生画像に関連する情報と、前記再生画像の画像レイアウト情報とを備えた再生画像指定情報を設定する再生画像指定情報設定手段と、
     設定された前記再生画像指定情報に基づき、記録された前記合成画像データ群から再生画像を形成する再生画像形成手段と、
     形成された前記再生画像を出力する再生画像出力手段と、
     出力された前記再生画像を受信し、再生する再生手段と、
     を備えた画像記録再生システム。
  2.  前記画像記録再生システムは、外部画像を入力する為の外部装置と接続されると共に、内視鏡と接続された内視鏡システムと、画像記録装置とを備え、
     前記内視鏡システムは、
     前記合成画像データ群出力手段と、
     前記再生画像指定情報設定手段と、
     前記再生画像指定情報を送信する手段と、
     前記再生手段と、
     を備え、
     前記画像記録装置は、
     前記合成画像データ群記録手段と、
     前記再生画像指定情報を受信する手段と、
     前記再生画像形成手段と、
     前記再生画像出力手段と、
     を備えることを特徴とする請求項1記載の画像記録再生システム。
  3.  前記画像記録再生システムは、外部画像を入力する為の外部装置と接続されると共に、内視鏡と接続された内視鏡システムと、画像記録装置と、画像再生装置とを備え、
     前記内視鏡システムは、
     前記合成画像データ群出力手段と、
     を備え、
     前記画像記録装置は、
     前記合成画像データ群記録手段と、
     前記再生画像指定情報を受信する手段と、
     前記再生画像形成手段と、
     前記再生画像出力手段と、
     を備え、
     前記画像再生装置は、
     前記再生画像指定情報設定手段と、
     前記再生画像指定情報を送信する手段と、
     前記再生手段と、
     を備えることを特徴とする請求項1記載の画像記録再生システム。
  4.  前記前記合成画像に関連する情報と、前記再生画像に関連する情報とは、検査管理用番号、検査部位、検査日時、患者ID、患者名、患者性別、患者年齢の少なくとも1つを含む
     ことを特徴とする請求項1記載の画像記録再生システム。
  5.  前記合成画像の画像レイアウト情報と、前記再生画像の画像レイアウト情報とは、画像の種類、画像の幅、画像の高さの少なくとも1つを含む
     ことを特徴とする請求項1記載の画像記録再生システム。
  6.  前記再生画像の画像レイアウト情報には、さらに、各画像について該画像を表示させるか否かを判別する情報及び該画像の表示開示位置の少なくとも1つを含む
     ことを特徴とする請求項1記載の画像記録再生システム。
  7.  前記合成画像データ群に含まれる前記合成画像を構成する各構成画像及び前記合成画像に関連する情報は、それぞれ相互に独立している
     ことを特徴とする請求項1記載の画像記録再生システム。
     
PCT/JP2011/064142 2010-07-09 2011-06-21 画像記録再生システム WO2012005108A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012505912A JPWO2012005108A1 (ja) 2010-07-09 2011-06-21 画像記録再生システム
US13/367,463 US20120200683A1 (en) 2010-07-09 2012-02-07 System for recording and reproducing images

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010157107 2010-07-09
JP2010-157107 2010-07-09

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/367,463 Continuation US20120200683A1 (en) 2010-07-09 2012-02-07 System for recording and reproducing images

Publications (1)

Publication Number Publication Date
WO2012005108A1 true WO2012005108A1 (ja) 2012-01-12

Family

ID=45441094

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/064142 WO2012005108A1 (ja) 2010-07-09 2011-06-21 画像記録再生システム

Country Status (3)

Country Link
US (1) US20120200683A1 (ja)
JP (1) JPWO2012005108A1 (ja)
WO (1) WO2012005108A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014103879A1 (ja) * 2012-12-26 2014-07-03 オリンパスメディカルシステムズ株式会社 画像記録装置及び画像記録方法
JP2019150466A (ja) * 2018-03-06 2019-09-12 ソニー・オリンパスメディカルソリューションズ株式会社 医療機器

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10524645B2 (en) 2009-06-18 2020-01-07 Endochoice, Inc. Method and system for eliminating image motion blur in a multiple viewing elements endoscope
US9474440B2 (en) 2009-06-18 2016-10-25 Endochoice, Inc. Endoscope tip position visual indicator and heat management system
US9706908B2 (en) 2010-10-28 2017-07-18 Endochoice, Inc. Image capture and video processing systems and methods for multiple viewing element endoscopes
US10663714B2 (en) 2010-10-28 2020-05-26 Endochoice, Inc. Optical system for an endoscope
US10517464B2 (en) 2011-02-07 2019-12-31 Endochoice, Inc. Multi-element cover for a multi-camera endoscope
JP5950522B2 (ja) * 2011-09-07 2016-07-13 キヤノン株式会社 文書リストの表示のための装置、方法及びプログラム
US9980629B2 (en) * 2013-03-11 2018-05-29 Karl Storz Imaging, Inc. Video capture and streaming diagnostics metadata
US9414740B2 (en) * 2013-03-14 2016-08-16 Arthrex, Inc. Endoscopic imaging system and method for adapting to remote stimulus
US9636003B2 (en) 2013-06-28 2017-05-02 Endochoice, Inc. Multi-jet distributor for an endoscope
US10595714B2 (en) 2013-03-28 2020-03-24 Endochoice, Inc. Multi-jet controller for an endoscope
WO2014182723A1 (en) 2013-05-07 2014-11-13 Endochoice, Inc. White balance enclosed for use with a multi-viewing elements endoscope
US10064541B2 (en) 2013-08-12 2018-09-04 Endochoice, Inc. Endoscope connector cover detection and warning system
US9943218B2 (en) 2013-10-01 2018-04-17 Endochoice, Inc. Endoscope having a supply cable attached thereto
US9968242B2 (en) 2013-12-18 2018-05-15 Endochoice, Inc. Suction control unit for an endoscope having two working channels
WO2015112747A2 (en) 2014-01-22 2015-07-30 Endochoice, Inc. Image capture and video processing systems and methods for multiple viewing element endoscopes
US9254075B2 (en) 2014-05-04 2016-02-09 Gyrus Acmi, Inc. Location of fragments during lithotripsy
US20150366571A1 (en) * 2014-06-24 2015-12-24 Gyrus Acmi, Inc. (D.B.A. Olympus Surgical Technologies America) Image-based computer-aided safe stone extraction advisor
US20150374206A1 (en) * 2014-06-26 2015-12-31 Endochoice, Inc. Methods and Systems for Managing Information Generated From and Transmitted To An Endoscopic System
CN111436896A (zh) 2014-07-21 2020-07-24 恩多巧爱思股份有限公司 多焦、多相机内窥镜系统
CN106687024B (zh) 2014-08-29 2020-10-09 恩多巧爱思股份有限公司 改变内窥镜插入管的刚度的系统和方法
JP5985118B1 (ja) * 2014-12-15 2016-09-06 オリンパス株式会社 表示制御装置及び内視鏡システム
EP3235241B1 (en) 2014-12-18 2023-09-06 EndoChoice, Inc. System for processing video images generated by a multiple viewing elements endoscope
US10376181B2 (en) 2015-02-17 2019-08-13 Endochoice, Inc. System for detecting the location of an endoscopic device during a medical procedure
US10078207B2 (en) * 2015-03-18 2018-09-18 Endochoice, Inc. Systems and methods for image magnification using relative movement between an image sensor and a lens assembly
WO2016170821A1 (ja) * 2015-04-20 2016-10-27 オリンパス株式会社 走査型内視鏡装置
US10401611B2 (en) 2015-04-27 2019-09-03 Endochoice, Inc. Endoscope with integrated measurement of distance to objects of interest
CN104825117B (zh) * 2015-04-30 2017-10-10 张文涛 一种无线内窥镜
US20170119474A1 (en) 2015-10-28 2017-05-04 Endochoice, Inc. Device and Method for Tracking the Position of an Endoscope within a Patient's Body
EP3383244A4 (en) 2015-11-24 2019-07-17 Endochoice, Inc. DISPOSABLE AIR / WATER AND VACUUM VALVES FOR AN ENDOSCOPE
JP6412277B2 (ja) * 2015-11-30 2018-10-24 オリンパス株式会社 集中制御装置
EP3419497B1 (en) 2016-02-24 2022-06-01 Endochoice, Inc. Circuit board assembly for a multiple viewing element endoscope using cmos sensors
US10292570B2 (en) 2016-03-14 2019-05-21 Endochoice, Inc. System and method for guiding and tracking a region of interest using an endoscope
CN109310408B (zh) 2016-06-21 2021-11-23 安多卓思公司 具有与不同的视频数据信号源连接的多个连接接口的内窥镜系统
CN110678116B (zh) * 2017-06-05 2022-11-04 索尼公司 医疗系统和控制单元
WO2019138440A1 (ja) * 2018-01-09 2019-07-18 オリンパス株式会社 撮像装置、内視鏡、および、撮像装置の製造方法
WO2019171614A1 (ja) * 2018-03-06 2019-09-12 オリンパス株式会社 内視鏡および内視鏡の作動方法
JP7091211B2 (ja) * 2018-09-28 2022-06-27 オリンパス株式会社 内視鏡装置、処理状態切替方法、ネットワーク装置、及び医療システム
CN110288653B (zh) * 2019-07-15 2021-08-24 中国科学院深圳先进技术研究院 一种多角度超声图像融合方法、系统及电子设备
CN112907457A (zh) * 2021-01-19 2021-06-04 Tcl华星光电技术有限公司 图像处理方法、图像处理装置及计算机设备
CN115002293B (zh) * 2022-08-01 2022-10-25 江西财经大学 基于缩略图格式保留的隐私保密方法、系统及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001161648A (ja) * 1999-12-14 2001-06-19 Olympus Optical Co Ltd 医療用システム
JP2009207522A (ja) * 2008-02-29 2009-09-17 Olympus Medical Systems Corp 医療用画像処理装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6182250A (ja) * 1984-09-29 1986-04-25 Olympus Optical Co Ltd 医用画像フアイル装置
JP2005027159A (ja) * 2003-07-04 2005-01-27 Canon Inc 記録装置及び方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001161648A (ja) * 1999-12-14 2001-06-19 Olympus Optical Co Ltd 医療用システム
JP2009207522A (ja) * 2008-02-29 2009-09-17 Olympus Medical Systems Corp 医療用画像処理装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014103879A1 (ja) * 2012-12-26 2014-07-03 オリンパスメディカルシステムズ株式会社 画像記録装置及び画像記録方法
US10426322B2 (en) 2012-12-26 2019-10-01 Olympus Corporation Image recording apparatus
JP2019150466A (ja) * 2018-03-06 2019-09-12 ソニー・オリンパスメディカルソリューションズ株式会社 医療機器
US11291350B2 (en) 2018-03-06 2022-04-05 Sony Olympus Medical Solutions Inc. Medical device including a patient circuit controlled by a secondary circuit that detects erroneous transmission

Also Published As

Publication number Publication date
JPWO2012005108A1 (ja) 2013-09-02
US20120200683A1 (en) 2012-08-09

Similar Documents

Publication Publication Date Title
WO2012005108A1 (ja) 画像記録再生システム
US20080091065A1 (en) Medical image processing apparatus, endoscope system and medical image processing system
JP4615204B2 (ja) 電子内視鏡装置
JP5037520B2 (ja) 自動内視鏡認識及び画像処理及び表示セッティングの選択
US7255676B2 (en) Electronic endoscope apparatus which stores image data on recording medium
WO2006085415A1 (ja) 内視鏡装置
US20130342668A1 (en) Medical information recording apparatus
JP2008086666A (ja) 内視鏡システム
EP2421425A2 (en) Imaging system
JP4981397B2 (ja) 医療用画像処理システム
JP2006055262A (ja) 画像表示装置、画像表示方法および画像表示プログラム
JP5164310B2 (ja) 内視鏡装置
KR100896773B1 (ko) 캡슐 내시경 시스템 및 그 타임 쉬프트 기능 구현 방법
JP2008086667A (ja) 医療用画像処理装置
JP5259032B2 (ja) 画像処理装置
JP5388886B2 (ja) 電子スコープ
JP2005044004A (ja) 医療画像記録装置
JP5030394B2 (ja) 内視鏡画像表示装置及びその制御方法
JP4813178B2 (ja) 内視鏡装置
US8858426B2 (en) Ultrasound endoscope system and control method of ultrasound endoscope system
JP2017006260A (ja) 内視鏡装置
JP2008229208A (ja) 電子内視鏡システムの電子スコープ
JP2007125069A (ja) 画像信号処理装置、及び、電子内視鏡システム
JP2003265407A (ja) 内視鏡装置
JP2003190087A (ja) 電子内視鏡装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2012505912

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11803444

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11803444

Country of ref document: EP

Kind code of ref document: A1