WO2013136565A1 - ビデオカメラ - Google Patents
ビデオカメラ Download PDFInfo
- Publication number
- WO2013136565A1 WO2013136565A1 PCT/JP2012/073945 JP2012073945W WO2013136565A1 WO 2013136565 A1 WO2013136565 A1 WO 2013136565A1 JP 2012073945 W JP2012073945 W JP 2012073945W WO 2013136565 A1 WO2013136565 A1 WO 2013136565A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- light
- frame
- image
- illumination
- data
- Prior art date
Links
- 238000005286 illumination Methods 0.000 claims abstract description 433
- 238000003384 imaging method Methods 0.000 claims abstract description 336
- 238000001514 detection method Methods 0.000 claims description 143
- 230000005540 biological transmission Effects 0.000 claims description 62
- 238000000034 method Methods 0.000 claims description 54
- 230000010287 polarization Effects 0.000 claims description 48
- 239000004973 liquid crystal related substance Substances 0.000 claims description 29
- 230000003287 optical effect Effects 0.000 claims description 29
- 230000008859 change Effects 0.000 claims description 22
- 230000006870 function Effects 0.000 claims description 21
- 230000004075 alteration Effects 0.000 claims description 20
- 239000002775 capsule Substances 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 18
- 230000001360 synchronised effect Effects 0.000 claims description 16
- 230000015654 memory Effects 0.000 claims description 11
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 claims description 10
- 230000008033 biological extinction Effects 0.000 claims description 6
- 230000001678 irradiating effect Effects 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 2
- 230000015572 biosynthetic process Effects 0.000 claims 1
- 238000003786 synthesis reaction Methods 0.000 claims 1
- 230000004048 modification Effects 0.000 description 273
- 238000012986 modification Methods 0.000 description 273
- 238000007789 sealing Methods 0.000 description 21
- 239000002131 composite material Substances 0.000 description 17
- 230000033001 locomotion Effects 0.000 description 13
- 230000007246 mechanism Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 239000000203 mixture Substances 0.000 description 7
- 230000000750 progressive effect Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 230000006399 behavior Effects 0.000 description 5
- 239000013307 optical fiber Substances 0.000 description 5
- 239000003086 colorant Substances 0.000 description 4
- 239000000835 fiber Substances 0.000 description 4
- 239000011347 resin Substances 0.000 description 4
- 229920005989 resin Polymers 0.000 description 4
- 210000002784 stomach Anatomy 0.000 description 4
- 210000004204 blood vessel Anatomy 0.000 description 3
- 210000003238 esophagus Anatomy 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000001124 body fluid Anatomy 0.000 description 1
- 239000010839 body fluid Substances 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000012466 permeate Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
- A61B1/0005—Display arrangement combining images e.g. side-by-side, superimposed or tiled
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00163—Optical arrangements
- A61B1/00186—Optical arrangements with imaging filters
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
- A61B1/0646—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements with illumination filters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/74—Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
Definitions
- the present invention relates to a video camera that captures moving images.
- Video cameras that capture moving images and output video signals have been known for a long time.
- images captured by the video camera There are various types of images captured by the video camera.
- a video camera that can capture various types of moving images is useful.
- imaging is performed using light having a wavelength in the ultraviolet region or infrared region as illumination light, and when some image processing is performed on the captured image, the amount of information obtained by observation may increase. This is because observation different from observation may be realized.
- a conventional video camera that can capture a plurality of types of moving images captures one moving image selected from the plurality of types of moving images, and then picks up another moving image by selection thereafter. That is, a plurality of types of moving images that can be captured by a conventional video camera are alternative, and a plurality of types of images are not captured at the same time.
- multiple types of images can be captured at the same time, it can be recognized at the same time when viewed with the user's eyes at the same time and at the same position when viewed with the user's eyes.
- a video camera that can capture moving images at the same position, that is, two (or more) types of moving images at the same time, it is possible to increase the amount of information obtained by observation.
- observation using a moving image taken by a video camera seems to be more effective.
- there is a possibility that other effects such as beauty and fun can be obtained without aiming at observation.
- the present invention has been made in view of the above points, and an object thereof is to provide a video camera capable of obtaining a plurality of types of images at substantially the same position at substantially the same time.
- the present inventor proposes the following video camera in order to solve the above-described problems.
- the video camera of the present application is roughly divided into two types. In the present application, for the sake of convenience, the former will be referred to as the first invention and the latter as the second invention.
- an imaging unit that captures and captures image light from an object to be imaged, outputs a video signal having a large number of continuous frames of data, and the video signal output by the imaging unit.
- the data about the first frame group which is a set of frames, that allows the user who has continuously viewed the frames included in the data from a plurality of the included frames to recognize it as a moving image
- Generates data about the second frame group which is a set of frames that do not overlap with the frames included in the first frame group, so that the user who continuously viewed the included frames can recognize it as a moving image.
- Frame data distribution means first output means for outputting data of frames included in the first frame group; and the second frame.
- Second output means for outputting the data of the frames included in the frame group, a moving image reproduced based on the data of the frames included in the first frame group, and the second frame group
- the moving image reproduced based on the data of the included frames is a video camera that is made to be different.
- This video camera includes frame data distribution means.
- the frame data allocating means is configured so that a user who has continuously viewed the frames included in the data included in the video signal output from the imaging means can recognize it as a moving image. Frames that do not overlap with the frames included in the first frame group so that the user can recognize the data about the first frame group as a set of frames and the frames included in the data as a moving image.
- For the second frame group which is a set of. The fact that the data of the first frame group and the data of the second frame group are created means that the frames captured by the imaging means are divided into the first frame group and the second frame group.
- the moving image reproduced by the frames included in the first frame group and the moving image reproduced by the frames included in the second frame group are different moving images.
- the video camera according to the first aspect of the present invention is provided with two (or more) video signals made up of a large number of continuous frames of data produced by a single imaging means. ) Video signal.
- the data of the frames included in the first frame group corresponding to each video signal and the data of the frames included in the second frame group are different from each other in moving images reproduced by them. .
- the video camera according to the first aspect of the invention can obtain a plurality of types of images at the same position substantially simultaneously.
- the number of frames (frame rate) that can be imaged per second by the image sensor used for the imaging means is a frame rate necessary for a human to recognize a moving image as smooth (generally 24). It is said that if the frame rate exceeds 120, it is said that humans cannot recognize the difference in frame rate.) For example, when the frame rate when the image pickup device used for the image pickup device picks up a moving image is 48, two video signals are generated from the video signal generated by the image pickup device without dropping the frames. By setting the frame rate to 24, the moving image reproduced based on the two video signals generated from the original video signal becomes smooth to the extent that the viewer does not feel uncomfortable.
- the video camera of the first invention allows the video signal generated by the image pickup means to drop the frame rate of the frame included in the video signal (however, the image quality and the number of pixels may be reduced as necessary). Although it is possible, it is also possible not to drop it.), Two types of moving images in which the same object is imaged substantially at the same time by allocating to the frame included in the first frame group and the frame included in the second frame group Is what you get. This reasoning is also followed in the second invention.
- first output means and the second output means in the first invention do not necessarily output data to a display outside the video camera, and may output data to a display provided in the video camera.
- the data may be output to a recording medium outside the video camera or provided in the video camera.
- the output means of the second invention does not necessarily output data to a display outside the video camera.
- an imaging unit that captures and captures image light from an object to be imaged and outputs a video signal having a large number of continuous frames of data, and the video output by the imaging unit
- the data about the first frame group which is a set of frames, that allows the user who has continuously viewed the frames included in the signal to recognize it as a moving image from the data about a large number of the frames included in the signal
- Data about the second frame group which is a set of frames that do not overlap with the frames included in the first frame group, so that a user who continuously viewed the frames included in the frame can recognize it as a moving image
- Generating a frame data distribution unit a first moving image based on frame data included in the first frame group, and the second frame.
- the second moving image based on the frame data included in the group of images the synthesizing means for generating the moving image data for the moving image that can be displayed on one screen by a predetermined display, and the output for outputting the moving image data generated by the synthesizing means And a moving image reproduced based on the frame data included in the first frame group and a moving image reproduced based on the frame data included in the second frame group.
- the video camera of the second invention adopts the same configuration as the main part of the video camera of the first invention.
- the image pickup means and the frame data distribution means are the same as the video cameras of the first invention and the second invention.
- the moving image reproduced based on the frame data included in the first frame group is different from the moving image reproduced based on the frame data included in the second frame group. This is the same as in the first invention.
- a predetermined display displays a first moving image based on data of frames included in the first frame group and a second moving image based on data of frames included in the second frame group on one screen.
- Combining means for generating moving image data for a moving image that can be displayed, and output means for outputting moving image data generated by the combining means are provided.
- the display includes the first moving image based on the frame data included in the first frame group and the frame included in the second frame group based on the moving image data combined by the combining means.
- a moving image including both the second moving image and the data is displayed. As a result, only one display is required.
- the frame data distribution means in the present invention distributes the frame data included in the video signal, and generates the frame data of the first frame group and the frame data of the second frame group as described above.
- the meaning of the word “frame” used in the present invention may include a meaning other than the word “frame”, which is a technical term in the technical field of moving images and video signals.
- the frame data distribution means will be further described. First, as already described, the data for all the frames included in the video signal created by imaging by the imaging means is distributed to either the frame data of the first frame group or the frame data of the second frame group. There is no need to be done.
- the frame data distribution unit extracts a certain number of frames of data from a large number of the frames included in the video signal output by the imaging unit and distributes the data to the frames of the first frame group.
- a certain number of frames of data may be extracted from frame data not included in the frame data of the first frame group and used as frame data of the second frame group.
- the frame rate may be reduced as described above.
- the first invention and the second invention of the present application basically display two types of moving images from a video signal for displaying one moving image by allowing the frame rate to drop. Therefore, if it is considered that the frame rate is not further reduced, the data for all the frames included in the video signal created by the imaging means is It is better to include it in either the frame data of one frame group or the frame data of the second frame group.
- the frame data allocating means converts one of the even-numbered data and the odd-numbered data of the plurality of frames included in the video signal output from the imaging means to the frame data of the first frame group.
- the other may be assigned to the frame data of the second frame group.
- the frame data included in the first frame group and the second frame group data are alternately allocated to the first frame group frame data and the second frame group frame data.
- Frame data of a frame group can be easily generated.
- the display drawn by the progressive method is configured to display one screen image at a time in a certain direction such as from top to bottom, and the data for one frame in the progressive video signal is equivalent to one screen.
- the data is used for drawing.
- the data for drawing one screen of the display is the data for one frame referred to in the present application.
- the interlace method an image on one screen is divided into, for example, odd-numbered rows and even-numbered rows of scanning lines.
- a display drawn by the interlace method for example, after the odd-numbered lines are drawn by the data for drawing the odd-numbered scanning lines, the even-numbered lines are drawn by the data for drawing the even-numbered lines. Drawing will be performed. Data for drawing an odd-numbered row and data for drawing an even-numbered row are data for drawing an image for one screen of the display.
- the imaging unit alternately generates data for drawing odd-numbered scanning lines and data for drawing even-numbered lines on the display. If an interlace method is employed, each of these may be used as data for one frame in the present invention, or data for drawing an odd-numbered scan line and an even-numbered scan line.
- the data for the image of one screen of the display which is the sum of the data for drawing, may be used as the data for one frame in the present invention. Both the data for drawing the odd lines and the data for drawing the even lines are different from the data of one frame, which can be handled in the present invention.
- the meaning of the term “frame” used in the present invention has been described above in some cases other than the word “frame”, which is a technical term in the field of moving images, in general. If the sum of the data for drawing the odd-numbered scan lines and the data for drawing the even-numbered lines is used as data for one frame of two types of moving images, the data is displayed.
- the frame rate of the moving image to be displayed is allowed to be reduced (in this case, the image quality, that is, the number of scanning lines or the number of pixels may not be reduced).
- Frame data and frame data of the second frame group can be generated. This is not different from the case of the progressive method.
- the data for drawing the odd-numbered scanning lines of the display and the data for drawing the even-numbered lines are each one frame of data in the present invention. If so, the situation will be different.
- the frame data distribution means uses one of the even-numbered and odd-numbered frames included in the video signal output from the imaging means as the first frame group and the other as the second frame group. Take the case as an example.
- each of the data for drawing the odd-numbered scanning lines and the data for drawing the even-numbered scanning lines is the data for one frame in the present invention, for example, the odd-numbered lines of the display
- the data for drawing the scanning line of the eye is assigned to the data of the frame of the first frame group
- the data for drawing the scanning line of the even-numbered row of the display is assigned to the data of the frame of the second frame group.
- the frame rate of the original video signal is the same as the frame rate of the moving image reproduced by the frame data of the first frame group and the moving image reproduced by the frame data of the second frame group. Can do.
- the data included in the video signal generated by the imaging means is included in the first frame group. It is necessary to measure the timing for distributing the frame data to the frame data included in the second frame group.
- a vertical synchronization signal that is typically included in the video signal, more typically in a state of being superimposed on the data of each frame, may be used.
- the vertical synchronization signal is normally included in a video signal generated by an existing CCD or CMOS, and indicates the end of data of each frame (or the start of the next frame data). Therefore, it is suitable for use in the operation of distributing the data of each frame into the first frame group and the second frame group.
- the vertical synchronization signal is input at both the end of the data for drawing the odd-numbered scanning lines and the end of the data for drawing the even-numbered rows. Even when both the data for drawing the odd-numbered scanning lines and the data for drawing the even-numbered lines are used as data for one frame in two types of moving images, the timing is adjusted using the vertical synchronization signal. There is no problem in deciding.
- the first invention and the second invention are as follows, for example. That is, the video camera according to the first and second inventions in this case detects the first vertical signal that is synchronized with the timing of the vertical synchronization (frame switching) of the video signal output from the imaging means. Synchronization signal detection means is provided.
- the frame data distribution means of the video cameras based on the timing at which the first vertical synchronization signal detection means detects the vertical synchronization signal, the frame data included in the first frame group, and the first The frame data included in the two frame groups is distributed.
- the first vertical synchronization signal detection unit detects a vertical synchronization signal included in the video signal output from the imaging unit.
- a vertical synchronization signal generating means for sending a vertical synchronization signal to the imaging means for synchronizing the frame data output from the imaging means with the vertical synchronization signal is not included in the video signal.
- the first vertical synchronization signal detection means detects a vertical synchronization signal from a signal different from the video signal received from the vertical synchronization signal generation means.
- the vertical synchronization signal is not included in the video signal, and a vertical synchronization signal for synchronizing the frame data output from the imaging unit is sent to the imaging unit outside the video camera of the present application.
- the first vertical synchronization signal detection means outputs a vertical synchronization signal for synchronizing the frame data output from the imaging means with the vertical synchronization signal.
- the vertical synchronization signal may be detected from a signal received from an external vertical synchronization signal generator to be sent to the image pickup means.
- the frame data allocating means converts the data of the plurality of frames included in the video signal output from the imaging means into the first data every time the first vertical synchronizing signal detecting means detects the vertical synchronizing signal.
- the frame data included in the frame group and the frame data included in the second frame group may be alternately allocated.
- the video camera according to the first and second inventions includes a first memory that holds the latest frame data included in the first frame group until the next frame data is received, and the second memory.
- a second memory that holds the latest frame data included in the frame group until the next frame data is received may be provided.
- the present invention basically creates data for displaying two types of moving images from a video signal for displaying one moving image by allowing the frame rate to drop as described above. is there.
- both of the two types of moving images extend from one frame to the next frame, and any one of the two types of moving images is displayed on the display. There is a risk of flickering due to the occurrence of the above idle time. If there is the first memory and the second memory as described above, such a problem can be suppressed.
- a moving image reproduced based on the frame data included in the first frame group and the frame data included in the second frame group are used.
- the video to be played is different.
- a movie reproduced based on frame data included in the first frame group and a movie reproduced based on frame data included in the second frame group are “different”.
- the difference between the moving image reproduced based on the data of the frames included in the first frame group and the moving image reproduced based on the data of the frames included in the second frame group is the presence / absence of edge enhancement (or its degree) Difference), brightness reversal, white balance adjustment, whiteout correction, blackout correction, calibration correction, magnification difference, depth of field difference, color If they are different, at least both moving images are assumed to be different.
- the video camera of the first invention and the video camera of the second invention are, in short, the data of two moving images that are finally output in the first invention and the two moving images that are once created before the composition is performed in the second invention. It can be said that this data is generated from the data of the moving image created by one imaging means. Then, the data of the two moving images is synchronized with the timing of creating the frame data included in the moving image data created by one imaging means with “something” upstream from the generation of the two moving image data. Each of them is made to be different.
- the “something” may be light, data or a signal, or an imaging condition in an imaging device.
- the video camera performs illumination with illumination light (which may not exist), image light is generated by the illumination light (or naturally existing external light), and the image light is captured by the image sensor.
- the data of one moving image generated by is output.
- illumination light, image light, imaging conditions in the image sensor, a part of data of one moving image generated by the image sensor, or data of one moving image generated by the image sensor By causing a change in at least one of the two moving image data generated by the distribution, the data of the two moving images can be made different.
- a change means for changing any one of the following 1 to 4 may be provided.
- 1. Illumination light for the object 2.
- the frame data included in the video signal generated by the imaging means At least one of the frame data to be included in the first frame group and the frame data to be included in the second frame group.
- At least one of the data of the frame of the first frame group and the data of the frame of the second frame group Illumination light, image light, imaging conditions by the imaging means, and the first of the video signals generated by the imaging means At least one of data of a frame to be included in one frame group and data of a frame to be included in the second frame group or data of a frame of the first frame group and data of a frame of the second frame group is changed.
- the moving image reproduced by the data of the frame to be included in the first frame group, and the second frame group The moving image reproduced by the data of the frame to be included in can be different.
- the moving image reproduced by the data of the frame to be included in the first frame group and the moving image reproduced by the data of the frame to be included in the second frame group can be different, Illumination light, image light, imaging conditions by the imaging means, and some of the video signals generated by the imaging means may be changed.
- the changing means selectively irradiates the object with the first illumination light and the second illumination light which are two types of illumination lights having different properties.
- Illuminating means and the imaging means captures the first illumination light when the imaging means is imaging a frame that will be included in the first frame group, and a frame that is included in the second frame group.
- an illumination switching means for controlling the illumination means so as to irradiate the second illumination light respectively when taking an image. This is because when the imaging means is imaging a frame that will be included in the first frame group, and when the imaging means is imaging a frame that is to be included in the second frame group. It changes light.
- the illumination unit can irradiate two types of illumination light, ie, first illumination light and second illumination light.
- Any device for allowing the illumination means to irradiate two types of illumination light may be used.
- the illumination means may include a first illumination that is turned on when the first illumination light is irradiated, and a second illumination that is turned on when the second illumination light is irradiated.
- the illumination switching means controls the first illumination and the second illumination so that the first illumination and the second illumination are alternately turned on.
- the illuminating means is configured to transmit a light source and light emitted from the light source, and to change between a first state and a second state in which the properties of the light transmitted through the light source are different from each other.
- transmission means may be provided.
- the illumination switching means controls the first transmission means so that the first transmission means can alternately take the first state and the second state. In this way, it is possible to irradiate two types of illumination light by changing the state of the first transmission means that is provided on the optical path of the illumination light emitted from the light source and transmits the illumination light.
- the illuminating means transmits a light source and light emitted from the light source, and can be in a state where it is on the optical path of the light emitted from the light source or not, and transmits the light.
- a second transmitting means adapted to make the property of the light different from the property of the light that has not been transmitted through it.
- the illumination switching unit controls the second transmission unit so that the second transmission unit repeats a state where the second transmission unit is on an optical path of light emitted from the light source and a state where the second transmission unit is not.
- the movement of the second transmission means is, for example, a reciprocating movement or a rotating movement.
- the illumination switching means includes the first illumination light in the second frame group when the imaging means is imaging a frame to be included in the first frame group.
- the illuminating means is controlled so as to irradiate the second illumination light when the imaging means is imaging a frame.
- a vertical synchronization signal included in the data of each frame included in the video signal is typically used.
- the reason why the vertical synchronization signal can be used for controlling the timing is the same as the reason why the frame data distribution means can use the vertical synchronization signal to control the timing.
- the video camera in this case is as follows, for example.
- the video camera includes second vertical synchronization signal detection means for detecting a vertical synchronization signal synchronized with the vertical synchronization timing of the video signal output from the imaging means, and further includes second vertical synchronization signal detection means.
- the illumination switching means alternately irradiates the first illumination light and the second illumination light based on the timing at which the second vertical synchronization signal detection means detects the vertical synchronization signal.
- the illumination means is controlled to be switched.
- the second vertical synchronization signal detection means may detect a vertical synchronization signal included in the video signal output by the imaging means.
- the second vertical synchronization signal detecting means may detect from a signal different from the video signal received from the vertical sync signal generating means.
- the second vertical synchronization signal detection means sends an external synchronization signal to the imaging means for synchronizing the data of the frame output from the imaging means to the imaging means.
- the vertical synchronization signal may be detected from the signal received from the vertical synchronization signal generator. All of these are the same in the second vertical synchronization signal detecting means described below.
- the second vertical synchronization signal detection means and the first vertical synchronization signal detection means detect the same vertical synchronization signal, and the former is omitted as the latter is used as the latter, or the latter is also used as the former. It is also possible to do.
- the timing at which it detects the vertical synchronization signal is set as frame data.
- the frame data distribution means and the illumination switching means are synchronized even if the first vertical synchronization signal detection means is only one means for detecting the vertical synchronization signal by sending it to both the distribution means and the illumination switching means. Can be controlled. All of these are the same in the second vertical synchronization signal detecting means described below.
- the illumination switching unit alternately switches the irradiation of the first illumination light and the irradiation of the second illumination light every time the second vertical synchronization signal detection unit detects the vertical synchronization signal.
- the illumination unit may be controlled.
- the illumination switching means detects the second vertical synchronizing signal when the imaging means outputs the data for the frame after a certain time has elapsed since the image of the frame was taken.
- the illumination means alternately switches between irradiation of the first illumination light and irradiation of the second illumination light after elapse of a time corresponding to the certain time after the means detects the vertical synchronization signal.
- the lighting means may be controlled.
- Imaging means such as CCD and CMOS may cause a slight delay in order to output data of a frame after imaging a frame. If there is such a delay, there is a possibility that there is a difference between the timing at which the second vertical synchronization signal detection unit detects the vertical synchronization signal and the timing at which the imaging unit actually performs imaging. After the time corresponding to a certain time (this corresponds to the delay time generated by the imaging means) has elapsed, the illumination switching means alternately irradiates the first illumination light and the second illumination light. The above-described deviation can be prevented from being switched to.
- the illumination means provided in the video camera of the present application emits the first illumination light and the second illumination light, which are two types of illumination lights having different properties. Any combination of the first illumination light and the second illumination light may be used. What is necessary is just to select suitably according to the classification of the object, the classification of the information to obtain from the object, and the like.
- One of the first illumination light and the second illumination light may be linearly polarized light, and the other may be light including light in a vibration direction other than the vibration direction of the linearly polarized light. Thereby, a moving image including reflected light and a moving image not including reflected light can be obtained.
- the light including the light in the vibration direction other than the vibration direction of the linearly polarized light may be light that is not polarized light, or may be polarized light in one of the linearly polarized light of the first illumination light and the second illumination light and the vibration direction. Different linear polarizations may be used.
- One of the first illumination light and the second illumination light is epi-illumination light having an incident angle on the object of 40 ° or less, and the other is an incident angle on the object larger than 40 °. It may be side light that is light. Roughly speaking, epi-illumination light is illumination light applied to the object from the front, and side-emission light is illumination light applied to the object from the side.
- the first illumination light and the second illumination light can be visible light having different colors.
- one of the first illumination light and the second illumination light may be white light and the other may be green light.
- white light when a tissue such as skin is viewed using green light as illumination light, blood vessel travel becomes very easy to see, but the colors of other tissues cannot be seen.
- white light when white light is used as illumination light, it becomes easy to correctly grasp the colors of tissues other than blood vessels.
- the first illumination light and the second illumination light may be light having different wavelengths.
- An example of using illumination light of different colors is that the obtained image changes when the wavelength of the illumination light is different.
- one of the first illumination light and the second illumination light may be visible light, and the other may be infrared light.
- infrared light characters and the like that have disappeared so that they cannot be seen with the naked eye after being written in ink on a tree can be seen well.
- the shape color and the like of the entire tree can not be seen by an image using infrared light as illumination light, but can be seen by an image using visible light such as white light as illumination light.
- illumination light By combining these two types of moving images using illumination light, it becomes possible to collectively grasp the characters written on the wooden letters, the shape of the whole wooden letters, the positions where the letters are written, and the like.
- one of the first illumination light and the second illumination light may be visible light, and the other may be ultraviolet light.
- illumination light that is ultraviolet light
- a square plug on the skin emits yellow light, but the other portions are not reflected in the image.
- the skin condition and color can be seen.
- illumination light By combining these two types of moving images using illumination light, it becomes possible to collectively grasp the number and position of horn plugs on the skin, the state and color of the skin, and the like.
- the first invention and the second invention can be as follows. If the illumination means includes the first illumination and the second illumination, the video camera is provided with an imaging-side polarizing plate on the optical path until the image light from the object reaches the imaging means. And the imaging on one of the optical path until the illumination light from the first illumination reaches the object and one on the optical path until the illumination light from the second illumination reaches the object.
- a side polarizing plate and an illumination side polarizing plate whose polarization directions are orthogonal to each other are provided, and the illumination light from the first illumination or the second illumination on the side where the illumination side polarizing plate is not on the optical path is linear.
- Components other than the vibration direction of the illumination light from the first illumination that is polarized light can be included.
- the illumination light from the first illumination is such that the extinction ratio of the light passing through the imaging side polarizing plate and the illumination side polarizing plate whose polarization directions are orthogonal to each other is 90% or more (preferably Only light in the wavelength range (such as 100%) may be included.
- the amount of light that passes through two orthogonal polarizing plates is approximately 0 for light having a wavelength near the center of the visible light region, and the extinction ratio is close to 100%.
- Light having a wavelength near both ends of the visible light region has a low extinction ratio, and passes through the two polarizing plates more than light near the center of the visible light region.
- the color of the image or moving image is biased to the color of light having a wavelength that is often lost, and the color of the image or moving image is lost.
- the present inventor confirmed that the color of an image or a moving image is biased blue when imaging a water or wet object using two polarizing plates, or when imaging a highly reflective metal surface. ing.
- Such first illumination can also be applied to combinations of the following first transmission means and polarizing plate, and the following second transmission means and polarizing plate.
- the video camera is provided with an imaging-side polarizing plate on an optical path until the image light from the object reaches the imaging means, and the first One transmitting means is a state in which one of the first state and the second state functions as a polarizing plate in which the imaging-side polarizing plate and the polarization direction thereof are orthogonal to each other, and the other of the light passing through the imaging state polarizing plate It can be a liquid crystal plate that does not affect the polarization state.
- the video camera is provided with an imaging-side polarizing plate on the optical path until the image light from the object reaches the imaging means, and
- the two transmission means may be an illumination side polarizing plate in which the imaging side polarizing plate and the direction of polarization thereof are orthogonal to each other.
- the changing means changes the image light from the object to the image pickup means with the first image light and the second image light that are two kinds of image lights having different properties.
- Image light alteration means for converting image light into image light, and when the image pickup means is picking up a frame to be included in the first frame group, the image light is converted into the first image light and the second frame group
- Image light switching means for controlling the image light alteration means so that the image light is changed to the second image light when the imaging means is imaging a frame to be included.
- Good This is because when the imaging unit is imaging a frame that is to be included in the first frame group, and when the imaging unit is imaging a frame that is to be included in the second frame group. It changes light.
- the image light alteration means transmits the image light between the object and the imaging means, and the first state and the second state in which the properties of the light transmitted through the image light alteration means are different from each other.
- First image light transmitting means adapted to be changed to a state, and the image light switching means causes the first image light transmitting means to alternately take the first state and the second state.
- the first image light transmitting means may be controlled so that the image light becomes the first image light and the second image light.
- the details of the first image light transmitting means are not limited as long as the first image light transmitting means can be changed into the first state and the second state in which the properties of the light transmitted therethrough are different from each other.
- the first image light transmitting means is a lens whose power is variable, and the image light switching means is in the first state when the power is a certain value, and the power is another value.
- the first image light transmitting means may be controlled so that the image light becomes the first image light and the second image light.
- a liquid crystal lens capable of changing power by switching by electricity using liquid crystal. It can be adopted as the first image light transmitting means.
- the first image light transmitting means is a filter capable of selecting a state in which light having a wavelength in a specific wavelength region is transmitted and a state in which light is not transmitted, and the image light switching unit transmits light having a wavelength in a specific wavelength region.
- the first image light is converted into the first image light and the second image light by taking one of the state and the non-transmitted state as the first state and the other as the second state.
- the transmission means may be controlled.
- the first image light transmitting means in this case can be configured by a variable color filter by MEMS (Micro Electro Mechanical Systems) that causes a change in state by electrical control.
- MEMS Micro Electro Mechanical Systems
- the image light alteration means is configured to be able to take a state where the image light is on the optical path from the object to the imaging means, and a state where it is not, and transmits the property of the light transmitted therethrough.
- a second image light transmission means configured to be different from the nature of the light that has not existed, and the image light switching means is not in a state in which the second image light transmission means is on the optical path of the image light.
- the second image light transmitting means may be controlled so that the image light is changed to the first image light and the second image light by alternately repeating the state.
- the second image light transmitting means can enter and exit the optical path of the image light, and changes the image light depending on whether or not it is on the optical path.
- the second image light transmitting means can be, for example, a lens, or a filter that does not transmit light having a wavelength in a specific wavelength region.
- the image light alteration means is a diaphragm having a variable diameter existing between the object and the imaging means, and the image light switching means makes the diameter of the diaphragm a certain diameter.
- the image light may be changed to the first image light, and the image light may be changed to the second image light by setting the aperture to another diameter.
- the moving image reproduced based on the frame data included in the first frame group and the moving image reproduced based on the frame data included in the second frame group have different depths of field.
- the illumination switching unit is configured to capture the first illumination light when the imaging unit is capturing the data of the frame to be included in the first frame group and the imaging unit to be the frame data to be included in the second frame group.
- the illumination means is controlled so as to irradiate the second illumination light when the camera is imaging.
- the imaging means captures images at a fixed frame rate, for example, 60 frames per second or 30 frame rates, but the illumination switching means simply puts the timing at which the imaging means images each frame, The timing with which the illumination unit irradiates the first illumination light and the second illumination light is synchronized. Thereby, the frames included in the first frame group are imaged with the first illumination light, and the frames included in the second frame group are imaged with the second illumination light.
- the image light switching means uses the image light as the first image light and the second frame group when the imaging means is imaging a frame to be included in the first frame group.
- the image light alteration unit is controlled so that the image light is converted into the second image light when the imaging unit is capturing a frame to be included in the image. Therefore, the image light switching means needs to measure the timing for switching the first image light and the second image light at an appropriate timing, like the illumination switching means.
- a vertical synchronization signal included in data of each frame included in the video signal may be used.
- the video camera in this case is as follows, for example.
- the video camera includes second vertical synchronization signal detection means for detecting a vertical synchronization signal synchronized with the timing of vertical synchronization of the video signal output from the imaging means, and the image light alteration means includes the second image light alteration means.
- the timing at which the first image light and the second image light are switched is controlled based on the timing at which the vertical synchronization signal detection means detects the vertical synchronization signal.
- the image light alteration means may alternately switch the first image light and the second image light every time the second vertical synchronization signal detection means detects the vertical synchronization signal.
- the image light alteration unit when the image pickup unit outputs data for a certain frame after a certain time has elapsed since the image pickup of the frame is performed, the image light alteration unit is configured to output the second vertical synchronization signal.
- the first image light and the second image light may be alternately switched after a lapse of a time corresponding to the certain time after the detection means detects the vertical synchronization signal. The same effect as the compensation for the delay caused by the image pickup means described in the illumination switching means can be obtained.
- the changing means is configured such that when the imaging means is imaging a frame to be included in the first frame group, When the imaging unit is capturing a frame to be included in a two-frame group, the first condition that is a condition under which the imaging unit captures the image light is a condition different from the first condition.
- An imaging means control means for controlling the imaging means so as to change between two conditions may be included. This is included in the second frame group when the imaging means is imaging a frame that will be included in the first frame group (when the imaging means is generating data for that frame). The image light of imaging is changed when the imaging means is imaging the frame (when the imaging means is generating data of the frame).
- the imaging means control means may be configured such that when the imaging means is imaging a frame to be included in the first frame group, the second frame The imaging unit may be controlled so that a range in which imaging is performed in the imaging unit is changed when the imaging unit is imaging a frame to be included in a group.
- a video that is played back based on frame data included in the first frame group and a video that is played back based on frame data included in the second frame group have equal aspect ratios and different sizes. In such a case, one moving image has a different magnification from the other moving image.
- the imaging means control means is configured such that when the imaging means is imaging a frame that is to be included in the first frame group, and the imaging means is a frame that is to be included in the second frame group.
- the imaging unit may be controlled so that the exposure time when the imaging unit performs imaging changes depending on when the image is being captured. In this case, the brightness of the moving image reproduced based on the frame data included in the first frame group and the moving image reproduced based on the frame data included in the second frame group can be changed. Become.
- the imaging unit control unit captures the frame that is to be included in the first frame group when the imaging unit is capturing the frame that is to be included in the first frame group and the frame that is to be included in the second frame group.
- the condition for the imaging means to capture the image light is changed between a first condition that is a certain condition and a second condition that is a different condition. Therefore, the imaging means control means needs to measure the timing for switching between the first condition and the second condition at an appropriate timing, similarly to the illumination switching means.
- a vertical synchronization signal included in data of each frame included in the video signal may be used.
- the video camera in this case is as follows, for example.
- the video camera includes second vertical synchronization signal detection means for detecting a vertical synchronization signal synchronized with the vertical synchronization timing of the video signal output from the imaging means, and the imaging means control means includes the second synchronization signal detection means.
- the timing at which the first condition and the second condition are switched is controlled based on the timing at which the vertical synchronization signal detecting means detects the vertical synchronization signal.
- the imaging means control means may alternately switch between the first condition and the second condition every time the second vertical synchronization signal detection means detects the vertical synchronization signal.
- the imaging unit control unit includes the second vertical synchronization signal.
- the first condition and the second condition may be switched alternately after a time corresponding to the certain time has elapsed since the detection means detected the vertical synchronization signal. The same effect as the compensation for the delay caused by the image pickup means described in the illumination switching means can be obtained.
- the changing means includes the frame data to be included in the first frame group among the frame data included in the video signal generated by the imaging means.
- Image processing means for performing image processing on at least one of the frame data to be included in the second frame group is provided, and the image processing means converts the video signal before being distributed by the frame data distribution means.
- the frame data to be included in the first frame group and the second frame group At least one of the data of the frame that will be Murrell may be adapted to perform image processing on.
- the changing means is generated by the imaging means.
- Image processing means for performing image processing on at least one of the data of the frames of the first frame group and the data of the frames of the second frame group generated by sorting the video signals thus obtained by the frame data sorting means You may have.
- the image processing by the image processing means may be performed on the video signal before being distributed by the frame data distributing means, or the first frame group after being distributed by the frame data distributing means. It may be performed on one of the data and the data of the second frame group.
- the image processing by the image processing means may be any image processing method for image data, for example, a known one may be performed as necessary.
- the image processing by the image processing means may be such that light data of a specific wavelength is excluded from the frame data.
- the image processing means may perform any one of edge enhancement, brightness reversal, white balance adjustment, whiteout correction, blackout correction, calibration, and electronic zoom.
- the image processing unit includes the frame data to be included in the first frame group and the second frame group. Different image processing may be performed on both of the frame data to be included in.
- the image processing means when image processing is performed on the frame data of the first frame group and the frame data of the second frame group generated by distributing the video signal by the frame data distribution means, the image processing means Different image processing may be performed on both the frame data of the first frame group and the frame data of the second frame group.
- the image processing means needs to detect data of a frame to be subjected to image processing.
- the image processing means needs to measure the timing for detecting a frame to be subjected to image processing, like the illumination switching means.
- a vertical synchronization signal included in data of each frame included in the video signal may be used.
- the video camera in this case is as follows, for example.
- the video camera includes a second vertical synchronization signal detection unit that detects a vertical synchronization signal synchronized with a vertical synchronization timing of the video signal output from the imaging unit, and the image processing unit includes the second vertical synchronization signal detection unit.
- the synchronization signal detection means Based on the timing at which the synchronization signal detection means detects the vertical synchronization signal, from the frame data included in the video signal, the frame data to be included in the first frame group to be subjected to image processing, or Data of a frame to be included in the second frame group is detected.
- the second vertical synchronization signal detecting means since image processing is performed on one of the frame data included in the first frame group already allocated and the data of the frame included in the second frame group, Since there is no need to synchronize the switching timing with any timing, the second vertical synchronization signal detecting means is unnecessary.
- Both the video camera of the first invention and the second invention of the above case 1 may include a case for housing the imaging means, the illumination means, and the illumination switching means. Since the imaging means, the illumination means, and the illumination switching means can be easily downsized, the case for storing them can be easily downsized and can be held by hand, and the video camera is an endoscope. In some cases, it can be attached to the tip. Furthermore, when the video camera is a capsule endoscope, the case can be housed in a capsule of a capsule endoscope or can be a capsule of a capsule endoscope.
- a video camera according to a first aspect of the present invention is a first case which is a case that houses the imaging means, the illumination means, and the illumination switching means, the frame data distribution means, the first output means, And a second case that houses the second output means.
- a video camera according to a second aspect of the present invention houses a first case which is a case for housing the imaging means, the illumination means, and the illumination switching means, the frame data distribution means, and the output means. And a second case.
- the above-mentioned case that can be easily reduced in size is the first case, and a frame data distribution unit and a first output unit and a second output unit, or a second case that houses the frame data distribution unit and the output unit are separately provided. Is.
- the above-mentioned case or the first case may contain the second vertical synchronization signal detection means, and the second case may contain the first vertical synchronization signal detection means.
- the endoscope has an image guide fiber formed by bundling optical fibers in a scope portion that is a generally bendable member inserted into the body. May be.
- the image guide fiber can be replaced with a rod lens or the like when it is not necessary to bend the scope portion.
- the imaging unit may be provided on the proximal end side of the scope unit.
- the illumination means may be arranged on either the distal end side or the proximal end side of the scope unit.
- the video camera of the present application can be an endoscope.
- the effect of being able to observe the same position almost simultaneously with a moving image with or without reflected light becomes extremely important. High affinity with illumination light.
- the method captures and captures image light from an object to be imaged, outputs a video signal having a number of continuous frames of data, a control means, a first output means, a first output means,
- a method executed by a video camera comprising: two output means, wherein the control means is included in data from a number of the frames included in the video signal output by the imaging means.
- Data about the first frame group which is a set of frames, so that the user who has continuously viewed the frame can recognize it as a moving image, and the user who has continuously viewed the frame included in the frame can view it as a moving image.
- a process a process in which the first output means outputs data of a frame included in the first frame group, and a process in which the second output means outputs data of a frame included in the second frame group;
- the control means includes a moving image reproduced based on frame data included in the first frame group, and a moving image reproduced based on frame data included in the second frame group. Is a way to make it heterogeneous.
- the method includes an imaging unit that captures and captures image light from an object to be imaged and outputs a video signal having a large number of continuous frames of data, a control unit, and an output unit.
- the control means continuously views the frames included in the data from a number of the frames included in the video signal output from the imaging means.
- Generating data about a second frame group which is a set of frames that do not overlap with frames included in the first frame group, and the first frame.
- Moving image data about a moving image that allows a predetermined display to display a first moving image based on frame data included in a frame group and a second moving image based on frame data included in the second frame group on a single screen.
- a step of generating and a step of outputting the synthesized moving image data to the output means, and the control means includes a moving image reproduced based on the data of the frames included in the first frame group, In this method, the moving image reproduced based on the frame data included in the second frame group is different.
- FIG. 1 schematically shows a video camera according to a first embodiment of the present invention.
- FIG. The figure which expanded the imaging part of the video camera shown in FIG. 1, and was shown typically.
- FIG. 2 is a waveform diagram for explaining a video signal generated by an image sensor of the video camera shown in FIG. 1.
- FIG. 9 is a waveform diagram conceptually showing a method for generating data of a first frame group and data of a second frame group from a video signal generated by an imaging device in a video camera of Modification 2.
- FIG. The figure which expanded the imaging part of the video camera of the modification 4, and was shown typically.
- FIG. 5 The figure which expanded and schematically showed a part of imaging part of the video camera of the modification 5.
- FIG. 6 The figure which expanded the composite polarizing plate of the video camera of the modification 6, and was shown typically.
- FIG. 8 The figure which showed the structure of the video camera of the modification 8 typically.
- the figure which expanded the imaging part of the video camera of the modification 10 and was shown typically.
- the figure which shows the video camera by the modification 19 schematically.
- the figure which showed typically the image displayed on a display using the video camera shown in FIG. The figure which expanded the imaging part of the video camera of 2nd Embodiment, and was shown typically.
- FIG. 1 shows a schematic diagram of a video camera in this embodiment.
- the video camera of this embodiment is an endoscope 100.
- the endoscope 100 in this embodiment is a medical endoscope, but may be an industrial endoscope.
- the endoscope 100 of this embodiment is used by being connected to a display D1 and a display D2, which are two displays, and a cable C1 and a cable C2, respectively.
- the overall configuration of the endoscope 100 is the same as that of the conventional one.
- the endoscope 100 includes a scope unit 110 and a video processor box 120.
- the scope part 110 is thin as much as possible, and is flexible and bendable.
- the scope part 110 has a cylindrical cross section, and is made of, for example, resin.
- the base end of the scope unit 110 is detachably connected to the video processor box 120.
- An imaging unit 130 that performs imaging is provided at the distal end of the scope unit 110.
- the imaging unit 130 is configured as shown in FIG.
- the imaging unit 130 is surrounded by a case 131.
- the case 131 has a circular cross section having the same diameter as the scope portion 110, and is not limited to this, but is made of resin.
- the front surface of the case 131 captures light from a first hole 131A for allowing light from a first light source 133A described later to be irradiated to an object to be imaged and light from a second light source 133B described later.
- a second hole 131 ⁇ / b> B for allowing the target object to be irradiated and a third hole 131 ⁇ / b> C for guiding image light from the target to an imaging device to be described later are provided.
- the end face is provided with a hole 131D for allowing a signal line 137A described later to pass therethrough.
- a signal line 137A described later passes through the hole 131D but also a power supply line for supplying power to the image sensor 136 described later, but this is well known and is omitted from illustration and description.
- the first hole 131A, the second hole 131B, the third hole 131C, and the hole 131D are not particularly limited in size and shape as long as the above-described role is secured. In this embodiment, each of them is a circular with an appropriate size.
- the first hole 131A is provided with a first polarizing plate 132A for converting the light transmitted therethrough into linearly polarized light.
- the first polarizing plate 132 ⁇ / b> A covers at least the first hole 131 ⁇ / b> A in a watertight manner so that a patient's body fluid or the like does not enter the case 131 during use of the endoscope 100.
- the second hole 131B is provided with a transparent sealing plate 132B that does not affect the polarization state of the light transmitted therethrough.
- the sealing plate 132B covers the second hole 131B at least in a watertight manner.
- the third hole 131C is provided with a polarizing plate 132C for converting the light transmitted therethrough into linearly polarized light.
- the polarizing plate 132C covers the third hole 131C at least in a watertight manner.
- the polarization direction of the polarizing plate 132C is orthogonal to the polarization direction of the first polarizing plate 132A.
- a first light source 133A is provided on the slightly rear end side of the first hole 131A.
- 133 A of 1st light sources irradiate illumination light required for the imaging of a target object through 131 A of 1st holes.
- the illumination light emitted by the first light source 133A is initially natural light.
- the illumination light passes through the first polarizing plate 132A and becomes linearly polarized light in a direction orthogonal to the polarizing plate 132C. This polarized illumination light is the first illumination light.
- a second light source 133B is provided on the slightly rear end side of the second hole 131B.
- the second light source 133B irradiates illumination light necessary for imaging the target object through the second hole 131B.
- the illumination light irradiated by the second light source 133B is initially natural light. This illumination light is not polarized even if it passes through the sealing plate 132B. This illumination light is the second illumination light.
- Both the first light source 133A and the second light source 133B are repeatedly turned on and off at appropriate timing.
- the first light source 133A and the second light source 133B are selectively turned on. That is, both are not turned on simultaneously, and the first light source 133A and the second light source 133B are turned on alternately. However, there is a time gap between the time when the first light source 133A is turned off and the time when the second light source 133B is turned on, or the time when the second light source 133B is turned off and the time when the first light source 133A is turned on. It does not matter if it is empty.
- the illumination switching unit 134 turns on and off the first light source 133A and the second light source 133B.
- the illumination switching unit 134 is connected to the first light source 133A and the second light source 133B through signal lines 134A and 134B, respectively.
- the illumination switching unit 134 controls the turning on and off of the first light source 133A and the second light source 133B based on a signal transmitted from a second vertical synchronization signal detecting unit 137, which will be described later, connected by the signal line 134C. The details of such control will be described later.
- a lens 135 is provided on the slightly rear end side of the third hole 131 ⁇ / b> C, and an image sensor 136 is provided on the rear end side of the lens 135.
- the lens 135 is a magnifying lens and forms image light from the object on the image sensor 136.
- the lens 135 does not need to be a single lens as illustrated, and may be composed of a plurality of lenses.
- the image pickup device 136 is, for example, a CCD or a CMOS, and picks up image light from an object and generates a video signal.
- the image sensor 136 includes a circuit for outputting a video signal. This video signal is a general one, for example, a VBS signal.
- a CCD, CMOS, or the like used as the image sensor 136 may be a general one.
- the image sensor 136 of this embodiment outputs a video signal that allows the display D1 and D2 to perform progressive drawing. As shown by v in FIG. 4, the video signal is repeated at regular intervals. Each of these signals corresponds to image data for one frame. In FIG. 4, each signal is represented by a rectangular wave, but it is natural that an actual signal is not necessarily a rectangular wave.
- the video signal includes a vertical synchronization signal as indicated by vsync in a form superimposed on the video signal in many cases, although not limited thereto. In FIG. 4, the video signal and the vertical synchronization signal are drawn separately for the sake of simplicity.
- the vertical synchronization signal is a signal indicating the end timing of the image signal for one frame.
- the vertical synchronization signal is not limited to this, but indicates the last moment of the signal of one frame at the rising timing. It has become.
- the vertical synchronization signal is generated by means for generating a vertical synchronization signal (not shown) included in the image sensor 136.
- the video signal is sent to a second vertical synchronization signal detection unit 137 connected to the image sensor 136 via a signal line 136A.
- the second vertical synchronization signal detection unit 137 detects a vertical synchronization signal from the video signal received from the image sensor 136.
- the timing at which the second vertical synchronization signal detection unit 137 detects the vertical synchronization signal is transmitted to the illumination switching unit 134 via the signal line 134C.
- the illumination switching unit 134 controls turning on and off of the first light source 133A and the second light source 133B based on this timing transmitted from the second vertical synchronization signal detecting unit 137.
- the video signal also passes through the second vertical synchronization signal detector 137 and is sent to the video processor box 120 via the signal line 137A.
- the video processor box 120 is configured as shown in FIG.
- the video processor box 120 includes a case 121.
- the case 121 is made of resin, but is not limited to this, and has a rectangular parallelepiped shape in this embodiment.
- a scope unit 110 is connected to the case 121, and a signal line 137A is drawn.
- the case 121 is provided with a first output terminal 121A and a second output terminal 121B.
- the first output terminal 121A is connected to the display D1, and the second output terminal 121B is connected to the display D2 via cables C1 and C2.
- the case 121 is also provided with a hole 121C for drawing the signal line 137A into the case 121A.
- a first vertical synchronization signal detection unit 122 is provided.
- the first vertical synchronization signal detection unit 122 is connected to the signal line 137A and detects a vertical synchronization signal from the video signal received via the signal line 137A in the same manner as the second vertical synchronization signal detection unit 137. Yes.
- the timing at which the first vertical synchronization signal detection unit 122 detects the vertical synchronization signal is transmitted to the output control unit 123 connected to the first vertical synchronization signal detection unit 122 via the signal line 122A.
- the output control unit 123 is also connected to the first vertical synchronization signal detection unit 122 through a signal line 122B, and receives a video signal through the signal line 122B.
- the output control unit 123 is also connected to the first output terminal 121A via the signal line 123A and the second output terminal 121B via the signal line 123B.
- the output control unit 123 outputs data included in each rectangular wave in the video signal from the first output terminal 121A to the display D1, and data included in any rectangular wave in the video signal. Control is performed as to whether the output from the second output terminal 121B to the display D2, that is, how the rectangular waves are distributed.
- the data output from the first output terminal 121A is the frame data of the first frame group, and is output from the second output terminal 121B.
- Both the frame data of the first frame group and the frame data of the second frame group can be recognized as a moving image by the user who continuously viewed the frames displayed on the display D1 or the display D2 according to the frame data included in the data. It has become.
- the output control unit 123 includes which rectangular wave in the video signal includes data corresponding to the first frame group frame data, and which rectangular wave corresponds to the second frame group frame data. Control is performed based on the above-described timing at which the first vertical synchronization signal detection unit 122 detects the vertical synchronization signal, which is transmitted from the first vertical synchronization signal detection unit 122. The control method will be described later.
- the output control unit 123 includes two memories 126A and 126B. The memories 126A and 126B respectively store the latest one-frame data for the images displayed on the displays D1 and D2 after being divided into the data of the first frame group and the data of the second frame group. The data is held until the next frame of data comes.
- the signal line 123A1 branches from the signal line 123A
- the signal line 123B1 branches from the signal line 123B
- both the signal line 123A1 and the signal line 123B1 are connected to the recording unit 124.
- the recording unit 124 includes a recording medium built in the video processor box 120 such as a hard disk drive or a RAM, or a recording medium detachable from the video processor box 120 such as a DVD or a memory card.
- the recording unit 124 separately records the frame data of the first frame group received via the signal line 123A1 and the data of the frame of the second frame group received via the signal line 123B1.
- the recording unit 124 also controls the recording unit 124 to output the data of the first frame group recorded in the recording unit 124 from the first output terminal 121A via the signal line 123A1 and the signal line 123A.
- the recording control unit 125 is connected to perform control to output the data of the frame of the second frame group from the second output terminal 121B via the signal line 123B1 and the signal line 123B.
- Such output is performed by the recording control unit 125 by operating a predetermined input device (switch, numeric keypad, keyboard, etc.) provided in the video processor box 120 or connected to the video processor box 120, for example.
- the recording control unit 125 may control whether or not the recording unit 124 records the frame data of the first frame group and the frame data of the second frame group. When the recording control unit 125 does not perform such control, the recording unit 124 may always record the frame data of the first frame group and the frame data of the second frame group. . If the recording unit 124 includes a portable recording medium, the user can record the data of the frame of the first frame group or the data of the frame of the second frame group recorded on the portable recording medium. The data can be reproduced on a desired display connected to a device (for example, a suitable moving image reproducing device or personal computer) that can be read from a portable recording medium.
- a device for example, a suitable moving image reproducing device or personal computer
- the scope unit 110 is inserted into the body of a patient.
- the scope unit 110 is inserted from the mouth through the esophagus to the stomach until the imaging unit 130 at the distal end of the scope unit 110 reaches the stomach of the patient.
- imaging is performed, inserting the scope part 110 to the stomach.
- the targets of imaging are the esophagus and the inner surface of the stomach, and these are the targets of imaging.
- the imaging unit 130 images a target object. More specifically, the image sensor 136 in the imaging unit 130 captures image light coming from the object through the polarizing plate 132C and the lens 135 fitted in the third hole 131C.
- the first light source 133A and the second light source 133B are alternately turned on and off repeatedly. When the image sensor 136 captures an image, either the first light source 133A or the second light source 133B is lit.
- An image captured by the image sensor 136 when the first light source 133A and the second light source 133B are turned on is as follows.
- the image light as shown in FIG. 5 is captured.
- 5A shows the behavior of the surface reflected light reflected from the surface of the object
- FIG. 5B shows the behavior of the internally reflected light reflected slightly by entering the object from the surface of the object.
- the straight line drawn in the bold circle mark ⁇ indicates the direction of polarization of the illumination light or image light in the part
- the circle in the circle mark is drawn in all directions. It indicates that the polarization of the illumination light or the image light is disturbed (for example, natural light). The same applies to the following.
- the illumination light emitted from the first light source 133A passes through the first polarizing plate 132A.
- the direction of polarization of the first polarizing plate 132A is assumed to be equal to the direction of oblique lines. The same applies to the following.
- the illumination light becomes linearly polarized light that vibrates in the left-right direction.
- the steps so far are common to FIGS. 5A and 5B.
- the first illumination light that is the illumination light that has passed through the first polarizing plate 132A hits the object X and becomes image light from the object X.
- the first illumination light reflected by the surface of the object X remains in its polarization state.
- This image light is blocked by the polarizing plate 132C whose polarization direction is orthogonal to the first polarizing plate 132A, and does not reach the image sensor 136 (FIG. 5A).
- the polarization state of the image light that has entered and is slightly reflected in the object X is disturbed.
- a component whose polarization direction coincides with that of the polarizing plate 132C included in the image light passes through the polarizing plate 132C, so that at least about half of the image light passes through the polarizing plate 132C (FIG. 5B).
- the first light source 133A is lit, a matte image of the object without surface reflected light is obtained.
- the first light source 133A and the second light source 133B irradiate white light as illumination light considering the use of the endoscope.
- at least the first light source 133A among the first light source 133A and the second light source 133B is in a wavelength region where the extinction ratio of the light transmitted through the first polarizing plate 132A and the polarizing plate 132C is 90% or more. It contains only light of the included wavelengths. More preferably, in this embodiment, the first light source 133A includes only light having a wavelength included in a wavelength region in which the extinction ratio of light is 100%.
- the first light source 133 ⁇ / b> A by configuring the first light source 133 ⁇ / b> A by an LED formed by collecting a plurality of fine light sources that emit light included in such a wavelength region.
- the first light source 133A is used as described above, The color reproducibility in the obtained moving image is improved.
- the second light source 133B is the same as the first light source 133A.
- FIG. 6A shows the behavior of the surface reflected light that is reflected by the surface of the object
- FIG. 6B shows the behavior of the internally reflected light that is slightly reflected by entering the object from the surface of the object.
- the illumination light emitted from the second light source 133B passes through the sealing plate 132B. Even if it passes through the sealing plate 132B, the illumination light is not polarized. The steps so far are common to FIGS. 6A and 6B.
- the second illumination light that is the illumination light that has passed through the sealing plate 132B hits the object X and becomes image light from the object X.
- a matte image is obtained when the first light source 133A is lit and a matte image is obtained when the second light source 133B is lit. Then, how these images become moving images will be described.
- the image sensor 136 outputs the video signal v as shown in FIG.
- the video signal v includes a vertical synchronization signal vsync.
- the video signal v is sent to the second vertical synchronization signal detector 137.
- the second vertical synchronization signal detection unit 137 detects the vertical synchronization signal vsync included in the video signal v and transmits the timing to the illumination switching unit 134.
- the illumination switching unit 134 controls turning on and off of the first light source 133A and the second light source 133B based on the timing of the vertical synchronization signal transmitted from the second vertical synchronization signal detection unit 137.
- the video signal v is sent to the first vertical synchronization signal detector 122 via the signal line 137A.
- the first vertical synchronization signal detection unit 122 detects the vertical synchronization signal vsync in the same manner as the second vertical synchronization signal detection unit 137 and transmits the timing to the output control unit 123. Since the second vertical synchronization signal detection unit 137 and the first vertical synchronization signal detection unit 122 detect the vertical synchronization signal vsync at the same time, the processing performed by each of the illumination switching unit 134 and the output control unit 123 that can transmit the timing is performed. It can be synchronized.
- the output control unit 123 performs switching every time a notification that the timing signal has been detected is received from the first vertical synchronization signal detection unit 122, and the signal line 122 ⁇ / b> B.
- Each of the rectangular waves in the video signal v received via is alternately distributed to the signal line 123A and the signal line 123B.
- “1” is displayed on the rectangular wave distributed to the signal line 123A
- “2” is displayed on the rectangular wave distributed to the signal line 123B.
- a video signal directed from the signal line 123A to the first output terminal 121A and the display D1 via the cable C1 becomes data of a frame to be included in the first frame group, and from the signal line 123B to the second output terminal 121B and the cable C2.
- a video signal directed to the display D2 via the frame becomes data of a frame to be included in the second frame group.
- FIG. 3 such data distribution is conceptually shown in FIG. 3 in which the signal line 122B that sends the video signal v to the output control unit 123 is alternately connected to the signal line 123A and the signal line by the switch 123S. This can be realized by connecting to 123B.
- Such switching of the switch 123S can be realized by using, for example, a flip-flop circuit.
- both of the video signals directed to the display D2 display on the display D1 or the display D2 a moving image in which a half frame is dropped from the moving image reproduced by the original video signal v.
- they are both video signals that cause the display D1 or the display D2 to display a moving image in which the frame rate of the moving image reproduced by the original video signal v is halved.
- the illumination switching unit 134 notified of the timing at which the second vertical synchronization signal detection unit 137 detects the vertical synchronization signal operates as follows. Whenever the notification that the timing signal is detected is received from the second vertical synchronization signal detection unit 137, the illumination switching unit 134 performs switching, for example, at the moment when the notification is received, and the first light source 133A and the second light source 133B. Are alternately turned on and off. Specifically, when the rectangular wave shown in FIG. 4 that is distributed to the signal line 123A (that is, the frame allocated to the first frame group) is imaged, the first light source 133A is turned on and the second When the light source 133B is turned off and an image of the rectangular wave shown in FIG.
- the second light source 133B is turned on.
- the first light source 133A and the second light source 133B are controlled so that the first light source 133A is turned off.
- This can also be realized by switching of switches, but such switching of switches can be realized by using, for example, a flip-flop circuit.
- the moving image displayed on the display D1 by the frame data distributed to the first frame group is a matte moving image
- the moving image displayed on the display D2 by the frame data distributed to the second frame group is a glossy moving image. It becomes. A doctor can perform a more accurate diagnosis by viewing these two types of videos together.
- the image sensor 136 there may be a slight delay between the time when a certain frame is imaged and the time when the data of that frame is output. If there is such a delay, there is a possibility that there is a difference between the timing at which the second vertical synchronization signal detection unit 137 detects the vertical synchronization signal and the timing at which the image sensor 136 actually performs imaging. This means that there is a difference between the timing at which the image sensor 136 performs imaging and the timing of turning on and off the first light source 133A and the second light source 133B.
- a frame with the image sensor 136 is captured between the second vertical synchronization signal detection unit 137 and the illumination switching unit 134 or inside the illumination switching unit 134, and then the data of the frame is output. It is only necessary to provide a mechanism for delaying the switching timing of the illumination by the time of the above-mentioned delay that occurs until it is done. For example, if a delay circuit for delaying a predetermined signal by the above-described delay time is provided, it can be easily realized.
- the recording unit 124 records frame data of the first frame group and frame data of the second frame group. Using these data, you can display the above two types of video seen in real time on display D1 and display D2 each time you like, or display the same video on other displays when you like Is also possible.
- the video camera of the first modification is an endoscope, and most of the video camera is the same as the endoscope of the first embodiment. Only the following points are different.
- the imaging device according to the first embodiment outputs a video signal that allows progressive drawing to be performed on the displays D1 and D2 (hereinafter sometimes simply referred to as “D”).
- the image sensor in this embodiment outputs a video signal that can cause the display D to draw in an interlaced manner.
- the video signal v has a waveform as shown in FIG. Unlike the first embodiment, each rectangular wave included in the video signal v is not an image for one frame of the display D, but an image in an odd row or an even row. In FIG.
- each rectangular wave included in the video signal v includes data O corresponding to the odd-numbered scanning lines of the display D and data E corresponding to the even-numbered scanning lines of the display D. Also includes a vertical synchronizing signal similar to that included in the video signal v of the first embodiment.
- the following two types of processing can be realized on the premise that the video signal v is as described above.
- the first process is as follows.
- each of the data O and the data E in the modified example 1 is handled as corresponding to the rectangular wave in the first embodiment (FIG. 7B).
- the processes performed by the first vertical synchronization signal detection unit 122, the output control unit 123, the second vertical synchronization signal detection unit 137, and the illumination switching unit 134 are all the same as those in the first embodiment.
- the frame data to be included in the first frame group obtained as a result is that the moving image displayed on the display D1 has a half frame rate compared to when the moving image is displayed by the video signal v.
- the moving image displayed on the display D1 is not a data that becomes a moving image but a moving image in which the number of scanning lines (or the number of pixels) is halved compared to when the moving image is displayed by the video signal v. It becomes such data.
- the second processing is as follows. The second processing is to treat the data O and the data E in the modified example 1 as one corresponding to the rectangular wave in the first embodiment (FIG. 7A). In this case, the output control unit 123 and the illumination switching unit 134 execute the switching process described in the first embodiment every time the vertical synchronization signal is detected twice.
- the switching process described in the first embodiment is executed.
- the first vertical synchronization signal detection unit 122 and the second vertical synchronization signal detection unit 137 send a notification that the vertical synchronization signal is detected every time the vertical synchronization signal is detected, and the output control unit 123 and the illumination switching unit 134 can be realized by executing the switching process described in the first embodiment every time the notification is received twice.
- the video camera of the modification 2 is an endoscope, and most of the video camera is the same as the endoscope of the first embodiment. Only the following points are different.
- the output control unit 123 of the first embodiment performs switching of the switch 123 ⁇ / b> S every moment when a notification that the timing signal is detected is received from the first vertical synchronization signal detection unit 122.
- Each rectangular wave in the video signal v received via the signal line 122B is alternately distributed to the signal line 123A and the signal line 123B one by one. That is, in the first embodiment, all the frames corresponding to the rectangular wave are alternately distributed to the first frame group or the second frame group without being discarded.
- the output control unit 123 of the endoscope does not perform switching at all the moment when the notification that the timing signal is detected is received from the first vertical synchronization signal detection unit 122, For example, the rectangular wave included in the video signal v is distributed to the signal line 123A and the signal line 123B as shown in (A) to (C) of FIG.
- each rectangular wave included in the video signal v is “first frame group” and “discarded” (things without “1” and “2” written on the rectangular wave), “Second frame group”, “discard”, “first frame group”, “discard”, “second frame group”, “discard”, and so on are assigned to the signal line 123A and the signal line 123B in this order. ing. That is, in the example of FIG. 8A, the output control unit 123 uses the data for a certain number of frames (more accurately, every three frames) from the data for many frames included in the video signal v.
- each rectangular wave included in the video signal v is “first frame group”, “second frame group”, “discard”, “first frame group”, “second frame group”. ”,“ Discard ”, and so on, in order of signal line 123A and signal line 123B. That is, in the example of FIG. 8B, the output control unit 123 uses the data for a certain number of frames (more accurately, every two frames) from the data for many frames included in the video signal v.
- FIGS. 8A and 8B are cases where a part of the data for a large number of frames included in the video signal v is discarded, and the video signal v displays interlace drawing.
- the data of the frame of the first frame group or the second frame The frame rate of the moving image to be rendered by the group of frame data is less than half of the frame rate of the moving image to be rendered by the original video signal v.
- the switching performed by the switch 123S in the output control unit 123 is “connection of the signal line 122B to the signal line 123A” and “signal line 122B to the signal line 123A and signal line 123B, respectively, in the case of FIG. 8A.
- the signal line 122B is connected to the signal line 123A
- the signal line 122B is connected to the signal line 123B
- the signal line 122B is connected to either the signal line 123A or the signal line 123B”.
- the signal line 122B is not connected to either the signal line 123A or the signal line 123B ", and so on.
- the process is repeated.
- Such switching of the switch 123S can be realized by a known technique if a counter or the like is appropriately used.
- each rectangular wave included in the video signal v is converted into “first frame group”, “second frame group”, “first frame group”, “first frame group”, “first frame group”,
- both the frame rate of the frame allocated to the first frame group and the frame rate of the frame allocated to the second frame group change with time. This example is therefore not very useful. According to the present invention, such a modification can be realized.
- the video camera of the third modification is an endoscope, and most of the video camera is the same as the endoscope of the first embodiment. Only the following points are different.
- the sealing plate 132B that does not affect the polarization state of the light passing therethrough is present in front of the second light source 133B.
- the sealing plate 132B is replaced with a second polarizing plate 132B1 having the same polarization direction as the polarizing plate 132C in front of the image sensor 136.
- a matte image is captured by the image sensor 136 when the first light source 133A is lit
- a glossy image is captured by the image sensor 136 when the second light source 133B is lit.
- the second illumination light which is the illumination light that has passed through the second polarizing plate 132B1 hits the object X and becomes image light from the object X.
- the image light reflected from the surface of the object X is kept polarized, but passes through the polarizing plate 132C because the polarization direction is the same as the polarizing direction of the polarizing plate 132C.
- the polarization state of the image light that has entered and is slightly reflected in the object X is disturbed.
- a component having the same polarization direction as that of the polarizing plate 132C contained therein passes through the polarizing plate 132C, so that at least about half of the image light passes through the polarizing plate 132C.
- the polarization direction of the second polarizing plate 132B1 is theoretically the second light source 133B if the polarization direction of the polarizing plate 132C and the polarization direction are not orthogonal to each other.
- An image obtained when is turned on can be a glossy image.
- the video camera of the modification 4 is an endoscope, and most of the video camera is the same as the endoscope of the first embodiment. Only the following points are different.
- An imaging unit 130 of a video camera of Modification 4 is shown in FIG.
- the video camera of the first embodiment includes two light sources, the first light source 133A and the second light source 133B, in Modification 4, the light source remains only the first light source 133A.
- the first light source 133A remains on during imaging.
- the first light source 133A and the second light source 133B there are two holes, the first hole 131A and the second hole 131B, in front of them.
- the video camera of the fourth modification includes a liquid crystal plate 138.
- the liquid crystal plate 138 exists on the optical path from the first light source 133A to the object. By changing the voltage applied to the liquid crystal plate 138, the liquid crystal plate 138 can take a first state that functions as a polarizing plate and a second state that does not affect the polarization state of the light transmitted therethrough. Yes.
- the polarization direction in the first state is a direction orthogonal to the polarizing plate 132C.
- the illumination switching unit 134 of the first embodiment switches on / off the first light source 133A and the second light source 133B, but the illumination switching unit 134 of the modification 4 instead uses the liquid crystal plate 138.
- the illumination switching unit 134 according to the modified example 4 is configured so that the liquid crystal plate 138 changes from the first state to the second state or from the second state to the first state at a predetermined timing. To control.
- the timing at which the illumination switching unit 134 changes the state of the liquid crystal plate 138 can be controlled by the same method as in the first embodiment.
- the first light source 133A is turned on in the first embodiment.
- the liquid crystal plate 138 instantly changes from the second state to the first state, and the liquid crystal plate 138 changes from the first state to the second state at the same moment when the second light source 133B is turned on in the first embodiment. It has become.
- the liquid crystal plate 138 is in the first state, the light emitted from the first light source 133A passes through the liquid crystal plate 138 and becomes polarized light whose polarization direction is perpendicular to the polarizing plate 132C.
- the liquid crystal plate 138 at this time is equivalent to the first polarizing plate 132A in the first embodiment. Therefore, the first illumination light that is the illumination light from the first light source 133A that has passed through the liquid crystal plate 138 is the sealing plate 132B that does not affect the polarization state of the light that passes through the first illumination light thereafter. In other words, this is equivalent to the first illumination light in the first embodiment.
- the liquid crystal plate 138 is in the second state, even if it passes through the liquid crystal plate 138, the light emitted from the first light source 133A is not polarized.
- the liquid crystal plate 138 at this time is equivalent to the sealing plate 132B in the first embodiment.
- the second illumination light that is the illumination light from the first light source 133A that has passed through the liquid crystal plate 138 is equivalent to the second illumination light in the first embodiment. That is, since the first illumination light and the second illumination light in the modification 4 are not different from those in the first embodiment, the matte moving image and the glossy moving image can be captured also in the modification 4.
- the video camera of the modification 5 is an endoscope, and most of the video camera is the same as the endoscope of the first embodiment. Furthermore, the video camera of the modified example 5 is quite close to the video camera of the modified example 4.
- An imaging unit 130 of a video camera of Modification 5 is shown in FIG. Similar to the video camera of the modification 4, the video camera of the modification 5 has only the first light source 133A. The first light source 133A remains lit during imaging as in the case of the fourth modification. Further, in the video camera of the modification example 5, as in the modification example 4, the first hole 131A remains, but the second hole 131B does not exist. The point that the sealing plate 132B is fitted in the first hole 131A is the same as in the fourth modification.
- the video camera of Modification 5 also includes a moving polarizing plate 139A that is a polarizing plate that moves as described later.
- the polarization direction of the movable polarizing plate 139A is the same as that of the first polarizing plate 132A, and is orthogonal to the polarization direction of the polarizing plate 132C.
- the movable polarizing plate 139A reciprocates between a position indicated by a solid line and a position indicated by a two-dot chain line.
- the movable polarizing plate 139A is not located on the optical path of the illumination light emitted from the first light source 133A when it is at the position indicated by the solid line, and is illuminated from the first light source 133A when it is located at the position indicated by the two-dot chain line. Located on the light path. Note that the polarization direction of the movable polarizing plate 139A does not change between and between the positions.
- the moving mechanism 139B realizes the movement of the moving polarizing plate 139A.
- the moving mechanism 139B reciprocates the moving polarizing plate 139A supported by a predetermined frame or the like by parallel movement.
- the illumination switching unit 134 switches between turning on and off the first light source 133A and the second light source 133B.
- the illumination switching unit 134 according to the modified example 5 is replaced by the moving polarizing plate 139A.
- the movement mechanism 139B is controlled to control the movement timing. Specifically, the illumination switching unit 134 of Modification 5 moves the movable polarizing plate 139 from a position indicated by a solid line to a position indicated by a two-dot chain line at a predetermined timing, or a position indicated by a two-dot chain line.
- the moving mechanism 139B is controlled so as to move to the position indicated by the solid line.
- the timing at which the moving mechanism 139B moves the moving polarizing plate 139A is controlled by the illumination switching unit 134 in the same manner as in the first embodiment.
- the moving polarizing plate 139A is in the position indicated by the two-dot chain line in the time zone in which the first light source 133A is turned on in the first embodiment, and in the time zone in which the second light source 133B is turned on in the first embodiment.
- the illumination switching unit 134 controls the moving mechanism 139B so that the moving polarizing plate 139A is at the position indicated by the solid line.
- the moving polarizing plate 139A When the moving polarizing plate 139A is at the position indicated by the two-dot chain line, the light emitted from the first light source 133A passes through the moving polarizing plate 139A and becomes polarized light whose polarization direction is perpendicular to the polarizing plate 132C. .
- the moving polarizing plate 139A at this time is equivalent to the first polarizing plate 132A in the first embodiment. Therefore, the first illumination light, which is the illumination light from the first light source 133A that has passed through the moving polarizing plate 139A, is the sealing plate 132B that does not affect the polarization state of the light that passes through the first illumination light thereafter. In some cases, this is equivalent to the first illumination light in the first embodiment.
- the second illumination light that is the illumination light from the first light source 133A is equivalent to the second illumination light in the first embodiment. That is, since both the first illumination light and the second illumination light in the modified example 5 are the same as those in the first embodiment, a matte moving image and a glossy moving image can also be captured in the modified example 5.
- the video camera of the modification 6 is an endoscope, and most of the video camera is the same as the endoscope of the first embodiment. Furthermore, the video camera of the modification 6 is almost the same as the video camera of the modification 5.
- the video camera of the modification example 5 generates the first illumination light that is polarized light and the second illumination light that is not polarized light by the movement of the movable polarization plate 139A, but in the modification example 6, the composite polarization plate 141 shown in FIG. Is rotated to produce first illumination light that is polarized light and second illumination light that is not polarized light.
- the composite polarizing plate 141 alternates between a fan-shaped polarizing plate 141A having a central angle of 90 degrees and a fan-shaped transmitting plate 141B having a central angle of 90 degrees that does not affect the polarization direction of light transmitted therethrough. Two pieces are combined into a circular shape.
- the composite polarizing plate 141 is fixed to a shaft 142 passing through the center thereof.
- the shaft 142 is connected to an actuator 143 that rotates the shaft 142, and is rotated by the actuator 143. Thereby, the composite polarizing plate 141 rotates around the shaft 142 in one direction, for example.
- the illumination switching unit 134 switches between turning on and off the first light source 133A and the second light source 133B.
- the illumination switching unit 134 according to the modified example 6 uses the composite polarizing plate 141 instead.
- the actuator 143 is controlled to control the rotation speed and the position at that time.
- the illumination switching unit 134 controls the speed at which the actuator 143 rotates the composite polarizing plate 141 and the position at a certain point in the same manner as in the first embodiment.
- the polarizing plate 141A is in front of the first light source 133A in the time zone when the first light source 133A is turned on in the first embodiment, and the transmission plate is in the time zone in which the second light source 133B is turned on in the first embodiment.
- the illumination switching unit 134 controls the actuator 143 so that 141B is in front of the first light source 133A.
- the polarizing plate 141A is in front of the first light source 133A, the light emitted from the first light source 133A is transmitted through the polarizing plate 141A. Then, the illumination light becomes polarized light whose polarization direction is a direction orthogonal to the polarizing plate 132C.
- the polarizing plate 141A at this time is equivalent to the first polarizing plate 132A in the first embodiment.
- the first illumination light that is the illumination light from the first light source 133A that has passed through the polarizing plate 141A is the sealing plate 132B that does not affect the polarization state of the light that passes through the first illumination light thereafter. In other words, this is equivalent to the first illumination light in the first embodiment.
- the transmission plate 141B is in front of the first light source 133A, the light emitted from the first light source 133A is not polarized even if it passes through the transmission plate 141B. Not polarized. Therefore, in this case, the second illumination light that is the illumination light from the first light source 133A is equivalent to the second illumination light in the first embodiment. That is, since both the first illumination light and the second illumination light in the modified example 6 are the same as those in the first embodiment, a matte moving image and a glossy moving image can also be captured in the modified example 4.
- the video camera of the modified example 7 is an endoscope, and its basic configuration is the same as that of the endoscope of the first embodiment.
- a video camera of Modification 7 is shown in FIG.
- the biggest difference between the endoscope of the modified example 7 and the endoscope of the first embodiment is that the imaging device 136 is provided in the imaging unit 130 at the tip of the scope unit 110 in the endoscope of the first embodiment.
- the imaging device 136 is provided in the video processor box 120. That is, in the endoscope of the modification example 7, the scope unit 110 transmits image light.
- Reference numeral 110 in FIG. 14 denotes a scope portion.
- an image light transmission body 151 that is a means for transmitting the above-described image light is provided.
- the image light transmission body 151 is configured by bundling optical fibers in this embodiment.
- the optical fiber in the image light transmission body 151 is a known image guide fiber in which the mutual positional relationship in the bundle (in the cross section of the bundle) is fixed at least at both ends.
- this image guide fiber can also be constituted by a known rod lens if the flexibility of the scope section 110 is not required.
- the scope unit 110 also includes a first illumination light transmitter 152A for transmitting the first illumination light and a second illumination light transmitter 152B for transmitting the second illumination light. Yes.
- the scope unit 110 is comprised by bundling an optical fiber. Since the image light is not transmitted, the positional relationship between the optical fibers in the first illumination light transmitter 152A and the second illumination light transmitter 152B is fixed in the bundle (in the cross section of the bundle). It is not necessary to be in a state that has been made. If the flexibility of the scope unit 110 is not required, it can be configured by a rod lens as with the image light transmitter 151.
- a distal end fixing member 153 for fixing the distal ends of the image light transmission body 151, the first illumination light transmission body 152A, and the second illumination light transmission body 152B is provided at the distal end of the scope unit 110.
- the tip fixing member 153 has a first tip hole 153A for fixing the tip of the first illumination light transmission body 152A inserted therein, and a second tip for fixing the tip of the second illumination light transmission body 152B inserted therein.
- a hole 153B and a third tip hole 153C for fixing the tip of the image light transmission body 151 inserted therein are provided.
- the image light transmission body 151, the first illumination light transmission body 152 ⁇ / b> A, and the second illumination light transmission body 152 ⁇ / b> B are fixed to the tip fixing member 153 by being caulked in these three holes. Further, a front end lens 154 that is a magnifying lens is attached to the front side of the image light transmission body 151 in the third front end hole 153C. The front lens 154 guides the image light from the object to the end surface of the front end of the image light transmission body 151.
- the video processor box 120 of the modified example 7 has a configuration in which the imaging unit 130 in the first embodiment and the video processor box 120 in the first embodiment are combined.
- the case 121 of the video processor box 120 is provided with a first hole 131A, a second hole 131B, and a third hole 131C. These correspond to the first hole 131A, the second hole 131B, and the third hole 131C provided in the imaging unit 130 of the first embodiment.
- the same polarizing plate 132C as that in the first embodiment is fitted in the third hole 131C in the modified example 7, the first hole 131A and the second hole 131B in the modified example 7 are fitted in the first hole 131C.
- the first polarizing plate 132A and the sealing plate 132B that are fitted in the first hole 131A and the second hole 131B, respectively, are not fitted. Instead, a focusing lens 155A that is a lens and a focusing lens 155B that is also a lens are fitted in the first hole 131A and the second hole 131B, respectively.
- the focusing lens 155A converges the light from the first light source 133A similar to the case of the first embodiment on the end face of the base end of the first illumination light transmitter 152A, and the focusing lens 155B is the same as in the case of the first embodiment.
- the same light from the second light source 133B is converged on the end face of the base end of the second illumination light transmitter 152B.
- the first polarizing plate 132A existing in the first embodiment is disposed on the front side of the first light source 133A. Therefore, the illumination light when the first light source 133A is turned on passes through the first polarizing plate 132A and is polarized, and then enters the first illumination light transmitter 152A. On the other hand, the illumination light when the second light source 133B is turned on enters the second illumination light transmitter 152B as it is without being polarized.
- the former is the first illumination light
- the latter is the second illumination light
- the former is polarized light
- the latter is natural light.
- the first illumination light is applied to the object from the end surface of the front end of the first illumination light transmitter 152A
- the second illumination light is applied to the object from the end surface of the front end of the second illumination light transmitter 152B.
- the case 121 of the video processor box 120 in the modified example 7 includes the first light source 133A and the second light source 133B, and the lens 135, the image sensor 136, and the second vertical synchronization signal detection unit 137.
- the imaging device 136 is configured to capture the image light that has passed through the image light transmission body 151 and is imaged by the lens 135.
- the image sensor 136, the second vertical synchronization signal detection unit 137, the illumination switching unit 134, the first light source 133A, and the second light source 133B are signal lines 134A, 134B, 134C, and 136A as in the first embodiment. Are connected to each other.
- the image sensor 136, the second vertical synchronization signal detection unit 137, and the illumination switching unit 134 all operate in the same manner as that of the first embodiment. Therefore, the first light source 133A and the second light source 133B are repeatedly turned on and off under the control of the illumination switching unit 134 as in the case of the first embodiment.
- the signal line 137A and the first vertical synchronization signal detector 122 do not exist because the second vertical synchronization signal detection unit 137 also serves as the first vertical synchronization signal detection unit 122.
- the second vertical synchronization signal detection unit 137 transmits the timing when the vertical synchronization signal is detected via the signal line 122A to the output control unit 123, and the video signal is transmitted via the signal line 122B. The signal is transmitted to the output control unit 123.
- the second vertical synchronization signal detection unit 137 and the first vertical synchronization signal detection unit 122 in the first embodiment detect the vertical synchronization signal almost simultaneously, the second vertical synchronization signal detection unit 137 receives the vertical synchronization signal. Even if the detected timing is transmitted, the output control unit 123 can operate in the same manner as in the first embodiment.
- the operations and functions of the members in the case 121 of the modification 7 or provided in the case 121 can all be the same as those of the first embodiment, and this modification 7 does so. Therefore, also with the video camera of the modified example 7, two types of moving images can be displayed on the display D1 and the display D2 as in the case of the first embodiment.
- the video camera of the modification 8 is an endoscope, and its basic configuration is the same as that of the endoscope of the first embodiment. Furthermore, the video camera of the modification 8 is almost the same as the video camera of the modification 7 as shown in FIG.
- the portion of the video camera according to the modified example 8 that is different from the video camera according to the modified example 7 is the positions of the first light source 133A and the second light source 133B. In the modified example 7, the first light source 133A and the second light source 133B that were in the case 121 of the video processor box 120 are fixed to the tip fixing member 153 in the modified example 8.
- the modification 8 is in the modification 7.
- the focusing lens 155A and the focusing lens 155B are missing.
- the first polarizing plate 132A that exists in front of the first light source 133A and needs to transmit the light from the first light source 133A is in the first hole 153A of the tip fixing member 153. Installed. Further, in the video camera of the modification 8, the same sealing plate 132B as that in the first embodiment is fitted in the second hole 153B.
- the signal line 134A connecting the first light source 133A and the second vertical synchronization signal detection unit 137 and the signal line 134B connecting the second light source 133B and the second vertical synchronization signal detection unit 137 include the scope unit.
- the inside of 110 is extended.
- the function and operation of each member are the same as in the modified example 7.
- the illumination light emitted from the first light source 133A passes through the first polarizing plate 132A and becomes the first illumination light that is polarized.
- the illumination light emitted from the second light source 133B is not polarized even if it passes through the sealing plate 132B, and thus becomes the second illumination light that is not polarized. Since the relationship between the first illumination light and the second illumination light is the same as that of the first embodiment, the video camera of the modification 8 displays two types of moving images as in the video camera of the first embodiment, such as the display D1 and the display D2. Can be displayed.
- the video camera of the modification 9 is not an endoscope.
- the video camera of the modification 9 is a hand-held type magnification observation apparatus.
- the configuration of the video camera of Modification 9 is substantially the same as that of the video camera of the first embodiment.
- the magnification observation device 160 includes a case 161 having a shape and size that can be held by hand.
- the case 161 is connected to a video processor box 120 (not shown) configured in the same manner as in the first embodiment by a flexible tube 110X that includes a signal line 137A in the same manner as the scope unit 110 in the first embodiment. It is connected.
- the vicinity of the tip of the case 161 of the modification 9 is tapered so as to become thinner toward the tip, and a hole 162 is opened at the tip.
- the magnification observation device 160 is used in a state in which the periphery of the hole 162 at the tip thereof is in contact with an imaging target (more precisely, slightly outside the imaging target).
- the first light source 133A is provided inside the case 161.
- a plurality of second light sources 133 ⁇ / b> B are provided inward at the peripheral edge of the hole 162 of the case 161.
- the plurality of second light sources 133B is relatively smaller than the first light source 133A, and therefore the amount of illumination light from the second light source 133B is relatively inferior to that of the first light source 133A. This is intended to match the amount of light from the light source 133A. If there is no request for matching the amount of light, or even if there is only one second light source 133B, the number of the second light sources 133B is not necessary in the first place.
- a half mirror 164 inclined at an angle of 45 ° with respect to the image light is provided.
- the first illumination light which is the illumination light from the first light source 133A, is reflected by the half mirror 164, and is irradiated onto the object substantially perpendicularly.
- neither the first illumination light that is the illumination light from the first light source 133A nor the second illumination light that is the illumination light from the second light source 133B is polarized.
- the first illumination light is epi-illumination light whose incident angle to the object is 40 ° or less
- the second illumination light is side-illumination light whose incident angle to the object is larger than 40 °.
- an image pickup device 136, a second vertical synchronization signal detection unit 137, and an illumination switching unit 134 are provided.
- the first light source 133A and the second light source 133B are connected to signal lines 134A, 134B, It is connected by 134C. These functions and operations are the same as in the first embodiment.
- a lens 135 is provided in the case 161.
- the lens 135 is basically the same as the lens 135 of the first embodiment, but the lens 135 is designed so that the focus of the image sensor 136 is aligned with the hole 162. Accordingly, when the periphery of the hole 162 at the tip of the magnifying observation device 160 is brought into contact with the object, the object existing in the hole 162 is automatically focused.
- the image sensor 136 captures image light transmitted through the half mirror 164.
- the first light source 133A and the second light source 133B are repeatedly turned on and off under the control of the illumination switching unit 134 as in the case of the first embodiment. Therefore, also in the video camera of the modification 9, two types of moving images can be displayed on the display D1 and the display D2, similarly to the video camera of the first embodiment. However, in the modified example 9, two types of moving images are a moving image in which the incident light is the first illumination light and a moving image in which the side light is the second illumination light.
- the video camera of Modification 10 is not an endoscope.
- the video camera of the modification 10 is a hand-held type magnification observation apparatus.
- the configuration of the video camera of Modification 10 is almost the same as that of the magnification observation apparatus of Modification 9.
- This magnified observation device 160 is different from the magnified observation device 160 of the modification 9 in the first light source 133A and the second light source 133B (FIG. 17).
- the first light source 133A and the second light source 133B of the video camera of the modification 10 are the same including the size, and both irradiate the object with illumination light at the same incident angle. It should be noted that there is no half mirror in the magnifying observation device 160 of the modification 10.
- the video camera of Modification 10 is provided with a filter 165 in front of the first light source 133A.
- the light from the first light source 133 ⁇ / b> A passes through the filter 165 and is irradiated on the object.
- the filter 165 is a band-pass filter that transmits only light in a specific range of wavelengths.
- the first light source 133 ⁇ / b> A and the second light source 133 ⁇ / b> B in the modification 10 emit natural light-like illumination light (white light) including light from the infrared region to the ultraviolet region.
- the second illumination light which is the illumination light from the second light source 133B
- an image captured by the second illumination light when the second light source 133B is lit is white light.
- the general image is the same as that captured as illumination light.
- the filter 165 in the modified example 10 transmits only light in the infrared region, for example, the image captured by the video camera in the modified example 10 is the first illumination light that is infrared light. This is a captured image.
- the filter 165 in the modification 10 transmits only light in the ultraviolet region
- an image captured by the video camera in the modification 10 is captured by the first illumination light that is ultraviolet light. Image.
- the filter 165 in the modification 10 transmits only green light
- the image captured by the video camera in the modification 10 is captured by the first illumination light that is green light. It becomes an image.
- the video camera of the modified example 10 displays two different types of moving images of visible light and infrared light, visible light and ultraviolet light, or white light and green light. D1 and display D2. If the filter 165 is further changed, the wavelength of the illumination light for capturing two types of moving images can be made different.
- the filter 165 is a first polarizing plate 132A, and the first embodiment is arranged in front of the image sensor 136.
- the video camera of the modification 11 is an endoscope as in the case of the first embodiment.
- the endoscope of the modification 11 is a capsule endoscope.
- the capsule endoscope of Modification 11 is configured as shown in FIGS.
- the capsule endoscope includes a capsule 170 corresponding to the imaging unit 130 in the first embodiment.
- the capsule 170 has a shape and size that can be easily swallowed by a patient, and includes a resin-made main body 170A and a dome 170B made of a transparent resin.
- the dome 170B covers the surface on one end side of the main body 170A in a watertight manner. Of course, the dome 170B does not affect the state of polarization of light passing through it.
- a first light source 133A and a second light source 133B similar to those of the first embodiment are arranged on the surface on one end side covered with the dome 170B of the main body 170A.
- a first polarizing plate 132A similar to that of the first embodiment is disposed in front of the first light source 133A.
- the illumination light from the first light source 133A passes through the first polarizing plate 132A and is polarized as in the first embodiment. That is, the first illumination light, which is illumination light irradiated to the object when the first light source 133A is turned on, is polarized light in the modification 11 and is applied to the object when the second light source 133B is turned on.
- the 2nd illumination light which is illumination light is light which is not polarized light. This relationship is the same as in the first embodiment.
- a hole 170A1 is formed in a surface on one end side covered with the dome 170B of the main body 170A, and a lens 135 similar to that of the first embodiment is fitted therein.
- a polarizing plate 132C similar to that of the first embodiment, and the image light from the object is imaged by the imaging element 136 inside the main body 170A via the polarizing plate 132C and the lens 135. It is like that.
- a second vertical synchronization signal detection unit 137 and an illumination switching unit 134 are provided inside the main body 170A. These, the first light source 133A and the second light source 133B They are connected by lines 134A, 134B, and 134C. These functions and operations are the same as in the first embodiment.
- the first light source 133A and the second light source 133B are repeatedly turned on and off under the control of the illumination switching unit 134, as in the case of the first embodiment.
- the video signal generated by the image sensor 136 is the same as that of the first embodiment.
- the second vertical synchronization signal detector 137 is also connected to one end of the signal line 137A as in the first embodiment. However, unlike the case of the first embodiment, the other end of the signal line 137A is connected to the wireless transmission unit 171.
- the wireless transmission unit 171 transmits a video signal wirelessly by, for example, radio waves.
- the video camera of Modification 11 includes a video processor box 120.
- the video processor box 120 of the eleventh modification is small and large enough to allow a patient to wear it and act.
- the patient for example, wears a vest that can store the video processor box 120 in its pocket, captures the moving image captured by the swallowed capsule 170 while sending a daily life, and the data is stored in the video processor box 120 as described later. Can be recorded. Based on the data, the doctor can later confirm the same two types of moving images as in the first embodiment.
- it is an advantage of the capsule endoscope that the endoscopic examination can be performed while living daily life.
- the story is returned to the video processor box 120.
- the video processor box 120 of the modification 11 is basically the same as that in the first embodiment. The difference is that the first vertical synchronization signal detector 122 is connected to one end of the signal line 172A instead of the signal line 137A. The other end of the signal line 172A is connected to the wireless reception unit 172.
- the wireless reception unit 172 receives the video signal transmitted by the wireless transmission unit 171. That is, unlike the first embodiment, the video processor box 120 of the video camera of the modification 11 does not receive the video signal transmitted by the second vertical synchronization signal detection unit 137 via only the signal line 137A.
- the signal line 137A, the wireless transmission unit 171, the wireless reception unit 172, and the signal line 172A are received.
- the processing executed by each element below the first vertical synchronization signal detection unit 122 is the same as in the first embodiment.
- the output control unit 123 generates frame data of the first frame group and frame data of the second frame group. These data are output from the signal line 123A1 and the signal line 123B1, respectively.
- the signal line 123A, the first output terminal 121A1, the signal line 123B, and the second output terminal 121B do not exist.
- a doctor is not scheduled to view a moving image in real time on the display D1 and the display D2.
- the recording unit 124 having the same function as in the first embodiment receives the frame data of the first frame group received via the signal line 123A1 and the second frame group received via the signal line 123B1. Are separately recorded. Using this data, the doctor can view two types of moving images, similar to the case of the first embodiment, using the display D1 and the display D2.
- the video camera of the modification 12 is an endoscope, and its basic configuration is the same as that of the endoscope of the first embodiment.
- the video camera of the modification 12 differs from the video camera of the first embodiment in that the vertical synchronization signal is superimposed on the video signal in the video camera of the first embodiment, whereas the video camera of the modification 12
- the vertical sync signal is different from the video signal. That is, the video signal v and the vertical synchronization signal vsync in FIG. 4 are handled as different signals in the modified example 12.
- the vertical synchronization signal is generated in the image sensor 136 and output to the outside in a state of being superimposed on the video signal.
- the vertical synchronization signal is The vertical synchronizing signal generator 181 shown in FIG. 20 is generated not in the image sensor 136.
- the vertical synchronization signal generation unit 181 sends the vertical synchronization signal generated by the vertical synchronization signal generation unit 181 to the image sensor 136 and the second vertical synchronization signal detection unit 137 via the signal lines 181A and 181B.
- the image sensor 136 captures a moving image and outputs a video signal by synchronizing the timing of frame switching with the received vertical synchronization signal.
- the vertical synchronization signal generated by the vertical synchronization signal generator 181 is synchronized with the switching timing of frame data included in the video signal generated by the image sensor 136.
- the video signal is sent to the video processor box 120 via the signal line 137A.
- the video signal generated by the image sensor 136 is sent to the video processor box 120 without passing through the second vertical synchronization signal detection unit 137, unlike the case of the first embodiment.
- the second vertical synchronization signal detection unit 137 receives the vertical synchronization signal from the vertical synchronization signal generation unit 181
- the second vertical synchronization signal detection unit 137 performs the same operation as the second vertical synchronization signal detection unit 137 of the first embodiment.
- the timing at which the vertical synchronization signal is detected is transmitted to the illumination switching unit 134 via the signal line 134C.
- the processing performed by the illumination switching unit 134 using this timing information is the same as in the first embodiment.
- the vertical synchronization signal generator 181 of the modification 12 is also connected to the second signal line 181C running inside the scope unit 110, and as a signal different from the video signal via the second signal line 181C, A vertical synchronization signal is sent to the video processor box 120.
- the video processor box 120 of Modification 12 is configured as shown in FIG.
- the video processor box 120 is substantially the same as that of the first embodiment, but the first vertical synchronization signal detector 122 is not connected to the signal line 137A.
- the signal line 137A is directly connected to the output control unit 123 without passing through the first vertical synchronization direct signal detection unit 122.
- the first vertical synchronization signal detector 122 is also present in the video processor box 120 of the modified example 12. Unlike the first embodiment, the first vertical synchronization signal detector 122 is connected to the second signal line 181C.
- the first vertical synchronization signal detector 122 when the first vertical synchronization signal detector 122 receives the vertical synchronization signal via the second signal line 181C, the first vertical synchronization signal detector 122 determines the timing at which the vertical synchronization signal is received, The signal is transmitted to the output control unit 123 via the signal line 122A.
- the output control unit 123 uses the timing information notified from the first vertical synchronization signal detection unit 122 for the video signal received via the signal line 137A in the same manner as in the first embodiment. Execute the process.
- the first embodiment Like the video camera, two types of moving images can be displayed on the display D1 and the display D2.
- the video camera of the modification 13 is an endoscope, and its basic configuration is the same as that of the endoscope of the first embodiment. More specifically, the video camera of the modification 13 is almost the same as the video camera of the modification 12. The video camera of the modification 13 differs from the video camera of the modification 12 in fact in the following one point.
- the vertical synchronization signal generating unit 181 that was in the imaging unit 130 in the video camera of the modified example 12 is in the video processor box 120 (FIGS. 22 and 23).
- the vertical synchronization signal generation unit 181 of the video camera of Modification 13 is connected to the second signal line 181C running inside the scope unit 110, and is connected to the imaging unit 130 via the second signal line 181C.
- the second signal line 181C branches into signal lines 181A and 181B in the imaging unit 130, and is connected to the imaging element 136 and the second vertical synchronization signal detection unit 137 via these.
- the vertical synchronization signal generated by the vertical synchronization signal generator 181 is transmitted to the image sensor 136 and the second signal line 181C via the signal line 181A or the signal line 181B. It is sent to the vertical synchronization signal detector 137.
- the operations of the image sensor 136 and the second vertical synchronization signal detector 137 when receiving these are the same as in the case of the modification 12.
- the vertical synchronization signal generation unit 181 of the video camera according to the modification 13 is also connected to the first vertical synchronization signal detection unit 122 via the signal line 181D, and the vertical synchronization signal generated by the vertical synchronization signal generation unit 181.
- the signal is sent to the first vertical synchronization signal detector 122.
- the operation of the first vertical synchronization signal detection unit 122 when receiving this is the same as that of the modification 12.
- a video camera in which a vertical synchronization signal is not included in the video signal and the vertical synchronization signal generator 181 is in the video processor box 120 is the same as the video camera of the first embodiment.
- Two types of moving images can be displayed on the display D1 and the display D2.
- the video camera of the modification 14 is an endoscope, and its basic configuration is the same as that of the endoscope of the first embodiment. More specifically, the video camera of the modification 14 is almost the same as the video camera of the modification 13. The video camera of the modification 14 differs from the video camera of the modification 13 in fact in the following one point.
- the video camera of the modification 14 is that the vertical synchronization signal generator 181 in the video processor box 120 in the video camera of the modification 13 is outside the video camera (FIG. 24).
- the vertical synchronizing signal is generated not by a part of the video camera but by a predetermined vertical synchronizing signal generator that generates the vertical synchronizing signal, and is sent to the video processor box 120 via the input line 182. It has become.
- the video processor box 120 includes an input terminal 183, and the input line 182 is detachably connected to the input terminal 183, for example.
- the input line 182 is connected to the signal line 182A via the input terminal 183.
- the signal line 182A branches into a signal line 182B and a second signal line 181C inside the video processor box 120.
- the second signal line 181C is connected to the imaging unit 130 as in the case of the modification 13. Since the configuration of the imaging unit 130 in the modification 14 is the same as that in the modification 13, the illustration of the imaging unit 130 is omitted.
- the signal line 182B is connected to the first vertical synchronization signal detection unit 122.
- the vertical synchronization signal generated by the vertical synchronization signal generator 181 is supplied to the imaging unit 130 via the second signal line 181C, and in the modification 14, the vertical synchronization signal is generated by the vertical synchronization signal generator.
- the vertical synchronization signal thus transmitted is supplied to the imaging unit 130 via the input line 182, the input terminal 183, the signal line 182A, and the second signal line 181C.
- the vertical synchronization signal generated by the vertical synchronization signal generator is the same as the vertical synchronization signal generated by the vertical synchronization signal generator 181 is supplied to the first vertical synchronization signal detector 122.
- the signal is supplied to the first vertical synchronization signal detector 122 via the input line 182, the input terminal 183, the signal line 182A, and the signal line 182B. Since the operation performed using the vertical synchronization signal in the imaging unit 130 and the operation performed using the vertical synchronization signal in the video processor box 120 are the same as in Modification 13, the video camera of Modification 14 also uses the first embodiment. Like the video camera, two types of moving images can be displayed on the display D1 and the display D2.
- the video camera of the modification 15 is an endoscope, and its basic configuration is the same as that of the endoscope of the first embodiment. More specifically, the video camera of the modification 15 is almost the same as the video camera of the modification 14. The video camera of the modification 15 differs from the video camera of the modification 14 in fact in the following point.
- the signal line 182A connected via the input line 182 and the input terminal 183 branches to the signal line 182B and the second signal line 181C in the video processor box 120.
- the signal line 182A is connected to the first vertical synchronization signal detection unit 122 (FIG. 25).
- the first vertical synchronization signal detection unit 122 is connected to the output control unit 123 through the signal line 122A, and is connected to the imaging unit 130 through the second signal line 181C.
- the first vertical synchronization signal detection unit 122 receives a vertical synchronization signal from a vertical synchronization signal generator (not shown) via the input line 182, the input terminal 183, and the signal line 182A, the first vertical synchronization signal detection unit 122 notifies the output control unit 123 of the timing. .
- the processing performed by the output control unit 123 upon receiving this notification is the same as in the first embodiment.
- the first vertical synchronization signal detection unit 122 of the modification 15 receives the vertical synchronization signal
- the first vertical synchronization signal detection unit 122 notifies the imaging unit 130 of the timing via the second signal line 181C.
- the second signal line 181C branches into a signal line 181A and a signal line 134C, and passes through the former to the imaging device 136, and the illumination switching unit 134 through the latter. It is connected to the.
- the modification 15 does not include the second vertical synchronization signal detection unit 137.
- the image sensor 136 notified of the timing information generates a video signal including data of a frame synchronized with the timing.
- the vertical synchronization signal that has passed through the first vertical synchronization signal detector 122 may be sent to the image sensor 136 as it is.
- the illumination switching unit 134 receives the timing information from the second vertical synchronization signal detection unit 137 based on the timing information received from the first vertical synchronization signal detection unit 122 according to the first embodiment. The same processing as in the case is executed. That is, in the modified example 15, the first vertical synchronization signal detection unit 122 also serves as the second vertical synchronization signal detection unit 137. Also in the video camera of the modification 15, two types of moving images can be displayed on the display D1 and the display D2, similarly to the video camera of the first embodiment.
- the video camera of the modification 16 can be said to be a combination of the video camera of the first embodiment and the video camera of the fourth embodiment described later.
- the video camera of the modification 16 is not an endoscope but a hand-held type magnification observation apparatus, and its basic configuration is the same as that of the magnification observation apparatus of the modification 10.
- the second illumination light that is the illumination light from the second light source 133B is irradiated as it is to the object as white light
- the first illumination light that is the illumination light from the first light source 133A is The object is irradiated after passing through the filter 165.
- the filter 165 transmits only light in the ultraviolet region, and therefore the first illumination light is ultraviolet light.
- the video camera of the modification 16 is different from the magnification observation apparatus of the modification 10 in that the video camera of the modification 16 includes the image processing unit 184 that the magnification observation apparatus of the modification 10 does not have in the video processor box 120. It is that it has (FIG. 27).
- the image processing unit 184 performs predetermined image processing on a part of the video signal before reaching the output control unit 123, more precisely, with respect to the video signal before reaching the output control unit 123.
- the image processing unit 184 is connected to the first vertical synchronization signal detection unit 122 through a signal line 184A.
- the timing at which the vertical synchronization signal is detected is transmitted not only to the output control unit 123 but also to the image processing unit 184. Also comes to notify.
- the image processing unit 184 distributes the frame data included in the video signal to the data distributed to the signal line 123A by the output control unit 123 (that is, the frame allocated to the first frame group) and the signal line 123B. Image processing is performed only on one of the data of the frame (that is, the frame allocated to the second frame group).
- the first light source 133A is turned on when the image sensor 136 captures a frame allocated to the first frame group, and the second light source 133B is configured when the image sensor 136 captures a frame allocated to the second frame group.
- the image processing unit 184 performs image processing only on the data of the frame that will be allocated to the first frame group later.
- the first vertical synchronization signal detector 122 uses the vertical synchronization signal in the video signal. When detected, information about the timing at which the vertical synchronization signal notified from the first vertical synchronization signal detection unit 122 is detected is used.
- the image processing performed by the image processing unit 184 can be selected according to a desired purpose such as making a moving image based on the data of the frames included in the first frame group easy to view.
- a desired purpose such as making a moving image based on the data of the frames included in the first frame group easy to view.
- the image processing unit 184 removes light data of a specific wavelength from the image displayed based on the data of the frame that is later allocated to the first frame group. More specifically, the image processing unit 184 removes the B signal from the data of the frame that is later distributed to the first frame group, including the R (red), G (green), and B (blue) signals. It has become.
- the video camera of the modification 17 can be said to be a combination of the video camera of the first embodiment and the video camera of the modification 26 of the fourth embodiment described later.
- the video camera of the modification 17 is not an endoscope but a hand-held type magnification observation apparatus, and its basic configuration is the same as that of the magnification observation apparatus of the modification 16.
- the first illumination light is ultraviolet light
- the second illumination light is white light.
- the video camera of Modification 17 differs from the magnification observation apparatus of Modification 16 in the position of the image processing unit 184 (FIG. 28).
- the image processing unit 184 includes the two data distributed by the output control unit 123, that is, the data of the frame distributed to the first frame group distributed to the signal line 123A and the second data distributed to the signal line 123B. Image processing is performed on one of the frame data allocated to the frame group.
- the image processing unit 184 in this modified example is on the signal line 123A and performs image processing on the data of the frames distributed to the first frame group.
- the contents of the image processing performed by the image processing unit 184 are the same as those described in the modification 16.
- the image processing unit 184 of the modification 17 performs image processing on the data of the frames that have been distributed to the first frame group that has already been distributed from the video signal.
- the timing control required by the unit 184 is unnecessary, and therefore it is not necessary to receive information on the timing at which the vertical synchronization signal is detected from the first vertical synchronization signal detection unit 122. Therefore, the first vertical synchronization signal detection unit 122 is not required. It is not connected to.
- the image processing unit 184 removes the B (blue) signal from the frame data allocated to the first frame group, the image processing unit 184 also uses the moving image based on the frame data allocated to the first frame group in Modification 17. , Blueness is removed.
- Other configurations and processes of the magnification observation apparatus are the same as those of Modification 16.
- the video camera of the modification 18 can be said to be a combination of the video camera of the first embodiment and the video camera of the second embodiment described later.
- the video camera of the modification 18 is not an endoscope but a hand-held type magnification observation apparatus, and its basic configuration is the same as that of the magnification observation apparatus of the modification 10.
- the first illumination light is ultraviolet light and the second illumination light is white light.
- the video camera of the modification 18 is different from the magnification observation apparatus of the modification 10 in that the video camera of the modification 18 includes a first image light transmitting member 185 (FIG. 29).
- the first image light transmitting member 185 can be changed between a first state and a second state in which the properties of the image light transmitted through the first image light transmitting member 185 are different from each other. It is for changing at the timing.
- the first image light transmitting member 185 is between the object and the image sensor 136.
- the first image light transmitting member 185 in the video camera of Modification 18 functions as a filter that blocks light in the blue wavelength region in the first state.
- the first image light transmitting member 185 is optically transparent to the image light in the second state.
- the first image light transmitting member 185 that can change the state at a high speed is preferably a member that changes the state by electrical control.
- the first image light transmitting member 185 is configured by a variable color filter using MEMS (Micro Electro Mechanical Systems). can do.
- the first image light transmitting member 185 is in the first state when the image pickup device 136 is picking up a frame to be assigned to the first frame group later, and the image pickup device 136 is later set in the second frame group.
- the second state is taken when a frame to be distributed is imaged.
- the first image light transmission member 185 is connected to the second vertical synchronization signal detection unit 137 by the signal line 185A, and the video signal is transmitted from the second vertical synchronization signal detection unit 137. Information about the timing at which the vertical synchronization signal is detected from the receiver.
- the first image light transmitting member 185 uses the information to synchronize the state of the first image light transmitting member 185 with the timing at which the image sensor 136 captures an image and generates frame data.
- the first image light transmitting member 185 may receive information on the timing at which the vertical synchronization signal is detected from other means for detecting the vertical synchronization signal from the video signal.
- the first image light transmitting member 185 functions as a filter that blocks light in the blue wavelength region when a frame that is to be allocated to the first frame group later is imaged.
- the blue wavelength is removed from the image light that is transmitted through the first image light transmitting member 185 and picked up by the image pickup device 136.
- the data of the frame allocated to the first frame group does not include blue (B) data in the first place even if the image processing by the image processing unit 184 in the modified examples 16 and 17 is not performed.
- the image sensor 136 transmits the first image light transmitting member 185 at that time.
- the blue wavelength is not removed from the image light picked up in (1).
- the two types of moving images obtained by the modified example 18 are equivalent to the two types of moving images obtained in the modified examples 16 and 17.
- the video camera of the modification 19 is an endoscope similarly to the video camera of the first embodiment.
- the configuration of the video camera of Modification 19 is almost the same as the configuration of the video camera of the first embodiment, as shown in FIGS.
- the video camera of the modification 19 is different from the video camera of the first embodiment in that the video camera of the modification 19 is connected to two displays D, a display D1 and a display D2, according to the first embodiment. Unlike the camera, it is connected to only one display, the display D1.
- the video camera of Modification 19 also includes a video processor box 120 and a scope unit 110 that includes an imaging unit 130 at the tip thereof.
- the configurations of the imaging unit 130 and the scope unit 110 in Modification 19 are not different from those in the first embodiment. Further, the configuration of the video processor box 120 in the modified example 19 is almost the same as that of the first embodiment, but the video processor box 120 has been changed in relation to only the display D1 and one display. .
- the change of the video processor box 120 of the modification 19 from the video processor box 120 of the first embodiment is simply that the video processor box 120 of the modification 19 includes an image composition unit 188.
- the image composition unit 188 is connected to the output control unit 123 similar to that in the first embodiment, and the signal lines 123A and 123B similar to those in the first embodiment.
- the output control unit 123 outputs frame data of the first frame group via the signal line 123A and data of the frame of the second frame group via the signal line 123B. Is done.
- the image composition unit 188 receives the frame data of the first frame group and the frame data of the second frame group, and synthesizes these two types of moving images into moving image data that can be displayed on one display.
- the frame data of the first frame group and the frame data of the second frame group are alternately sent to the image composition unit 188. Either the frame data of the first frame group or the frame data of the second frame group may be first, but the image composition unit 188 of this embodiment receives the data of the frame received first and the next.
- the frame data is written in a part of the memory 188A.
- the frame originally drawn by both data may be redrawn in a new frame for one screen by reducing the size to some extent or discarding a part thereof.
- the image composition unit 188 includes both the image originally displayed on the display by the frame of the first frame group and the image originally displayed on the display by the frame of the second frame group. , Create new video data.
- the moving image data is output from the memory 188A to the display D1 via the signal line 189, the first output terminal 121A, and the cable C1.
- the display D1 includes a first moving image M1 that is a continuation of images originally displayed on the display by frames of the first frame group and a second moving image that is a continuation of images originally displayed on the display by frames of the second frame group.
- a movie including M2 is displayed.
- An example of such a moving image is shown in FIG. Note that, in the video processor box 120 of Modification 19, the signal line 1891 branches from the signal line 189. The new moving image data is recorded in the recording unit 124 via the signal line 1891.
- the video camera according to the first embodiment is different in that a moving image reproduced based on frame data included in the first frame group and a moving image reproduced based on frame data included in the second frame group.
- the first illumination light is converted into the second frame group.
- the illumination light is switched at an appropriate timing so that the second illumination light different from the first illumination light is emitted when the frame to be included in the image sensor 136 is imaged. .
- the video camera according to the second embodiment includes a video that is reproduced based on the data of the frame included in the first frame group, and the frame included in the second frame group, including a video camera of a modified example described later.
- the image pickup device 136 captures the frames to be included in the first frame group in synchronization with the timing at which the frames in the video signal are switched so that the moving image reproduced based on the data of the video is different.
- the image light is converted into the first image light, and the image light is converted into the second image light that is different from the first image light when the image pickup device 136 images the frame to be included in the second frame group.
- the image light is switched at an appropriate timing.
- the video camera according to the second embodiment is a hand-held type magnification observation apparatus that is configured substantially the same as the video camera described in Modification 18.
- the video camera of the second embodiment is different from the video camera described in the modification 18 as shown in FIG. 33.
- the video camera of the modification 18 was provided in the video camera of the second embodiment.
- the second light source 133B, the illumination switching unit 134, and the signal lines 134A, 134B, and 134C connected thereto are not provided.
- the light source of the video camera of the second embodiment is only the first light source 133A that is always lit, and the first light source 133A is lit alternately with the second light source 133B at an appropriate timing as in the first embodiment. This is because there is no need to let them.
- the video camera of the second embodiment includes the first image light transmitting member 185 as in the video camera of the modified example 18.
- the first image light transmitting member 185 transmits image light.
- the first image light transmitting member 185 is provided between the lens 135 and the imaging element 136.
- the first image light transmitting member 185 is configured to capture the object and the image as long as the image light can be transmitted. It may be provided anywhere between the elements 136.
- the first image light transmitting member 185 is a filter that can select a state in which light having a wavelength in a specific wavelength region is transmitted and a state in which light is not transmitted.
- the former state is referred to as a first state
- the latter state is referred to as a second state.
- the specific wavelength region may be any wavelength region such as a visible region, an infrared region, and an ultraviolet region.
- the specific wavelength region is a blue wavelength region.
- the first image light transmitting member 185 in the video camera of the second embodiment functions as a filter that blocks light in the blue wavelength region in the first state, and in the second state, the image light. In contrast, it is optically transparent.
- the first image light transmitting member 185 is, for example, a MEMS.
- the first image light transmitting member 185 is configured to display the first state when the image pickup device 136 is picking up a frame that will be assigned to the first frame group later, as in the modification 18.
- the second state is set.
- the first image light transmission member 185 is connected to the second vertical synchronization signal detection unit 137 by the signal line 185A, and the video signal is transmitted from the second vertical synchronization signal detection unit 137. Information about the timing at which the vertical synchronization signal is detected from the receiver.
- the first image light transmitting member 185 uses the information to synchronize the state of the first image light transmitting member 185 with the timing at which the image sensor 136 captures an image and generates frame data.
- the first image light transmitting member 185 blocks the light in the blue wavelength region when imaging a frame that will be assigned to the first frame group later. Since it is in the 1st state which functions as a filter, the blue wavelength is removed from the image light which permeate
- the first image light transmitting member 185 is in the second state which is optically transparent when a frame to be allocated to the second frame group is captured later, the first image light transmitting member 185 is moved at that time.
- the blue wavelength is not removed from the image light that is transmitted and imaged by the image sensor 136. In this way, two types of video signals for different types of moving images are created.
- the video camera of Modification 20 is a hand-held magnification observation apparatus that is configured substantially the same as the video camera described in the second embodiment.
- the video camera of the modification 20 is different from the video camera described in the second embodiment.
- the video camera of the modification 20 includes a first image light transmitting member included in the video camera of the second embodiment. There is no 185.
- the video camera of Modification 20 includes a variable power lens 301 whose power is variable that the video camera of the second embodiment did not have (FIG. 34).
- the power variable lens 301 is, for example, a liquid crystal lens. In general, the liquid crystal lens is not shown in the figure, but is provided in pairs with two transparent plates arranged at a predetermined interval and two plates along the two plates.
- the liquid crystal layer disposed between the two transparent electrodes, and a power source for applying a desired voltage between the two transparent electrodes.
- the liquid crystal lens controls the magnitude and direction of the voltage applied between the transparent electrodes, and varies the strength of the electric field across the liquid crystal layer for each portion of the liquid crystal layer, thereby changing the refractive index distribution of the liquid crystal layer depending on the portion. By making them different, they function as a lens as a whole, and the power plus and minus and the magnitude of the power can be changed.
- the power variable lens 301 can be in a first state that is a certain power and a second state that is a different power. This can be realized by controlling the voltage described above.
- the combination of the power in the first state and the power in the second state can be freely selected for both plus, minus, zero, and their absolute values, but in this embodiment all are positive. That is, the power variable lens 301 functions as a convex lens in both the first state and the second state, but its power is different.
- the power variable lens 301 is in the first state when the image sensor 136 is imaging a frame that will be allocated to the first frame group later.
- the second state is assumed when a frame to be allocated to the second frame group is imaged later.
- the power variable lens 301 is connected to the second vertical synchronization signal detector 137 by a signal line 301A instead of the signal line 185A in the second embodiment, and the second vertical synchronization signal Information about the timing at which the vertical synchronization signal is detected from the video signal is received from the detection unit 137.
- the power variable lens 301 uses the information to synchronize the state of the power variable lens 301 with the timing at which the image sensor 136 captures an image and generates frame data.
- the first state is taken when a frame that will be allocated to the first frame group is captured later, and the second state is captured when the frame that is allocated to the second frame group is captured later.
- the power variable lens 301 in both states functions as a positive power lens having different powers. This means that the images in both states are magnified at different magnifications. Since the image light magnified at such different magnifications is picked up by the image pickup device 136, the moving image reproduced based on the data of the frame distributed to the first frame group and the frame allocated to the second frame group The moving image reproduced based on the data is an enlarged image having a different magnification and is different in quality.
- the video camera of Modification 21 is a hand-held magnification observation apparatus that is configured substantially the same as the video camera described in the second embodiment.
- the video camera of the modification 21 is different from the video camera described in the second embodiment.
- the video camera of the modification 21 has a first image light transmitting member included in the video camera of the second embodiment. There is no 185.
- the video camera of the modified example 21 stops the image light not provided in the video camera of the second embodiment, and includes a stop 302 whose diameter is variable (FIG. 35).
- the diaphragm 302 can have a certain diameter and a different diameter.
- the former is referred to as a first state and the latter is referred to as a second state.
- the diameter of the diaphragm 302 is variable as described above, but the diameter may be variable by any mechanism.
- a known mechanism that can mechanically change the diameter may be adopted for the diaphragm 302, or a mechanism that can electrically change the diameter using a transmissive liquid crystal plate may be adopted for the diaphragm 302. .
- the image picked up by the image pickup device 136 has different depth of focus or brightness. Whether the function of changing the depth of focus or the function of changing the brightness is given to the diaphragm 302 is changed depending on the position where the diaphragm 302 is disposed. When the depth of focus is changed, the depth of focus and the resolution of the obtained image have a barter relationship.
- the diaphragm 302 is in the first state when the image pickup device 136 is picking up a frame that will be assigned to the first frame group later, and the image pickup device 136 later in the first state.
- the second state is taken when a frame that is divided into two frame groups is imaged.
- the diaphragm 302 is connected to the second vertical synchronization signal detection unit 137 by a signal line 302A instead of the signal line 185A in the second embodiment, and the second vertical synchronization signal detection unit. From 137, information about the timing at which the vertical synchronization signal is detected from the video signal is received.
- the diaphragm 302 uses the information to synchronize the state of the diaphragm 302 with the timing at which the image sensor 136 images and generates frame data.
- the diaphragm 302 is in the first state when capturing a frame that will be allocated to the first frame group later, and is in the second state when capturing the frame that is allocated to the second frame group later. Take state. Since the diameters of the diaphragm 302 in both states are different, images captured in both states are different in terms of depth of focus or brightness.
- the image light that has been focused through the diaphragm 302 in either the first state or the second state is picked up by the image sensor 136, it is reproduced based on the data of the frames allocated to the first frame group.
- the moving image and the moving image reproduced based on the data of the frame allocated to the second frame group are different in depth of focus or brightness.
- the video camera of Modification 22 is a hand-held magnification observation apparatus that is configured substantially the same as the video camera described in the second embodiment.
- the video camera of the modification 22 is different from the video camera described in the second embodiment.
- the video camera of the modification 22 includes a first image light transmitting member included in the video camera of the second embodiment. There is no 185.
- the video camera of the modification 22 includes the second image light transmitting member 303 and the driving unit 304 that drives the second image light transmitting member 303 that are not included in the video camera of the second embodiment (FIG. 36).
- the drive unit 304 is capable of moving the second image light transmitting member 303 in parallel, so that the second image light transmitting member 303 is on the optical path of the image light indicated by the broken line.
- the second image light transmission member 303 of Modification 22 is a filter and does not transmit light in a certain wavelength region.
- the second image light transmitting member 303 is a filter that does not transmit light in the blue wavelength region.
- the second image light transmitting member 303 is positioned at the first position when the image sensor 136 captures a frame that is later allocated to the first frame group, and the image sensor 136 is later set at the second frame group. When the frame to be distributed is imaged, it is in the second position.
- the drive unit 304 that moves the second image light transmission member 303 is connected to the second vertical synchronization signal detection unit 137 by a signal line 303A instead of the signal line 185A in the second embodiment.
- the second vertical synchronization signal detector 137 receives information about the timing at which the vertical synchronization signal is detected from the video signal.
- the drive unit 304 uses the information to move the second image light transmitting member 303 between the first position and the second position, and the image sensor 136 images the change in the position of the second image light transmitting member 303. Synchronize with the timing to generate frame data.
- the second image light transmitting member 303 captures a frame that is later allocated to the first frame group at the first position while capturing a frame that is later allocated to the first frame group.
- the image light picked up by the image pickup device 136 in the former case does not include light in the blue wavelength region, but the image picked up by the image pickup device 136 in the latter case.
- the light includes light of all wavelengths.
- the video camera of the modified example 23 is a hand-held magnification observation apparatus that is configured substantially the same as the video camera described in the second embodiment. Furthermore, the video camera of the modified example 23 is almost the same as the video camera of the modified example 22.
- the video camera of the modification 22 selects whether to transmit the image light to the second image light transmission member 303 that is a filter by the movement of the second image light transmission member 303. In the camera, it is selected whether or not the image light is transmitted through a later-described filter unit corresponding to the second image light transmitting member 303 of the modification 22 by the rotation of the composite filter 305 shown in FIG.
- the composite filter 305 includes a filter unit 305A having a function equivalent to that of the second image light transmitting member 303 of the modification 22 having a sector shape with a central angle of 90 degrees, and an optically transparent plate having a central angle of 90 degrees.
- Two fan-shaped transmission plates 305B are alternately combined to form a circular shape.
- the composite filter 305 is fixed to a shaft 306 passing through the center thereof.
- the shaft 306 is connected to an actuator 307 that rotates the shaft 306, and is rotated by the actuator 307. Thereby, the composite filter 305 rotates around the shaft 306 in one direction, for example.
- the composite filter 305 is disposed in the case of the video camera.
- the image light passes through a range indicated by L in FIG.
- the image light passes through either the filter unit 305A or the transmission plate 305B.
- the image light is transmitted through the filter unit 305A when the image pickup device 136 is picking up a frame that is later assigned to the first frame group, and the image pickup device 136 is later assigned to the second frame group. Is transmitted through the transmission plate 305B.
- the actuator 307 that rotates the composite filter 305 is connected to the second vertical synchronization signal detector 137 by a signal line (not shown), and the second vertical synchronization signal detector 137.
- the image light picked up by the image pickup device 136 when transmitted through the filter unit 305A is the same as the image light picked up by the image pickup device 136 when the second image light transmitting member 303 is in the first position in the modified example 22.
- the image light picked up by the image pickup device 136 when transmitted through the transmission plate 305B is the same as the image light picked up by the image pickup device 136 when the second image light transmitting member 303 is in the second position in the modified example 22.
- the video camera of the modified example 24 is a hand-held magnification observation apparatus that is configured substantially the same as the video camera described in the second embodiment. Furthermore, the video camera of the modified example 24 is almost the same as the video camera of the modified example 22. In short, the video camera of the modified example 24 is obtained by replacing the second image light transmitting member 303 in the modified example 22 with a frame 308 fitted with a lens (FIG. 38). The frame 308 is configured to reciprocate similarly to the second image light transmitting member 303 in the modified example 22. The mechanism and timing for realizing the reciprocating motion can all be the same as those shown in the modified example 22.
- the image light is transmitted through the lens when the frame 308 is in the first position, and the image light is not transmitted through the lens when the frame 308 is in the second position.
- the lens is a magnifying lens.
- the image sensor 136 when it is capturing an image of a frame that is later allocated to the first frame group, the image sensor 136 transmits the image light transmitted through the lenses included in the lens 135 and the frame 308, and the second frame. When imaging a frame that is distributed to a group, the image sensor 136 captures image light that has passed through only the lens 135.
- a moving image reproduced based on the data of the frame allocated to the first frame group and a moving image reproduced based on the data of the frame allocated to the second frame group, which are obtained by the video camera according to the modified example 24 Is different in magnification.
- the imaging element 136 that captures a frame that is later allocated to the first frame group captures the image light that has been passed through the aperture and the frame that is later allocated to the second frame group.
- the image pickup device 136 can pick up image light that does not pass through the stop.
- the lens or the diaphragm fixed to the frame 308 of the modified example 24 is replaced with the filter unit 305A of the composite filter 305 of the modified example 23.
- a portion corresponding to a range of L through which image light passes can be fixed.
- the two moving images obtained in these cases are different in different magnifications or different in depth of focus or brightness.
- the video camera according to the first embodiment is different in that a moving image reproduced based on frame data included in the first frame group and a moving image reproduced based on frame data included in the second frame group.
- the first illumination light is converted into the second frame group.
- the illumination light is switched at an appropriate timing so that the second illumination light different from the first illumination light is emitted when the frame to be included in the image sensor 136 is imaged. .
- the video camera according to the third embodiment includes a moving image that is played back based on frame data included in the first frame group, and a frame included in the second frame group, including a video camera according to a modified example described later.
- the image pickup device 136 captures a frame to be included in the first frame group in synchronization with the timing at which the frame in the video signal is switched so that the moving image reproduced based on the data of the video is different.
- the first condition which is a condition under which the image sensor 136 captures image light, and when the frame to be included in the second frame group is imaged by the image sensor 136. Is changed between a second condition and a different condition.
- the video camera according to the third embodiment is a hand-held magnification observation apparatus that is configured substantially the same as the video camera described in the second embodiment.
- the video camera of the third embodiment is different from the video camera described in the second embodiment as shown in FIG. 39.
- the video camera of the third embodiment includes a first image light transmitting member 185 and a signal. That is, there is no line 185A.
- the image sensor 136 is configured to change the condition under which the image sensor 136 captures image light between a first condition that is a certain condition and a second condition that is a different condition.
- An image sensor control unit 311 is provided for controlling the above.
- the image sensor control unit 311 is connected to the image sensor 136 via the signal line 311B, and controls the image sensor 136 based on information to be described later sent via the signal line 311B.
- the image sensor control unit 311 of the video camera according to this embodiment is configured so that the image sensor 136 captures a frame that will be included in the first frame group later and the second frame group later.
- the imaging device 136 is controlled so that the range of imaging within the imaging device 136 (more specifically, the light receiving surface thereof) changes when the imaging device 136 is imaging a frame to be included in It is like that. That is, the first condition and the second condition in this embodiment are the imaging range in the image sensor 136.
- the imaging range when the imaging device 136 is imaging a frame that will be included in the first frame group later is the first condition, and the imaging device 136 captures a frame that will be included in the second frame group later. It is assumed that the imaging range at the time of the second condition is the second condition.
- the image sensor 136 has a first condition when the image sensor 136 captures a frame that is later allocated to the first frame group, and a frame that the image sensor 136 is later allocated to the second frame group. The second condition is taken when the image is captured.
- the image sensor control unit 311 is connected to the second vertical synchronization signal detection unit 137 through the signal line 311A, and the second vertical synchronization signal detection unit 137 receives a vertical signal from the video signal. Information about the timing at which the synchronization signal is detected is received. Using the information, the image sensor control unit 311 sends information about a range to be imaged at the current timing to the image sensor 136.
- the information is, for example, information on coordinates that specify the imaging surface of the imaging element 136.
- This coordinate information may specify all the light receiving elements existing in the range in which the image sensor 136 should perform imaging. If the range in which the image sensor 136 should perform imaging is rectangular, The four vertices or two diagonal vertices may be designated.
- the image sensor 136 Based on the information, the image sensor 136 performs imaging alternately according to the first condition and the second condition.
- the range imaged at that time is, for example, as shown in FIG.
- the image sensor 136 under the first condition, captures an image on the entire image plane of the image sensor 136, and under the second condition, the image sensor 136 has a shape similar to the image plane at the center of the image sensor 136.
- the imaging is performed within a predetermined range.
- the imaging range to be imaged under the first condition can be specified by specifying coordinates with two black circles (X A1 , Y A1 ) and (X B1 , Y B1 ).
- the imaging range to be imaged under the second condition can be specified by designating coordinates with two black circles (X A2 , Y A2 ) and (X B2 , Y B2 ).
- the image sensor control unit 311 sends this information to the image sensor 136.
- the coordinate information may be sent each time the imaging device 136 captures a frame that is later allocated to the first frame group or the imaging device 136 captures a frame that is later allocated to the second frame group. If 136 can record or hold coordinate information, it may be sent only once. However, regardless of whether the information is sent every time or only once, the image sensor control unit 311 captures a frame at which the image sensor 136 will later be assigned to the first frame group, and at which timing. Thus, information about the timing of whether the image pickup device 136 will pick up an image of a frame that will be assigned to the second frame group later is sent to the image pickup device 136.
- the imaging range is different when imaging a frame that is later allocated to the first frame group and when imaging a frame that is allocated to the second frame group later. It will be different.
- the moving image captured by the image sensor 136 under the second condition is the moving image captured as if the electronic zoom was performed with respect to the moving image captured by the image sensor 136 under the first condition.
- the moving image imaged by the image sensor 136 under the first condition and the moving image imaged by the image sensor 136 under the second condition are moving images in which slightly different places of the object are imaged. In this way, two types of video signals for different types of moving images are created.
- the first condition and the second condition for the imaging range may be specified by the user.
- the second vertical synchronization signal detector 137 is not necessary in this embodiment, and the image sensor controller 311 A vertical synchronization signal may be received from a circuit having a function. In that case, it may be reasonable to integrate the image sensor control unit 311 with the image sensor 136 or a control circuit of the image sensor 136.
- the video camera of the modification 25 is almost the same as the video camera described in the third embodiment. In particular, there is no change in the hardware configuration at the level shown in FIG. What is different is the first condition and the second condition, which is information sent from the image sensor control unit 311 to the image sensor 136.
- the image sensor control unit 311 captures a frame that will be included in the first frame group when the image sensor 136 is capturing a frame that will be included in the first frame group later, and a frame that will be included in the second frame group later.
- the image pickup element 136 is controlled so that the image pickup range in the image pickup element 136 (more specifically, its light receiving surface) changes depending on when the element 136 is picking up an image.
- the image sensor control unit 311 of the modified example 25 is included in the second frame group when the image sensor 136 is imaging a frame that will be included in the first frame group later.
- the image sensor 136 is controlled so that the time (exposure time) during which the image sensor 136 performs image capturing for generating data of each frame changes depending on when the image sensor 136 captures a frame. It has become. That is, the first condition and the second condition in this embodiment are exposure times when the image sensor 136 performs image capturing.
- the exposure time is the first condition when the image sensor 136 captures a frame that will be included in the first frame group later, and the image sensor 136 captures a frame that will be included in the second frame group later.
- the discussion proceeds with the assumption that the exposure time is the second condition.
- the image pickup device 136 sets the first condition when the image pickup device 136 is picking up a frame that is later assigned to the first frame group, and the image pickup device 136 sets the frame that is later assigned to the second frame group.
- the second condition is taken when taking an image.
- the image sensor 136 Based on the information, the image sensor 136 performs imaging alternately according to the first condition and the second condition. Images captured at that time have different brightness. In this way, two types of video signals for different types of moving images are created.
- the first condition and the second condition for the exposure time may be specified by the user.
- the video camera according to the first embodiment is different in that a moving image reproduced based on frame data included in the first frame group and a moving image reproduced based on frame data included in the second frame group.
- the first illumination light is converted into the second frame group.
- the illumination light is switched at an appropriate timing so that the second illumination light different from the first illumination light is emitted when the frame to be included in the image sensor 136 is imaged. .
- the video camera according to the fourth embodiment including a video camera according to a modified example to be described later, is a movie that is played back based on frame data included in the first frame group and a frame included in the second frame group.
- the data of the frame that will be included in the first frame group after the video signal and the second frame group will be included later.
- Image processing is performed only on at least one of the frame data.
- the video camera of the fourth embodiment is a hand-held type magnification observation apparatus, and most of the configuration is the same as that of the magnification observation apparatus of the modification 16.
- the configuration of the video processor box 120 is not different between the video camera of the fourth embodiment and the video camera of the modification 16 and is as shown in FIG.
- the difference between the video camera of the fourth embodiment and the video camera of Modification 16 is the configuration of the magnification observation device 160 that constitutes the magnification observation device together with the video processor box 120 (FIG. 41).
- the video camera magnification observation apparatus 160 of the fourth embodiment does not have the second light source 133B.
- the first light source 133A does not have the filter 165 and is always lit.
- the video camera of the fourth embodiment changes the image light like the video camera of the second embodiment, or changes the imaging conditions of the image sensor 136 like the video camera of the third embodiment. There is no need to do. Therefore, there is no need to synchronize the timing of the frame data in the video signal with any timing on the magnification observation device 160 side, so there is no second vertical synchronization signal detector 137. Also, there is no signal line 134A or the like that connects them together.
- the video camera magnification observation apparatus 160 of the fourth embodiment has a very simple structure.
- the video processor box 120 of the video camera includes an image processing unit 184 as in the case of the sixteenth modification.
- the function of the image processing unit 184, the point of performing predetermined image processing on a part of the video signal, and the synchronization with the video signal when performing predetermined image processing on a part of the video signal are all This is the same as in the case of Modification 16.
- the image processing performed by the image processing unit 184 can be selected according to a desired purpose such as making a moving image based on frame data included in the first frame group easy to view, and may be a known one.
- the image processing performed by the image processing unit 184 may exclude data of light of a specific wavelength from frame data.
- the image processing unit 184 may perform any one of edge enhancement, brightness reversal, white balance adjustment, whiteout correction, blackout correction, calibration, and electronic zoom. Note that these examples can also be applied to the image processing unit 184 of Modification 16.
- the image processing performed in the fourth embodiment is not limited to this, but is the same as in the case of the sixteenth modification. Then, image processing is performed on one of the data of the frame that will be included in the first frame group later in the video signal and the data of the frame that will be included in the second frame group later.
- image processing is performed on one of data of a frame that will be included in the first frame group in the video signal later and data of a frame that will be included in the second frame group later.
- image processing is performed on both of them, or to perform image processing of the same type but at different levels, and by doing so, two types of videos that can reproduce different types of video A signal can be obtained.
- the magnification observation device 160 in the video camera according to the modification 16 is simplified, but the video camera according to the modification 26 is enlarged as compared with the video camera according to the modification 17.
- the observation device 160 is a simple one.
- the video camera enlargement observation device 160 of the modification 26 is the same as the magnification observation device 160 of the fourth embodiment, and the video processor box 120 of the video camera of the modification 26 is the video processor box in the video camera of the modification 17. The same as 120.
- the two data distributed by the output control unit 123 that is, the data of the frame allocated to the first frame group allocated to the signal line 123A and the second frame group allocated to the signal line 123B.
- the video that is played back based on the frame data included in the first frame group and the second frame group are included.
- the moving image reproduced based on the frame data can be made different.
- image processing is performed on one of the data of the frame allocated to the first frame group and the data of the frame allocated to the second frame group in the video signal. It is also possible to perform different types of image processing, or to perform image processing of the same type but with varying degrees.
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Radiology & Medical Imaging (AREA)
- Heart & Thoracic Surgery (AREA)
- Optics & Photonics (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Studio Devices (AREA)
Abstract
同時に同位置の複数種類の画像を得られるビデオカメラを提供する。 ビデオカメラは、交互に点灯する第1光源133Aと、第2光源133Bを備える。第1光源133Aからの照明光である第1照明光は第1偏光板132Aで偏光化される。対象物からの像光は、撮像素子136で撮像され、撮像素子136はビデオ信号を生成する。ビデオ信号の中の多数のフレームのデータは、一枚置きに出力制御部123で、信号線123Aと信号線123Bに振分けられる。信号線123Aに振分けられた画像が撮像されるときは第1光源133Aが、信号線123Bに振分けられる画像が撮像されるときは、第2光源133Bが点灯する。2つのディスプレイには異なる動画が表示される。
Description
本発明は、動画の撮像を行うビデオカメラに関する。
動画を撮像しビデオ信号を出力するビデオカメラが古くから知られている。そして、ビデオカメラで撮像される画像の種類は多岐にわたる。
特にビデオカメラが撮像の対象となる対象物を観察するのに用いられる場合においては、様々な種類の動画を撮像できるビデオカメラは有用である。例えば紫外線領域や赤外線領域の波長の光を照明光として撮像を行う場合、撮像した画像に何らかの画像処理を行った場合などにおいては、観察によって得られる情報量が増す場合があり、ユーザが肉眼で観察するのとは異なる観察を実現できることがあるからである。
特にビデオカメラが撮像の対象となる対象物を観察するのに用いられる場合においては、様々な種類の動画を撮像できるビデオカメラは有用である。例えば紫外線領域や赤外線領域の波長の光を照明光として撮像を行う場合、撮像した画像に何らかの画像処理を行った場合などにおいては、観察によって得られる情報量が増す場合があり、ユーザが肉眼で観察するのとは異なる観察を実現できることがあるからである。
そのような観点から、様々な種類の動画の撮像を行えるビデオカメラが提案され、実用化されており、もちろん本願出願人もそのような提案を過去に行なっている。
しかしながら従来の複数種類の動画の撮像を行えるビデオカメラは、複数の種類の動画から選択された一の動画を撮像し、その後の選択によって他の動画の撮像を行うというものである。つまり、従来のビデオカメラで撮像できる複数種類の動画は択一的なものであり、同時に複数種類の画像が撮像されるということはない。
他方、同時に複数種類の画像が撮像できるのであれば、特にユーザの目で見た場合に同時と認識できる程度に同時で、ユーザの目で見た場合に同位置と認識できる程度に対象物における同じ位置の動画を撮像することのできる、つまり、2種類(或いはそれ以上の種類)の動画を一度に撮像することのできるビデオカメラがあれば、観察によって得られる情報量が増すことと相俟って、ビデオカメラで撮像された動画を用いての観察が、更に効果的なものとなると思われる。また、観察を目的とせずとも、美しさ、面白さ等の他の効果を得られる可能性もある。
他方、同時に複数種類の画像が撮像できるのであれば、特にユーザの目で見た場合に同時と認識できる程度に同時で、ユーザの目で見た場合に同位置と認識できる程度に対象物における同じ位置の動画を撮像することのできる、つまり、2種類(或いはそれ以上の種類)の動画を一度に撮像することのできるビデオカメラがあれば、観察によって得られる情報量が増すことと相俟って、ビデオカメラで撮像された動画を用いての観察が、更に効果的なものとなると思われる。また、観察を目的とせずとも、美しさ、面白さ等の他の効果を得られる可能性もある。
本発明は、以上の点に鑑みてなされたものであり、略同時に略同位置の複数種類の画像を得られるビデオカメラを提供することをその課題とする。
本願発明者は、上述の課題を解決するために、以下のようなビデオカメラを提案する。本願のビデオカメラは大きく2種類に大別される。本願では便宜上、前者を第1発明、後者を第2発明と呼ぶこととする。
第1発明は、撮像の対象となる対象物からの像光を捉えて撮像し、連続した多数のフレームのデータを有するビデオ信号を出力する撮像手段と、前記撮像手段が出力した前記ビデオ信号に含まれる多数の前記フレームについてのデータから、それに含まれるフレームを連続して見たユーザがそれを動画として認識できるようになっている、フレームの集合である第1フレーム群についてのデータと、それに含まれるフレームを連続して見たユーザがそれを動画として認識できるようになっている、前記第1フレーム群に含まれるフレームと重複しないフレームの集合である第2フレーム群についてのデータとを生成する、フレームデータ振分手段と、前記第1フレーム群に含まれるフレームのデータを出力する第1出力手段と、前記第2フレーム群に含まれるフレームのデータを出力する第2出力手段と、を備えているとともに、前記第1フレーム群に含まれるフレームのデータに基いて再生される動画と、前記第2フレーム群に含まれるフレームのデータに基いて再生される動画とは、異質なものとなるようにされてなる、ビデオカメラである。
このビデオカメラは、フレームデータ振分手段を備えている。フレームデータ振分手段は、撮像手段が出力したビデオ信号に含まれる多数の前記フレームについてのデータから、それに含まれるフレームを連続して見たユーザがそれを動画として認識できるようになっている、フレームの集合である第1フレーム群についてのデータと、それに含まれるフレームを連続して見たユーザがそれを動画として認識できるようになっている、第1フレーム群に含まれるフレームと重複しないフレームの集合である第2フレーム群についてのデータとを生成する。第1フレーム群のデータと、第2フレーム群のデータが作られるというのは、要するに、撮像手段が撮像したフレームを、第1フレーム群と第2フレーム群とに振り分ける、ということである。そして、以下の照明切換手段の存在により、第1フレーム群に含まれるフレームにより再生される動画と、第2フレーム群に含まれるフレームにより再生される動画は異質な動画となる。
第1発明におけるビデオカメラは、一つの撮像手段が作った、連続する多数のフレームのデータからなるビデオ信号から、2つ(或いはそれ以上。以下も同様であるが、同様の記載は省略する。)のビデオ信号を作るようになっている。そして各ビデオ信号に相当する第1フレーム群に含まれるフレームのデータと、第2フレーム群に含まれるフレームのデータとは、それらによって再生される動画が互いに異質なものとなるようになっている。それにより、第1発明におけるビデオカメラは、略同時に同位置の複数種類の画像を得られるものとなる。
第1発明は、撮像手段に用いられる撮像素子が1秒あたりに撮像できるフレームの数(フレームレート)が、人間が動画を滑らかなものと認識するために必要なフレームレート(一般には24と言われることが多く、フレームレートが120を超えると人間にはフレームレートの差を認識できなくなると言われている。)を遥かに超えているということを利用している。例えば、撮像手段に用いられる撮像素子が動画の撮像を行う場合のフレームレートが48である場合には、その撮像素子が作ったビデオ信号から、フレームを落とすことなく2つのビデオ信号を生成し双方のフレームレートを24とすることにより、元のビデオ信号から生成された2つのビデオ信号に基づいて再生される動画は、それを見るものに違和感を与えない程度に滑らかなものとなる。実際に現時点で存在する撮像素子が動画を撮像する場合のフレームレートは、48どころではないので、元の1つのビデオ信号から複数のビデオ信号を生成することも、また、フレームを落とすことも実際上可能である。
要するに、第1発明のビデオカメラは、撮像手段が生成したビデオ信号を、ビデオ信号に含まれるフレームのフレームレートが落ちることを許容しつつ(ただし、画質、画素数は必要に応じて落とすことも可能であるが、落とさないことも可能である。)、第1フレーム群に含まれるフレームと第2フレーム群に含まれるフレームに振り分けることにより、同じ対象物を略同時に撮像した2種類の動画像を得るものである。この理屈は、第2発明でも踏襲される。
なお、第1発明における第1出力手段と第2出力手段は、必ずしもビデオカメラの外のディスプレイにデータを出力するとは限らず、ビデオカメラが備えるディスプレイにデータを出力するようになっていてもよいし、ビデオカメラの外にある或いはビデオカメラが備える記録媒体にデータを出力するようになっていてもよい。記録媒体にデータを出力した場合、ユーザは後からでもそのデータに基づく2種類の画像を見ることができるようになる。これは、第2発明の出力手段でも同一である。つまり、第2発明の出力手段は、必ずしもビデオカメラの外のディスプレイにデータを出力するとは限らない。
第1発明におけるビデオカメラは、一つの撮像手段が作った、連続する多数のフレームのデータからなるビデオ信号から、2つ(或いはそれ以上。以下も同様であるが、同様の記載は省略する。)のビデオ信号を作るようになっている。そして各ビデオ信号に相当する第1フレーム群に含まれるフレームのデータと、第2フレーム群に含まれるフレームのデータとは、それらによって再生される動画が互いに異質なものとなるようになっている。それにより、第1発明におけるビデオカメラは、略同時に同位置の複数種類の画像を得られるものとなる。
第1発明は、撮像手段に用いられる撮像素子が1秒あたりに撮像できるフレームの数(フレームレート)が、人間が動画を滑らかなものと認識するために必要なフレームレート(一般には24と言われることが多く、フレームレートが120を超えると人間にはフレームレートの差を認識できなくなると言われている。)を遥かに超えているということを利用している。例えば、撮像手段に用いられる撮像素子が動画の撮像を行う場合のフレームレートが48である場合には、その撮像素子が作ったビデオ信号から、フレームを落とすことなく2つのビデオ信号を生成し双方のフレームレートを24とすることにより、元のビデオ信号から生成された2つのビデオ信号に基づいて再生される動画は、それを見るものに違和感を与えない程度に滑らかなものとなる。実際に現時点で存在する撮像素子が動画を撮像する場合のフレームレートは、48どころではないので、元の1つのビデオ信号から複数のビデオ信号を生成することも、また、フレームを落とすことも実際上可能である。
要するに、第1発明のビデオカメラは、撮像手段が生成したビデオ信号を、ビデオ信号に含まれるフレームのフレームレートが落ちることを許容しつつ(ただし、画質、画素数は必要に応じて落とすことも可能であるが、落とさないことも可能である。)、第1フレーム群に含まれるフレームと第2フレーム群に含まれるフレームに振り分けることにより、同じ対象物を略同時に撮像した2種類の動画像を得るものである。この理屈は、第2発明でも踏襲される。
なお、第1発明における第1出力手段と第2出力手段は、必ずしもビデオカメラの外のディスプレイにデータを出力するとは限らず、ビデオカメラが備えるディスプレイにデータを出力するようになっていてもよいし、ビデオカメラの外にある或いはビデオカメラが備える記録媒体にデータを出力するようになっていてもよい。記録媒体にデータを出力した場合、ユーザは後からでもそのデータに基づく2種類の画像を見ることができるようになる。これは、第2発明の出力手段でも同一である。つまり、第2発明の出力手段は、必ずしもビデオカメラの外のディスプレイにデータを出力するとは限らない。
本願の第2発明は、撮像の対象となる対象物からの像光を捉えて撮像し、連続した多数のフレームのデータを有するビデオ信号を出力する撮像手段と、前記撮像手段が出力した前記ビデオ信号に含まれる多数の前記フレームについてのデータから、それに含まれるフレームを連続して見たユーザがそれを動画として認識できるようになっている、フレームの集合である第1フレーム群についてのデータと、それに含まれるフレームを連続して見たユーザがそれを動画として認識できるようになっている、前記第1フレーム群に含まれるフレームと重複しないフレームの集合である第2フレーム群についてのデータとを生成する、フレームデータ振分手段と、前記第1フレーム群に含まれるフレームのデータによる第1動画と、前記第2フレーム群に含まれるフレームのデータによる第2動画とを、所定のディスプレイが一画面に表示できるような動画についての動画データを生成する合成手段と、前記合成手段が生成した動画データを出力する出力手段と、を備えているとともに、前記第1フレーム群に含まれるフレームのデータに基いて再生される動画と、前記第2フレーム群に含まれるフレームのデータに基いて再生される動画とは、異質なものとなるようにされてなる、ビデオカメラである。
第2発明のビデオカメラは、第1発明のビデオカメラと主要な部分で同じ構成を採用している。
撮像手段、フレームデータ振分手段については第1発明と第2発明のビデオカメラに変わりはない。また、前記第1フレーム群に含まれるフレームのデータに基いて再生される動画と、前記第2フレーム群に含まれるフレームのデータに基いて再生される動画とは、異質なものとなるようにされている点も第1発明と同様である。
他方、第2発明のビデオカメラは、第1フレーム群に含まれるフレームのデータによる第1動画と、第2フレーム群に含まれるフレームのデータによる第2動画とを、所定のディスプレイが一画面に表示できるような動画についての動画データを生成する合成手段と、合成手段が生成した動画データを出力する出力手段を備えている。
例えば、出力手段を適当なディスプレイに接続すると、ディスプレイには合成手段で合成された動画データにより、第1フレーム群に含まれるフレームのデータによる第1動画と、第2フレーム群に含まれるフレームのデータによる第2動画との双方を含んだ動画が表示される。これにより、ディスプレイは一つで済む。
撮像手段、フレームデータ振分手段については第1発明と第2発明のビデオカメラに変わりはない。また、前記第1フレーム群に含まれるフレームのデータに基いて再生される動画と、前記第2フレーム群に含まれるフレームのデータに基いて再生される動画とは、異質なものとなるようにされている点も第1発明と同様である。
他方、第2発明のビデオカメラは、第1フレーム群に含まれるフレームのデータによる第1動画と、第2フレーム群に含まれるフレームのデータによる第2動画とを、所定のディスプレイが一画面に表示できるような動画についての動画データを生成する合成手段と、合成手段が生成した動画データを出力する出力手段を備えている。
例えば、出力手段を適当なディスプレイに接続すると、ディスプレイには合成手段で合成された動画データにより、第1フレーム群に含まれるフレームのデータによる第1動画と、第2フレーム群に含まれるフレームのデータによる第2動画との双方を含んだ動画が表示される。これにより、ディスプレイは一つで済む。
本願発明におけるフレームデータ振分手段は、ビデオ信号に含まれるフレームのデータを振り分け、上述のような第1フレーム群のフレームのデータと、第2フレーム群のフレームのデータとを生成する。なお、本願発明について用いる「フレーム」という語の意義には、動画、ビデオ信号の技術分野における技術用語である「フレーム」の語が一般的に持つ以外の意義が含まれる場合があるが、そのことも含めて、フレームデータ振分手段について更に説明する。
まず、既に述べた通り、撮像手段が撮像して作ったビデオ信号に含まれるすべてのフレームについてのデータが、第1フレーム群のフレームのデータと第2フレーム群のフレームのデータのいずれかに振り分けられる必要はない。
例えば、前記フレームデータ振分手段は、前記撮像手段が出力した前記ビデオ信号に含まれる多数の前記フレームから、一定の数置きのフレームのデータを抜き出して前記第1フレーム群のフレームのデータに振分けるとともに、前記第1フレーム群のフレームのデータに含まれないフレームのデータから一定の数置きのフレームのデータを抜き出して前記第2フレーム群のフレームのデータとするようになっていてもよい。一定の数置きのフレームのデータを第1フレーム群と、第2フレーム群に含めることにより、第1フレーム群に含まれるフレームによる動画と第2フレーム群に含まれるフレームによる動画のフレームレートは常に一定となるので、動画に不自然さが生じない。撮像手段が高フレームレートでの撮像を行えるものであり、ディスプレイが高フレームレートでの描画に対応しない場合などは、上述のようにしてフレームレートを落とすこともあり得る。
本願の第1発明、第2発明は上述のように、基本的に、フレームレートが落ちることを許容することによって、本来は一つの動画を表示するためのビデオ信号から2種類の動画を表示するためのデータを作るものであるから、それ以上フレームレートを落とさないようにすることを考慮するのであれば、撮像手段が撮像して作ったビデオ信号に含まれるすべてのフレームについてのデータを、第1フレーム群のフレームのデータと第2フレーム群のフレームのデータのいずれかに含めた方が良い。
例えば、前記フレームデータ振分手段は、前記撮像手段が出力した前記ビデオ信号に含まれる多数の前記フレームのデータの偶数番目のものと奇数番目のものの一方を前記第1フレーム群のフレームのデータに、他方を前記第2フレーム群のフレームのデータに振分けるようになっていてもよい。この方法によれば、ビデオ信号に含まれるフレームのデータを交互に第1フレーム群のフレームのデータと第2フレーム群のフレームのデータに振り分けるだけで、第1フレーム群のフレームのデータと第2フレーム群のフレームのデータを簡単に生成できる。
まず、既に述べた通り、撮像手段が撮像して作ったビデオ信号に含まれるすべてのフレームについてのデータが、第1フレーム群のフレームのデータと第2フレーム群のフレームのデータのいずれかに振り分けられる必要はない。
例えば、前記フレームデータ振分手段は、前記撮像手段が出力した前記ビデオ信号に含まれる多数の前記フレームから、一定の数置きのフレームのデータを抜き出して前記第1フレーム群のフレームのデータに振分けるとともに、前記第1フレーム群のフレームのデータに含まれないフレームのデータから一定の数置きのフレームのデータを抜き出して前記第2フレーム群のフレームのデータとするようになっていてもよい。一定の数置きのフレームのデータを第1フレーム群と、第2フレーム群に含めることにより、第1フレーム群に含まれるフレームによる動画と第2フレーム群に含まれるフレームによる動画のフレームレートは常に一定となるので、動画に不自然さが生じない。撮像手段が高フレームレートでの撮像を行えるものであり、ディスプレイが高フレームレートでの描画に対応しない場合などは、上述のようにしてフレームレートを落とすこともあり得る。
本願の第1発明、第2発明は上述のように、基本的に、フレームレートが落ちることを許容することによって、本来は一つの動画を表示するためのビデオ信号から2種類の動画を表示するためのデータを作るものであるから、それ以上フレームレートを落とさないようにすることを考慮するのであれば、撮像手段が撮像して作ったビデオ信号に含まれるすべてのフレームについてのデータを、第1フレーム群のフレームのデータと第2フレーム群のフレームのデータのいずれかに含めた方が良い。
例えば、前記フレームデータ振分手段は、前記撮像手段が出力した前記ビデオ信号に含まれる多数の前記フレームのデータの偶数番目のものと奇数番目のものの一方を前記第1フレーム群のフレームのデータに、他方を前記第2フレーム群のフレームのデータに振分けるようになっていてもよい。この方法によれば、ビデオ信号に含まれるフレームのデータを交互に第1フレーム群のフレームのデータと第2フレーム群のフレームのデータに振り分けるだけで、第1フレーム群のフレームのデータと第2フレーム群のフレームのデータを簡単に生成できる。
ところで、動画の伝送方式にはプログレッシブ(ノンインタレース)方式とインタレース方式とが存在する。
プログレッシブ方式で描画されるディスプレイは、一画面の画像を上から下などの一定の方向で一括で表示するようにされており、プログレッシブ方式のビデオ信号における1フレーム分のデータは、一画面分の描画を行うためのデータとされる。プログレッシブ方式では、ディスプレイの一画面分の描画を行うためのデータが本願で言う1フレーム分のデータである。
他方、インタレース方式では、一画面の画像を、例えば、走査線の奇数行目と偶数行目で分ける。インタレース方式で描画されるディスプレイでは、例えば、奇数行目の走査線の描画のためのデータにより奇数行目の描画が行なわれた後、偶数行目の描画のためのデータにより偶数行目の描画が行なわれることになる。奇数行目を描画するためのデータと、偶数行目を描画するためのデータを合わせたものがディスプレイの一画面分の画像を描画するためのデータとなる。
インタレース方式のビデオ信号を生成する場合、撮像手段は、ディスプレイの奇数行目の走査線の描画のためのデータと、偶数行目の描画のためのデータとを交互に生成する。インタレース方式が採用される場合であれば、これらのそれぞれを本願発明でいう1フレーム分のデータとしても良いし、奇数行目の走査線の描画のためのデータと、偶数行目の走査線の描画のためのデータとを足し合わせた、ディスプレイの一画面の画像分のデータを本願発明でいう1フレーム分のデータとしても良い。奇数行目の描画のためのデータ、偶数行目の描画のためのデータはいずれも、一般的に言う1フレーム分のデータとは異なるが、本願発明ではそのように取り扱うことも可能である。本願発明について用いる「フレーム」という語の意義には、動画の分野における技術用語である「フレーム」の語が一般的に持つ以外の意義を含む場合があると上述したが、これがそれである。
ディスプレイの奇数行目の走査線の描画のためのデータと、偶数行目の描画のためのデータを足し合わせたものを2種類の動画の1フレーム分のデータとする場合は、それらデータでディスプレイに表示されることになる動画のフレームレートの低下を許容して(ただし、この場合は、画質、つまり、走査線数或いは画素数は落とさないことも可能である。)、第1フレーム群のフレームのデータ及び第2フレーム群のフレームのデータを生成することができる。これは、プログレッシブ方式の場合と変わらない。
他方、インタレース方式のビデオ信号を扱う場合において、ディスプレイの奇数行目の走査線の描画のためのデータと、偶数行目の描画のためのデータとのそれぞれを本願発明における1フレーム分のデータとする場合は、事情が異なってくる。フレームデータ振分手段が、撮像手段が出力したビデオ信号に含まれる多数のフレームの偶数番目のものと奇数番目のものの一方を第1フレーム群と、他方を前記第2フレーム群とするようになっている場合を例とする。ディスプレイの奇数行目の走査線の描画のためのデータ、偶数行目の走査線の描画のためのデータのそれぞれを本願発明における1フレーム分のデータとした場合には、例えば、ディスプレイの奇数行目の走査線の描画のためのデータが第1フレーム群のフレームのデータに、ディスプレイの偶数行目の走査線の描画のためのデータが第2フレーム群のフレームのデータにそれぞれ振分けられることになる。この場合には、本来のビデオ信号のフレームレートと、第1フレーム群のフレームのデータにより再生される動画、及び第2フレーム群のフレームのデータにより再生される動画のフレームレートは同じとすることができる。他方、この場合には、撮像手段における走査線数或いは画素数は(略)半分になったのと同様になるので、2種類の動画はともに、その撮像手段が撮像したビデオ信号により本来得られる動画よりも画質が落ちる。
プログレッシブ方式で描画されるディスプレイは、一画面の画像を上から下などの一定の方向で一括で表示するようにされており、プログレッシブ方式のビデオ信号における1フレーム分のデータは、一画面分の描画を行うためのデータとされる。プログレッシブ方式では、ディスプレイの一画面分の描画を行うためのデータが本願で言う1フレーム分のデータである。
他方、インタレース方式では、一画面の画像を、例えば、走査線の奇数行目と偶数行目で分ける。インタレース方式で描画されるディスプレイでは、例えば、奇数行目の走査線の描画のためのデータにより奇数行目の描画が行なわれた後、偶数行目の描画のためのデータにより偶数行目の描画が行なわれることになる。奇数行目を描画するためのデータと、偶数行目を描画するためのデータを合わせたものがディスプレイの一画面分の画像を描画するためのデータとなる。
インタレース方式のビデオ信号を生成する場合、撮像手段は、ディスプレイの奇数行目の走査線の描画のためのデータと、偶数行目の描画のためのデータとを交互に生成する。インタレース方式が採用される場合であれば、これらのそれぞれを本願発明でいう1フレーム分のデータとしても良いし、奇数行目の走査線の描画のためのデータと、偶数行目の走査線の描画のためのデータとを足し合わせた、ディスプレイの一画面の画像分のデータを本願発明でいう1フレーム分のデータとしても良い。奇数行目の描画のためのデータ、偶数行目の描画のためのデータはいずれも、一般的に言う1フレーム分のデータとは異なるが、本願発明ではそのように取り扱うことも可能である。本願発明について用いる「フレーム」という語の意義には、動画の分野における技術用語である「フレーム」の語が一般的に持つ以外の意義を含む場合があると上述したが、これがそれである。
ディスプレイの奇数行目の走査線の描画のためのデータと、偶数行目の描画のためのデータを足し合わせたものを2種類の動画の1フレーム分のデータとする場合は、それらデータでディスプレイに表示されることになる動画のフレームレートの低下を許容して(ただし、この場合は、画質、つまり、走査線数或いは画素数は落とさないことも可能である。)、第1フレーム群のフレームのデータ及び第2フレーム群のフレームのデータを生成することができる。これは、プログレッシブ方式の場合と変わらない。
他方、インタレース方式のビデオ信号を扱う場合において、ディスプレイの奇数行目の走査線の描画のためのデータと、偶数行目の描画のためのデータとのそれぞれを本願発明における1フレーム分のデータとする場合は、事情が異なってくる。フレームデータ振分手段が、撮像手段が出力したビデオ信号に含まれる多数のフレームの偶数番目のものと奇数番目のものの一方を第1フレーム群と、他方を前記第2フレーム群とするようになっている場合を例とする。ディスプレイの奇数行目の走査線の描画のためのデータ、偶数行目の走査線の描画のためのデータのそれぞれを本願発明における1フレーム分のデータとした場合には、例えば、ディスプレイの奇数行目の走査線の描画のためのデータが第1フレーム群のフレームのデータに、ディスプレイの偶数行目の走査線の描画のためのデータが第2フレーム群のフレームのデータにそれぞれ振分けられることになる。この場合には、本来のビデオ信号のフレームレートと、第1フレーム群のフレームのデータにより再生される動画、及び第2フレーム群のフレームのデータにより再生される動画のフレームレートは同じとすることができる。他方、この場合には、撮像手段における走査線数或いは画素数は(略)半分になったのと同様になるので、2種類の動画はともに、その撮像手段が撮像したビデオ信号により本来得られる動画よりも画質が落ちる。
ビデオ信号に含まれる各フレームをどのように第1フレーム群と第2フレーム群とに振分けるにせよ、本願発明では、撮像手段が生成したビデオ信号に含まれるデータを第1フレーム群に含まれるフレームのデータと第2フレーム群に含まれるフレームのデータとに振分けるためのタイミングを計る必要がある。それには、例えば、典型的にはビデオ信号に含まれる、より典型的には各フレームのデータに重畳された状態でビデオ信号に含まれる垂直同期信号を用いれば良い。垂直同期信号は、現存のCCDやCMOSが生成するビデオ信号の中に普通に含まれているものであり、また、各フレームのデータの終わり(乃至次のフレームデータの始まり)を示すものであるから、各フレームのデータを第1フレーム群と第2フレーム群に振分けるという作業に用いるに好適である。なお、インタレース方式で用いられるビデオ信号では、奇数行目の走査線の描画のためのデータの終わりと、偶数行目の描画のためのデータの終わりの双方に垂直同期信号が入っているので、奇数行目の走査線の描画のためのデータと、偶数行目の描画のためのデータの双方を2種類の動画における1フレーム分のデータとする場合でも、垂直同期信号を用いてタイミングを決定するに問題はない。
この場合、第1発明、及び第2発明は、例えば以下のようなものとなる。即ち、この場合の第1発明、及び第2発明のビデオカメラは、前記撮像手段が出力した前記ビデオ信号の垂直同期(フレームの切換)のタイミングに同期された垂直同期信号を検出する第1垂直同期信号検出手段を備えている。そして、それらビデオカメラの前記フレームデータ振分手段は、前記第1垂直同期信号検出手段が前記垂直同期信号を検出したタイミングに基づいて、前記第1フレーム群に含まれるフレームのデータと、前記第2フレーム群に含まれるフレームのデータとを振分けるようになっている。
ビデオ信号に含まれる垂直同期信号を用いる場合、前記第1垂直同期信号検出手段は、前記撮像手段が出力した前記ビデオ信号に含まれる垂直同期信号を検出するようになっている。
他方、垂直同期信号がビデオ信号に含まれておらず、本願のビデオカメラが、前記撮像手段が出力する前記フレームのデータをそれと同期させる垂直同期信号を前記撮像手段に送る垂直同期信号発生手段を備えている場合には、前記第1垂直同期信号検出手段は、前記垂直同期信号発生手段から受取った前記ビデオ信号とは別の信号から垂直同期信号を検出するようにする。
或いは、垂直同期信号がビデオ信号に含まれておらず、本願のビデオカメラ外に、前記撮像手段が出力する前記フレームのデータをそれと同期させる垂直同期信号を前記撮像手段に送るようになっている垂直同期信号発生装置がある場合(これはいわゆる外部同期と呼ばれる方式である)、前記第1垂直同期信号検出手段は、前記撮像手段が出力する前記フレームのデータをそれと同期させる垂直同期信号を前記撮像手段に送る外部の垂直同期信号発生装置から受取った信号から垂直同期信号を検出するようになっていてもよい。
この場合、第1発明、及び第2発明は、例えば以下のようなものとなる。即ち、この場合の第1発明、及び第2発明のビデオカメラは、前記撮像手段が出力した前記ビデオ信号の垂直同期(フレームの切換)のタイミングに同期された垂直同期信号を検出する第1垂直同期信号検出手段を備えている。そして、それらビデオカメラの前記フレームデータ振分手段は、前記第1垂直同期信号検出手段が前記垂直同期信号を検出したタイミングに基づいて、前記第1フレーム群に含まれるフレームのデータと、前記第2フレーム群に含まれるフレームのデータとを振分けるようになっている。
ビデオ信号に含まれる垂直同期信号を用いる場合、前記第1垂直同期信号検出手段は、前記撮像手段が出力した前記ビデオ信号に含まれる垂直同期信号を検出するようになっている。
他方、垂直同期信号がビデオ信号に含まれておらず、本願のビデオカメラが、前記撮像手段が出力する前記フレームのデータをそれと同期させる垂直同期信号を前記撮像手段に送る垂直同期信号発生手段を備えている場合には、前記第1垂直同期信号検出手段は、前記垂直同期信号発生手段から受取った前記ビデオ信号とは別の信号から垂直同期信号を検出するようにする。
或いは、垂直同期信号がビデオ信号に含まれておらず、本願のビデオカメラ外に、前記撮像手段が出力する前記フレームのデータをそれと同期させる垂直同期信号を前記撮像手段に送るようになっている垂直同期信号発生装置がある場合(これはいわゆる外部同期と呼ばれる方式である)、前記第1垂直同期信号検出手段は、前記撮像手段が出力する前記フレームのデータをそれと同期させる垂直同期信号を前記撮像手段に送る外部の垂直同期信号発生装置から受取った信号から垂直同期信号を検出するようになっていてもよい。
前記フレームデータ振分手段は、前記第1垂直同期信号検出手段が前記垂直同期信号を検出する毎に、前記撮像手段が出力した前記ビデオ信号に含まれる多数の前記フレームのデータを、前記第1フレーム群に含まれるフレームのデータと、前記第2フレーム群に含まれるフレームのデータとに、交互に振り分けるようになっていても構わない。
第1発明、及び第2発明のビデオカメラは、前記第1フレーム群に含まれるフレームのデータであって最新のものを次のフレームのデータを受取るまで保持する第1のメモリと、前記第2フレーム群に含まれるフレームのデータであって最新のものを、次のフレームのデータを受取るまで保持する第2のメモリとを備えていてもよい。本願発明は基本的に、上述したように、フレームレートが落ちることを許容することによって、本来は一つの動画を表示するためのビデオ信号から2種類の動画を表示するためのデータを作るものである。したがって、2種類の動画はともに、あるフレームから次のフレームまでの間が延び、2種類の動画のいずれがディスプレイに表示される場合にも、一のフレームから次のフレームまでの間に、本来以上の空き時間が生じることによるちらつきが生じるおそれがある。上述の如き第1のメモリと第2のメモリがあればそのような不具合を抑えられる。
第1発明、及び第2発明のビデオカメラは、前記第1フレーム群に含まれるフレームのデータであって最新のものを次のフレームのデータを受取るまで保持する第1のメモリと、前記第2フレーム群に含まれるフレームのデータであって最新のものを、次のフレームのデータを受取るまで保持する第2のメモリとを備えていてもよい。本願発明は基本的に、上述したように、フレームレートが落ちることを許容することによって、本来は一つの動画を表示するためのビデオ信号から2種類の動画を表示するためのデータを作るものである。したがって、2種類の動画はともに、あるフレームから次のフレームまでの間が延び、2種類の動画のいずれがディスプレイに表示される場合にも、一のフレームから次のフレームまでの間に、本来以上の空き時間が生じることによるちらつきが生じるおそれがある。上述の如き第1のメモリと第2のメモリがあればそのような不具合を抑えられる。
第1発明のビデオカメラでも、第2発明のビデオカメラでも、前記第1フレーム群に含まれるフレームのデータに基いて再生される動画と、前記第2フレーム群に含まれるフレームのデータに基いて再生される動画とは、異質なものとなる。なお、本願において、第1フレーム群に含まれるフレームのデータに基いて再生される動画と、第2フレーム群に含まれるフレームのデータに基いて再生される動画が「異質」であるというのは、両動画を見た場合に、両動画が撮像されたほんの僅かな時間の差、或いはほんの僅かな対象物における位置の差に基づく差異以外の差を、それを見た者に感知させられるということを意味するものとする。第1フレーム群に含まれるフレームのデータに基いて再生される動画と、第2フレーム群に含まれるフレームのデータに基いて再生される動画の間の差が、エッジ強調の有無(或いはその程度の相違、以下同じ。)、明暗反転、ホワイトバランスの調整の有無、白飛びの補正の有無、黒つぶれの補正の有無、キャリブレーションの有無、倍率の相違、被写界深度の相違、色彩の相違である場合には、少なくとも両動画は異質であるものとする。
第1発明のビデオカメラ、第2発明のビデオカメラは、要するに、第1発明では最終的に出力される2つの動画のデータと、第2発明では合成を行われる前に一旦作られる2つの動画のデータを、1つの撮像手段が作った動画のデータから作り出すものであると言える。そして、その2つの動画のデータは、2つの動画のデータが作られるよりも上流の「何か」を、1つの撮像手段が作る動画のデータに含まれるフレームのデータの作成のタイミングに同期させて変化させることにより、それぞれが異質なものとされるようになっている。上記「何か」は、光であっても、データ或いは信号であっても、或いは撮像素子における撮像条件であっても構わない。つまり、ビデオカメラは、照明光による照明(存在しない場合もあろう)を行い、照明光(或いは自然に存在する外光)により像光が生じ、その像光を撮像素子で撮像し、撮像素子が生じさせた1つの動画のデータを出力する。これらのいずれか、つまり、照明光、像光、撮像素子における撮像条件、撮像素子が生じさせた1つの動画のデータの一部、或いは撮像素子が生じさせた1つの動画のデータを2つに振分けることにより生成された2つの動画のデータの少なくとも一方に、変化を生じさせることにより、2つの動画のデータを異なるものとすることができるのである。
第1発明と、第2発明は、前記第1フレーム群に含まれることになるフレームのデータによる動画と、前記第2フレーム群に含まれることになるフレームのデータによる動画を異質なものにするために、下記1~4のいずれか一つを変化させる変化手段を備えていてもよい。
1.前記対象物に対する照明光
2.前記対象物から前記撮像手段に至るまでの像光
3.前記像光を撮像する撮像手段で撮像がなされる際の撮像の条件
4.前記撮像手段で生成されたビデオ信号に含まれるフレームのデータのうちの前記第1フレーム群に含まれることになるフレームのデータと前記第2フレーム群に含まれることになるフレームのデータの少なくとも一方か、又は前記第1フレーム群のフレームのデータと前記第2フレーム群のフレームのデータの少なくとも一方
照明光、像光、撮像手段での撮像の条件、撮像手段で生成されたビデオ信号のうち第1フレーム群に含まれることになるフレームのデータと第2フレーム群に含まれることになるフレームのデータ又は第1フレーム群のフレームのデータと第2フレーム群のフレームのデータの少なくとも一方を変化させることにより、第1フレーム群に含まれることになるフレームのデータにより再生される動画と、第2フレーム群に含まれることになるフレームのデータにより再生される動画を、異なるものとすることができる。
なお、第1フレーム群に含まれることになるフレームのデータにより再生される動画と、第2フレーム群に含まれることになるフレームのデータにより再生される動画を、異なるものにできるのであれば、照明光、像光、撮像手段での撮像の条件、撮像手段で生成されたビデオ信号の一部の複数を変化させても良い。
第1発明と、第2発明は、前記第1フレーム群に含まれることになるフレームのデータによる動画と、前記第2フレーム群に含まれることになるフレームのデータによる動画を異質なものにするために、下記1~4のいずれか一つを変化させる変化手段を備えていてもよい。
1.前記対象物に対する照明光
2.前記対象物から前記撮像手段に至るまでの像光
3.前記像光を撮像する撮像手段で撮像がなされる際の撮像の条件
4.前記撮像手段で生成されたビデオ信号に含まれるフレームのデータのうちの前記第1フレーム群に含まれることになるフレームのデータと前記第2フレーム群に含まれることになるフレームのデータの少なくとも一方か、又は前記第1フレーム群のフレームのデータと前記第2フレーム群のフレームのデータの少なくとも一方
照明光、像光、撮像手段での撮像の条件、撮像手段で生成されたビデオ信号のうち第1フレーム群に含まれることになるフレームのデータと第2フレーム群に含まれることになるフレームのデータ又は第1フレーム群のフレームのデータと第2フレーム群のフレームのデータの少なくとも一方を変化させることにより、第1フレーム群に含まれることになるフレームのデータにより再生される動画と、第2フレーム群に含まれることになるフレームのデータにより再生される動画を、異なるものとすることができる。
なお、第1フレーム群に含まれることになるフレームのデータにより再生される動画と、第2フレーム群に含まれることになるフレームのデータにより再生される動画を、異なるものにできるのであれば、照明光、像光、撮像手段での撮像の条件、撮像手段で生成されたビデオ信号の一部の複数を変化させても良い。
照明光を変化させる場合、つまり、上記1の場合、前記変化手段は、性質の異なる2種類の照明光である第1照明光及び第2照明光を、前記対象物に択一的に照射する照明手段と、前記第1フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときに前記第1照明光を、前記第2フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときに前記第2照明光を、それぞれ照射するように前記照明手段を制御する照明切換手段と、を含んでいてもよい。
これは、第1フレーム群に含まれることになるフレームを撮像手段が撮像しているときと、第2フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときとで、照明光を変化させるというものである。
これは、第1フレーム群に含まれることになるフレームを撮像手段が撮像しているときと、第2フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときとで、照明光を変化させるというものである。
上述のように、照明手段は第1照明光と第2照明光という2種類の照明光を照射できるようになっている。照明手段に2種類の照明光を照射できるようにさせるための工夫はどのようなものであっても構わない。
例えば、前記照明手段は、前記第1照明光を照射するときに点灯する第1照明と、前記第2照明光を照射するときに点灯する第2照明と、を備えていてもよい。この場合、前記照明切換手段は、前記第1照明と前記第2照明が交互に点灯するように前記第1照明と前記第2照明を制御するようになっている。このように、光源を複数にすることによって2種類の照明光を照射可能とすることができる。
前記照明手段は、光源と、その光源が照射した光が透過させられるものであり、それを透過した光の性質が互いに異なるものとなる第1状態と第2状態に変化させられるようにされた第1透過手段と、を備えていてもよい。この場合、前記照明切換手段は、前記第1透過手段に前記第1状態と前記第2状態を交互に取らせるように前記第1透過手段を制御するようになっている。このように、光源からでた照明光の光路上に設けられる、照明光が透過させられる第1透過手段の状態変化により、2種類の照明光を照射可能とすることができる。
前記照明手段は、光源と、その光源が照射した光が透過させられるものであるとともに、前記光源から照射される光の光路上にある状態とない状態をとれるようにされており、それを透過した光の性質をそれを透過しなかった光の性質と異ならせるようにされた第2透過手段を備えていてもよい。この場合、前記照明切換手段は、前記第2透過手段が前記光源から照射される光の光路上にある状態とない状態を繰り返すように前記第2透過手段を制御するようになっている。このように、光源からでた照明光の光路上にある状態とない状態を繰り返す第2透過手段の運動により、2種類の照明光を照射可能とすることができる。第2透過手段の運動は、例えば往復運動、回転運動である。
例えば、前記照明手段は、前記第1照明光を照射するときに点灯する第1照明と、前記第2照明光を照射するときに点灯する第2照明と、を備えていてもよい。この場合、前記照明切換手段は、前記第1照明と前記第2照明が交互に点灯するように前記第1照明と前記第2照明を制御するようになっている。このように、光源を複数にすることによって2種類の照明光を照射可能とすることができる。
前記照明手段は、光源と、その光源が照射した光が透過させられるものであり、それを透過した光の性質が互いに異なるものとなる第1状態と第2状態に変化させられるようにされた第1透過手段と、を備えていてもよい。この場合、前記照明切換手段は、前記第1透過手段に前記第1状態と前記第2状態を交互に取らせるように前記第1透過手段を制御するようになっている。このように、光源からでた照明光の光路上に設けられる、照明光が透過させられる第1透過手段の状態変化により、2種類の照明光を照射可能とすることができる。
前記照明手段は、光源と、その光源が照射した光が透過させられるものであるとともに、前記光源から照射される光の光路上にある状態とない状態をとれるようにされており、それを透過した光の性質をそれを透過しなかった光の性質と異ならせるようにされた第2透過手段を備えていてもよい。この場合、前記照明切換手段は、前記第2透過手段が前記光源から照射される光の光路上にある状態とない状態を繰り返すように前記第2透過手段を制御するようになっている。このように、光源からでた照明光の光路上にある状態とない状態を繰り返す第2透過手段の運動により、2種類の照明光を照射可能とすることができる。第2透過手段の運動は、例えば往復運動、回転運動である。
上述のように、照明切換手段は、前記第1フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときに前記第1照明光を、前記第2フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときに前記第2照明光を、それぞれ照射するように前記照明手段を制御する。そのためには、照明手段に第1照明光と第2照明光を適切なタイミングで照射させるためのタイミングを計る必要がある。それには、典型的にはビデオ信号に含まれる各フレームのデータに含まれる垂直同期信号を用いれば良い。垂直同期信号をかかるタイミングの制御に用いることができる理由は、フレームデータ振分手段がタイミングの制御を行うに垂直同期信号を用いることができる理由と同様である。
この場合のビデオカメラは、例えば、以下のようなものである。ビデオカメラは、前記撮像手段が出力した前記ビデオ信号の垂直同期のタイミングに同期された垂直同期信号を検出する第2垂直同期信号検出手段を備えており第2垂直同期信号検出手段を備えており、前記照明切換手段は、前記第2垂直同期信号検出手段が前記垂直同期信号を検出したタイミングに基づいて、前記照明手段が前記第1照明光の照射と前記第2照明光の照射を交互に切り替えるように、前記照明手段を制御するようになっている。
第1垂直同期信号検出手段の場合と同様、前記第2垂直同期信号検出手段は、前記撮像手段が出力した前記ビデオ信号に含まれる垂直同期信号を検出するようになっていてもよい。また、ビデオカメラが、前記撮像手段が出力する前記フレームのデータをそれと同期させる垂直同期信号を前記撮像手段に送る垂直同期信号発生手段を備えている場合には、前記第2垂直同期信号検出手段は、前記垂直同期信号発生手段から受取った前記ビデオ信号とは別の信号から垂直同期信号を検出するようになっていてもよい。また、ビデオカメラがいわゆる外部同期方式を採用するのであれば、前記第2垂直同期信号検出手段は、前記撮像手段が出力する前記フレームのデータをそれと同期させる垂直同期信号を前記撮像手段に送る外部の垂直同期信号発生装置から受取った信号から垂直同期信号を検出するようになっていてもよい。これらはいずれも、以下に説明する第2垂直同期信号検出手段でも同様である。
なお、第2垂直同期信号検出手段と、第1垂直同期信号検出手段は同じ対象である垂直同期信号を検出するものであり、前者が後者を、或いは後者が前者を兼ねることでその一方を省略することも可能である。例えば第1垂直同期信号検出手段のみが存在する場合においては(これは、第2垂直同期信号検出手段のみが存在する場合と等価である。)、それが垂直同期信号を検出したタイミングをフレームデータ振分手段と照明切換手段の双方に送ることにより、垂直同期信号を検出する手段が第1垂直同期信号検出手段一つだけであったとしても、フレームデータ振分手段と照明切換手段を同期して制御することが可能となる。これらはいずれも、以下に説明する第2垂直同期信号検出手段でも同様である。
この場合のビデオカメラは、例えば、以下のようなものである。ビデオカメラは、前記撮像手段が出力した前記ビデオ信号の垂直同期のタイミングに同期された垂直同期信号を検出する第2垂直同期信号検出手段を備えており第2垂直同期信号検出手段を備えており、前記照明切換手段は、前記第2垂直同期信号検出手段が前記垂直同期信号を検出したタイミングに基づいて、前記照明手段が前記第1照明光の照射と前記第2照明光の照射を交互に切り替えるように、前記照明手段を制御するようになっている。
第1垂直同期信号検出手段の場合と同様、前記第2垂直同期信号検出手段は、前記撮像手段が出力した前記ビデオ信号に含まれる垂直同期信号を検出するようになっていてもよい。また、ビデオカメラが、前記撮像手段が出力する前記フレームのデータをそれと同期させる垂直同期信号を前記撮像手段に送る垂直同期信号発生手段を備えている場合には、前記第2垂直同期信号検出手段は、前記垂直同期信号発生手段から受取った前記ビデオ信号とは別の信号から垂直同期信号を検出するようになっていてもよい。また、ビデオカメラがいわゆる外部同期方式を採用するのであれば、前記第2垂直同期信号検出手段は、前記撮像手段が出力する前記フレームのデータをそれと同期させる垂直同期信号を前記撮像手段に送る外部の垂直同期信号発生装置から受取った信号から垂直同期信号を検出するようになっていてもよい。これらはいずれも、以下に説明する第2垂直同期信号検出手段でも同様である。
なお、第2垂直同期信号検出手段と、第1垂直同期信号検出手段は同じ対象である垂直同期信号を検出するものであり、前者が後者を、或いは後者が前者を兼ねることでその一方を省略することも可能である。例えば第1垂直同期信号検出手段のみが存在する場合においては(これは、第2垂直同期信号検出手段のみが存在する場合と等価である。)、それが垂直同期信号を検出したタイミングをフレームデータ振分手段と照明切換手段の双方に送ることにより、垂直同期信号を検出する手段が第1垂直同期信号検出手段一つだけであったとしても、フレームデータ振分手段と照明切換手段を同期して制御することが可能となる。これらはいずれも、以下に説明する第2垂直同期信号検出手段でも同様である。
また、前記照明切換手段は、前記第2垂直同期信号検出手段が前記垂直同期信号を検出する毎に、前記照明手段が前記第1照明光の照射と前記第2照明光の照射を交互に切り替えるように、前記照明手段を制御するようになっていてもよい。
また、前記撮像手段があるフレームの画像の撮像を行なってから一定の時間経過後に当該フレームについてのデータを出力するようになっている場合に、前記照明切換手段は、前記第2垂直同期信号検出手段が前記垂直同期信号を検出してから前記一定の時間に相当する時間の経過後に、前記照明手段が前記第1照明光の照射と前記第2照明光の照射を交互に切り替えるように、前記照明手段を制御するようになっていてもよい。既存のCCD、CMOS等の撮像手段は、あるフレームの撮像を行なってからそのフレームのデータを出力するために若干の遅延を生じる場合がある。そのような遅延があると、第2垂直同期信号検出手段が垂直同期信号を検出するタイミングと、実際に撮像手段が撮像を行うタイミングとにずれが生じる可能性がある。照明切換手段が、一定の時間(これは、撮像手段で生じる遅延の時間に相当する。)に相当する時間の経過後に、照明手段が第1照明光の照射と第2照明光の照射を交互に切り替えるようになっていれば、上述のずれの発生を防止できる。
また、前記撮像手段があるフレームの画像の撮像を行なってから一定の時間経過後に当該フレームについてのデータを出力するようになっている場合に、前記照明切換手段は、前記第2垂直同期信号検出手段が前記垂直同期信号を検出してから前記一定の時間に相当する時間の経過後に、前記照明手段が前記第1照明光の照射と前記第2照明光の照射を交互に切り替えるように、前記照明手段を制御するようになっていてもよい。既存のCCD、CMOS等の撮像手段は、あるフレームの撮像を行なってからそのフレームのデータを出力するために若干の遅延を生じる場合がある。そのような遅延があると、第2垂直同期信号検出手段が垂直同期信号を検出するタイミングと、実際に撮像手段が撮像を行うタイミングとにずれが生じる可能性がある。照明切換手段が、一定の時間(これは、撮像手段で生じる遅延の時間に相当する。)に相当する時間の経過後に、照明手段が第1照明光の照射と第2照明光の照射を交互に切り替えるようになっていれば、上述のずれの発生を防止できる。
上述のように、本願のビデオカメラが備える照明手段は、性質の異なる2種類の照明光である第1照明光及び第2照明光を照射するようになっている。第1照明光と第2照明光の組合せはどのようなものであっても構わない。対象物の別、対象物から得たい情報の別などに応じて適宜選択すればよい。
前記第1照明光と前記第2照明光の一方は直線偏光であり、他方は前記直線偏光の振動方向以外の振動方向の光を含む光であってもよい。これにより、反射光を含む動画と、反射光を含まない動画を得られる。直線偏光の振動方向以外の振動方向の光を含む光は、偏光でない光であってもよいし、偏光であっても第1照明光と第2照明光の一方の直線偏光と振動の方向の異なる直線偏光であってもよい。
前記第1照明光と前記第2照明光の一方は、前記対象物への入射角が40°以下の光である落射光であり、他方は、前記対象物への入射角が40°より大きい光である側射光であってもよい。大雑把に言うと、落射光は対象物に正面から照射される照明光、側射光は対象物に側面から照射される照明光である。いずれを選択するかにより対象物表面の凹凸の見え方が変わるので、これらを照明光とする2つの動画を組合せることで、対象物表面の凹凸をより正確に把握し易くなる。
第1照明光と第2照明光を、色の異なる可視光とすることができる。例えば、前記第1照明光と前記第2照明光の一方は白色光であり、他方は緑色光であってもよい。例えば、緑色光を照明光として肌等の組織を見ると血管の走行が非常に見やすくなるが、他の組織の色彩が見えなくなる。他方、白色光を照明光とすると血管以外の組織の色彩を正しく把握し易くなる。したがって、この第1照明光と第2照明光を照明光とする2つの動画を組み合わせれば、組織の色と血管の走行をまとめて把握できるようになる。
前記第1照明光と前記第2照明光は、波長の異なる光であってもよい。色の異なる照明光を用いた場合もその一例となりうるが、照明光の波長が異なると得られる画像が変わるからである。
例えば、前記第1照明光と前記第2照明光の一方は可視光であり、他方は赤外光であってもよい。例えば、照明光に赤外光を用いた画像によれば、木簡に墨で書かれた後に肉眼では見えないように消えてしまった文字などがよく見える。他方、木簡全体の形状色彩などは赤外光を照明光とした画像によれば見えないが、可視光、例えば白色光を照明光とした画像によれば見える。これらを照明光とした2種類の動画を組合せることにより、木簡に書かれた文字と、木簡全体の形状や木簡における文字の書かれた位置の把握等をまとめて行えるようになる。
或いは、前記第1照明光と前記第2照明光の一方は可視光であり、他方は紫外光であってもよい。例えば、肌に紫外光である照明光を照射すると、肌上の角栓が黄色く発光するが、それ以外の部分は画像に映らない。他方、可視光、例えば白色光を用いれば肌の状態や色彩を見ることができる。これらを照明光とした2種類の動画を組合せることにより、肌における角栓の数や位置と肌の状態や色彩をまとめて把握することなどが可能となる。
前記第1照明光と前記第2照明光の一方は直線偏光であり、他方は前記直線偏光の振動方向以外の振動方向の光を含む光であってもよい。これにより、反射光を含む動画と、反射光を含まない動画を得られる。直線偏光の振動方向以外の振動方向の光を含む光は、偏光でない光であってもよいし、偏光であっても第1照明光と第2照明光の一方の直線偏光と振動の方向の異なる直線偏光であってもよい。
前記第1照明光と前記第2照明光の一方は、前記対象物への入射角が40°以下の光である落射光であり、他方は、前記対象物への入射角が40°より大きい光である側射光であってもよい。大雑把に言うと、落射光は対象物に正面から照射される照明光、側射光は対象物に側面から照射される照明光である。いずれを選択するかにより対象物表面の凹凸の見え方が変わるので、これらを照明光とする2つの動画を組合せることで、対象物表面の凹凸をより正確に把握し易くなる。
第1照明光と第2照明光を、色の異なる可視光とすることができる。例えば、前記第1照明光と前記第2照明光の一方は白色光であり、他方は緑色光であってもよい。例えば、緑色光を照明光として肌等の組織を見ると血管の走行が非常に見やすくなるが、他の組織の色彩が見えなくなる。他方、白色光を照明光とすると血管以外の組織の色彩を正しく把握し易くなる。したがって、この第1照明光と第2照明光を照明光とする2つの動画を組み合わせれば、組織の色と血管の走行をまとめて把握できるようになる。
前記第1照明光と前記第2照明光は、波長の異なる光であってもよい。色の異なる照明光を用いた場合もその一例となりうるが、照明光の波長が異なると得られる画像が変わるからである。
例えば、前記第1照明光と前記第2照明光の一方は可視光であり、他方は赤外光であってもよい。例えば、照明光に赤外光を用いた画像によれば、木簡に墨で書かれた後に肉眼では見えないように消えてしまった文字などがよく見える。他方、木簡全体の形状色彩などは赤外光を照明光とした画像によれば見えないが、可視光、例えば白色光を照明光とした画像によれば見える。これらを照明光とした2種類の動画を組合せることにより、木簡に書かれた文字と、木簡全体の形状や木簡における文字の書かれた位置の把握等をまとめて行えるようになる。
或いは、前記第1照明光と前記第2照明光の一方は可視光であり、他方は紫外光であってもよい。例えば、肌に紫外光である照明光を照射すると、肌上の角栓が黄色く発光するが、それ以外の部分は画像に映らない。他方、可視光、例えば白色光を用いれば肌の状態や色彩を見ることができる。これらを照明光とした2種類の動画を組合せることにより、肌における角栓の数や位置と肌の状態や色彩をまとめて把握することなどが可能となる。
第1照明光と前記第2照明光の一方が直線偏光であり、他方がその直線偏光の振動方向以外の振動方向の光を含む光である場合、例えば、前記第1照明光と前記第2照明光の一方が直線偏光であり、他方が自然光である場合には、第1発明、及び第2発明は、以下のようなものとすることができる。
照明手段が第1照明と第2照明とを備えているのであれば、そのビデオカメラは、前記対象物からの像光が前記撮像手段に到達するまでの光路上に撮像側偏光板が設けられているとともに、前記第1照明からの照明光が前記対象物に到達するまでの光路上と、前記第2照明からの照明光が前記対象物に到達するまでの光路上の一方に、前記撮像側偏光板とその偏光の方向が直交する照明側偏光板が設けられており、前記照明側偏光板が光路上にない側の前記第1照明又は前記第2照明からの照明光には、直線偏光である前記第1照明からの照明光の振動方向以外の成分が含まれるようになっている、ものとすることができる。
この場合、前記第1照明からの照明光には、それらの偏光方向が直交する前記撮像側偏光板と前記照明側偏光板を透過する光の消光比が90%以上となるような(好ましくは100%となるような)波長範囲の光のみが含まれていても良い。一般的な偏光板を用いると、可視光領域の中心に近い部分の波長の光では、直交する2枚の偏光板を通過する光の量は略0であり消光比は100%に近いが、可視光域の両端近くの波長の光は、消光比が低く、可視光領域の中心に近い部分の光よりも2枚の偏光板を多く抜けてくる。そのようなことが起きると、多く抜けてくる波長の光の色に画像乃至動画の色彩が偏り、画像乃至動画の色味が崩れる。実際本願発明者は、2枚の偏光板を用いて水や濡れた対象物を撮像した場合や、反射率の高い金属面を撮像した場合に画像乃至動画の色味が青く偏ることを確認している。上述のような第1照明からの照明光を用いれば、つまり、そのような波長域の光しかそもそも照射しない第1照明を用いれば、そのような事態を防げ、色の再現性が良くなる。なお、このような第1照明は、下記第1透過手段と偏光板、下記第2透過手段と偏光板の組合せにも応用可能である。
照明手段が第1透過手段を備えるのであれば、そのビデオカメラは、前記対象物からの像光が前記撮像手段に到達するまでの光路上に撮像側偏光板が設けられているとともに、前記第1透過手段は、前記第1状態と前記第2状態の一方が、前記撮像側偏光板とその偏光の方向が直交する偏光板として機能する状態であり、その他方が、それを透過する光の偏光状態に影響を与えない状態となる液晶板である、ものとすることができる。
照明手段が第2透過手段を備えるのであれば、そのビデオカメラは、前記対象物からの像光が前記撮像手段に到達するまでの光路上に撮像側偏光板が設けられているとともに、前記第2透過手段は、前記撮像側偏光板とその偏光の方向が直交する照明側偏光板である、ものとすることができる。
照明手段が第1照明と第2照明とを備えているのであれば、そのビデオカメラは、前記対象物からの像光が前記撮像手段に到達するまでの光路上に撮像側偏光板が設けられているとともに、前記第1照明からの照明光が前記対象物に到達するまでの光路上と、前記第2照明からの照明光が前記対象物に到達するまでの光路上の一方に、前記撮像側偏光板とその偏光の方向が直交する照明側偏光板が設けられており、前記照明側偏光板が光路上にない側の前記第1照明又は前記第2照明からの照明光には、直線偏光である前記第1照明からの照明光の振動方向以外の成分が含まれるようになっている、ものとすることができる。
この場合、前記第1照明からの照明光には、それらの偏光方向が直交する前記撮像側偏光板と前記照明側偏光板を透過する光の消光比が90%以上となるような(好ましくは100%となるような)波長範囲の光のみが含まれていても良い。一般的な偏光板を用いると、可視光領域の中心に近い部分の波長の光では、直交する2枚の偏光板を通過する光の量は略0であり消光比は100%に近いが、可視光域の両端近くの波長の光は、消光比が低く、可視光領域の中心に近い部分の光よりも2枚の偏光板を多く抜けてくる。そのようなことが起きると、多く抜けてくる波長の光の色に画像乃至動画の色彩が偏り、画像乃至動画の色味が崩れる。実際本願発明者は、2枚の偏光板を用いて水や濡れた対象物を撮像した場合や、反射率の高い金属面を撮像した場合に画像乃至動画の色味が青く偏ることを確認している。上述のような第1照明からの照明光を用いれば、つまり、そのような波長域の光しかそもそも照射しない第1照明を用いれば、そのような事態を防げ、色の再現性が良くなる。なお、このような第1照明は、下記第1透過手段と偏光板、下記第2透過手段と偏光板の組合せにも応用可能である。
照明手段が第1透過手段を備えるのであれば、そのビデオカメラは、前記対象物からの像光が前記撮像手段に到達するまでの光路上に撮像側偏光板が設けられているとともに、前記第1透過手段は、前記第1状態と前記第2状態の一方が、前記撮像側偏光板とその偏光の方向が直交する偏光板として機能する状態であり、その他方が、それを透過する光の偏光状態に影響を与えない状態となる液晶板である、ものとすることができる。
照明手段が第2透過手段を備えるのであれば、そのビデオカメラは、前記対象物からの像光が前記撮像手段に到達するまでの光路上に撮像側偏光板が設けられているとともに、前記第2透過手段は、前記撮像側偏光板とその偏光の方向が直交する照明側偏光板である、ものとすることができる。
像光を変化させる場合、つまり、上記2の場合、前記変化手段は、前記対象物から前記撮像手段に至るまでの像光を性質の異なる2種類の像光である第1像光と第2像光にする像光変質手段と、前記第1フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときに前記像光を前記第1像光に、前記第2フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときに前記像光を前記第2像光にそれぞれするように前記像光変質手段を制御する像光切換手段と、を含んでいてもよい。
これは、第1フレーム群に含まれることになるフレームを撮像手段が撮像しているときと、第2フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときとで、像光を変化させるというものである。
これは、第1フレーム群に含まれることになるフレームを撮像手段が撮像しているときと、第2フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときとで、像光を変化させるというものである。
前記像光変質手段は、前記対象物から前記撮像手段に至るまでの間に前記像光が透過させられるものであり、それを透過した光の性質が互いに異なるものとなる第1状態と第2状態に変化させられるようにされた第1像光透過手段、を備えており、前記像光切換手段は、前記第1像光透過手段に前記第1状態と前記第2状態を交互に取らせることで前記像光を前記第1像光と前記第2像光にするように前記第1像光透過手段を制御するようになっていてもよい。
第1像光透過手段は、それを透過した光の性質が互いに異なるものとなる第1状態と第2状態に変化させられるようなものであればその詳細は問わない。例えば、前記第1像光透過手段は、そのパワーが可変とされたレンズであり、前記像光切換手段は、そのパワーがある値であるときに前記第1状態を、そのパワーが他の値であるときに前記第2状態を取ることで、前記像光を前記第1像光と前記第2像光にするように前記第1像光透過手段を制御するようになっていてもよい。液晶を利用した電気によるスイッチングによりパワーを変化させることができる液晶レンズが知られている。それを第1像光透過手段に採用できる。前記第1像光透過手段は、特定の波長領域の波長の光を透過させる状態と透過させない状態を選択できるフィルタであり、前記像光切換手段は、特定の波長領域の波長の光を透過させる状態と透過させない状態の一方を前記第1状態として、その他方を前記第2状態として取ることで、前記像光を前記第1像光と前記第2像光にするように前記第1像光透過手段を制御するようになっていてもよい。例えば、電気的な制御により状態の変化を生じるMEMS(Micro Electro Mechanical Systems)による、可変カラーフィルタによってこの場合の第1像光透過手段を構成することができる。
第1像光透過手段は、それを透過した光の性質が互いに異なるものとなる第1状態と第2状態に変化させられるようなものであればその詳細は問わない。例えば、前記第1像光透過手段は、そのパワーが可変とされたレンズであり、前記像光切換手段は、そのパワーがある値であるときに前記第1状態を、そのパワーが他の値であるときに前記第2状態を取ることで、前記像光を前記第1像光と前記第2像光にするように前記第1像光透過手段を制御するようになっていてもよい。液晶を利用した電気によるスイッチングによりパワーを変化させることができる液晶レンズが知られている。それを第1像光透過手段に採用できる。前記第1像光透過手段は、特定の波長領域の波長の光を透過させる状態と透過させない状態を選択できるフィルタであり、前記像光切換手段は、特定の波長領域の波長の光を透過させる状態と透過させない状態の一方を前記第1状態として、その他方を前記第2状態として取ることで、前記像光を前記第1像光と前記第2像光にするように前記第1像光透過手段を制御するようになっていてもよい。例えば、電気的な制御により状態の変化を生じるMEMS(Micro Electro Mechanical Systems)による、可変カラーフィルタによってこの場合の第1像光透過手段を構成することができる。
前記像光変質手段は、前記像光の前記対象物から前記撮像手段に至るまでの光路上にある状態とない状態をとれるようにされており、それを透過した光の性質をそれを透過しなかった光の性質と異ならせるようにされた第2像光透過手段、を備えており、前記像光切換手段は、前記第2像光透過手段が前記像光の光路上にある状態とない状態を交互に繰り返すことで前記像光を前記第1像光と前記第2像光にするように前記第2像光透過手段を制御するようになっていてもよい。
第2像光透過手段は、像光の光路に対して出入りすることができ、光路上にあるか否かにより、像光に変化を生じさせる。第2像光透過手段は、例えば、レンズとすることができ、或いは、特定の波長領域の波長の光を透過させないフィルタとすることができる。
第2像光透過手段は、像光の光路に対して出入りすることができ、光路上にあるか否かにより、像光に変化を生じさせる。第2像光透過手段は、例えば、レンズとすることができ、或いは、特定の波長領域の波長の光を透過させないフィルタとすることができる。
前記像光変質手段は、前記対象物から前記撮像手段に至るまでの間に存在するその径が可変とされた絞りであり、前記像光切換手段は、前記絞りの径をある径にすることにより前記像光を第1像光に、前記絞りを他の径にすることにより前記像光を第2像光にするようになっていてもよい。この場合、第1フレーム群に含まれるフレームのデータに基いて再生される動画と、第2フレーム群に含まれるフレームのデータに基いて再生される動画は被写界深度が異なるものとなる。
照明切換手段は、第1フレーム群に含まれることになるフレームのデータを撮像手段が撮像しているときに第1照明光を、第2フレーム群に含まれることになるフレームのデータを撮像手段が撮像しているときに第2照明光を、それぞれ照射するように照明手段を制御する。撮像手段は、決まったフレームレート、例えば一秒間に60フレームとか、30フレームとかのフレームレートで撮像を行うが、照明切換手段は、簡単に言うと、撮像手段が各フレームを撮像するタイミングと、照明手段が第1照明光及び第2照明光を照射するタイミングとを同期させる。それにより、第1フレーム群に含まれるフレームは第1照明光で、第2フレーム群に含まれるフレームは第2照明光で、それぞれ撮像されることになる。
上述のように、像光切換手段は、前記第1フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときに前記像光を前記第1像光に、前記第2フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときに前記像光を前記第2像光にそれぞれするように、前記像光変質手段を制御する。そのために像光切換手段は、照明切換手段と同様に、第1像光と第2像光とを適切なタイミングで切換えるためのタイミングを計る必要がある。それには、既に述べた通り、典型的にはビデオ信号に含まれる各フレームのデータに含まれる垂直同期信号を用いれば良い。
この場合のビデオカメラは、例えば、以下のようなものである。ビデオカメラは、前記撮像手段が出力した前記ビデオ信号の垂直同期のタイミングに同期された垂直同期信号を検出する第2垂直同期信号検出手段を備えており、前記像光変質手段は、前記第2垂直同期信号検出手段が前記垂直同期信号を検出したタイミングに基づいて、前記第1像光と前記第2像光を切換えるタイミングを制御するようになっている。
上述のように、像光切換手段は、前記第1フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときに前記像光を前記第1像光に、前記第2フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときに前記像光を前記第2像光にそれぞれするように、前記像光変質手段を制御する。そのために像光切換手段は、照明切換手段と同様に、第1像光と第2像光とを適切なタイミングで切換えるためのタイミングを計る必要がある。それには、既に述べた通り、典型的にはビデオ信号に含まれる各フレームのデータに含まれる垂直同期信号を用いれば良い。
この場合のビデオカメラは、例えば、以下のようなものである。ビデオカメラは、前記撮像手段が出力した前記ビデオ信号の垂直同期のタイミングに同期された垂直同期信号を検出する第2垂直同期信号検出手段を備えており、前記像光変質手段は、前記第2垂直同期信号検出手段が前記垂直同期信号を検出したタイミングに基づいて、前記第1像光と前記第2像光を切換えるタイミングを制御するようになっている。
また、前記像光変質手段は、前記第2垂直同期信号検出手段が前記垂直同期信号を検出する毎に、前記第1像光と前記第2像光とを交互に切り替えるようになっていてもよい。
また、前記撮像手段があるフレームの画像の撮像を行なってから一定の時間経過後に当該フレームについてのデータを出力するようになっている場合に、前記像光変質手段は、前記第2垂直同期信号検出手段が前記垂直同期信号を検出してから前記一定の時間に相当する時間の経過後に、前記第1像光と前記第2像光とを交互に切り替えるようになっていてもよい。照明切換手段において説明した、撮像手段で生じる遅延の補償と同様の効果を得られる。
また、前記撮像手段があるフレームの画像の撮像を行なってから一定の時間経過後に当該フレームについてのデータを出力するようになっている場合に、前記像光変質手段は、前記第2垂直同期信号検出手段が前記垂直同期信号を検出してから前記一定の時間に相当する時間の経過後に、前記第1像光と前記第2像光とを交互に切り替えるようになっていてもよい。照明切換手段において説明した、撮像手段で生じる遅延の補償と同様の効果を得られる。
撮像手段での撮像の条件を変化させる場合、つまり、上記3の場合、前記変化手段は、前記第1フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときと、前記第2フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときとで、前記撮像手段が前記像光を撮像する条件をある条件である第1条件とそれとは異なる条件である第2条件との間で変化させるように前記撮像手段を制御する撮像手段制御手段を含んでいてもよい。
これは、第1フレーム群に含まれることになるフレームを撮像手段が撮像しているとき(そのフレームのデータを撮像手段が生成しているとき)と、第2フレーム群に含まれることになるフレームを前記撮像手段が撮像しているとき(そのフレームのデータを撮像手段が生成しているとき)とで、撮像の像光を変化させるというものである。
条件の変化はどのようなものでも構わないが、例えば、前記撮像手段制御手段は、前記第1フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときと、前記第2フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときとで、撮像手段中の撮像を行なう範囲が変化するように前記撮像手段を制御するようになっていてもよい。特に、第1フレーム群に含まれるフレームのデータに基いて再生される動画と、第2フレーム群に含まれるフレームのデータに基いて再生される動画とが、縦横比の等しく大きさの異なる矩形である場合には、一方の動画は他方の動画と倍率が異なるものとなる。また、前記撮像手段制御手段は、前記第1フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときと、前記第2フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときとで、撮像手段が撮像を行う際の露光時間が変化するように前記撮像手段を制御するようになっていてもよい。この場合には、第1フレーム群に含まれるフレームのデータに基いて再生される動画と、第2フレーム群に含まれるフレームのデータに基いて再生される動画の明るさを変化させられるようになる。
これは、第1フレーム群に含まれることになるフレームを撮像手段が撮像しているとき(そのフレームのデータを撮像手段が生成しているとき)と、第2フレーム群に含まれることになるフレームを前記撮像手段が撮像しているとき(そのフレームのデータを撮像手段が生成しているとき)とで、撮像の像光を変化させるというものである。
条件の変化はどのようなものでも構わないが、例えば、前記撮像手段制御手段は、前記第1フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときと、前記第2フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときとで、撮像手段中の撮像を行なう範囲が変化するように前記撮像手段を制御するようになっていてもよい。特に、第1フレーム群に含まれるフレームのデータに基いて再生される動画と、第2フレーム群に含まれるフレームのデータに基いて再生される動画とが、縦横比の等しく大きさの異なる矩形である場合には、一方の動画は他方の動画と倍率が異なるものとなる。また、前記撮像手段制御手段は、前記第1フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときと、前記第2フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときとで、撮像手段が撮像を行う際の露光時間が変化するように前記撮像手段を制御するようになっていてもよい。この場合には、第1フレーム群に含まれるフレームのデータに基いて再生される動画と、第2フレーム群に含まれるフレームのデータに基いて再生される動画の明るさを変化させられるようになる。
上述のように、撮像手段制御手段は、前記第1フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときと、前記第2フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときとで、前記撮像手段が前記像光を撮像する条件をある条件である第1条件とそれとは異なる条件である第2条件との間で変化させる。そのために撮像手段制御手段は、照明切換手段と同様に、第1条件と第2条件とを適切なタイミングで切換えるためのタイミングを計る必要がある。それには、既に述べた通り、典型的にはビデオ信号に含まれる各フレームのデータに含まれる垂直同期信号を用いれば良い。
この場合のビデオカメラは、例えば、以下のようなものである。ビデオカメラは、前記撮像手段が出力した前記ビデオ信号の垂直同期のタイミングに同期された垂直同期信号を検出する第2垂直同期信号検出手段を備えており、前記撮像手段制御手段は、前記第2垂直同期信号検出手段が前記垂直同期信号を検出したタイミングに基づいて、前記第1条件と前記第2条件を切換えるタイミングを制御するようになっている。
この場合のビデオカメラは、例えば、以下のようなものである。ビデオカメラは、前記撮像手段が出力した前記ビデオ信号の垂直同期のタイミングに同期された垂直同期信号を検出する第2垂直同期信号検出手段を備えており、前記撮像手段制御手段は、前記第2垂直同期信号検出手段が前記垂直同期信号を検出したタイミングに基づいて、前記第1条件と前記第2条件を切換えるタイミングを制御するようになっている。
また、前記撮像手段制御手段は、前記第2垂直同期信号検出手段が前記垂直同期信号を検出する毎に、前記第1条件と前記第2条件とを交互に切り替えるようになっていてもよい。
また、前記撮像手段があるフレームの画像の撮像を行なってから一定の時間経過後に当該フレームについてのデータを出力するようになっている場合に、前記撮像手段制御手段は、前記第2垂直同期信号検出手段が前記垂直同期信号を検出してから前記一定の時間に相当する時間の経過後に、前記第1条件と前記第2条件とを交互に切り替えるようになっていてもよい。照明切換手段において説明した、撮像手段で生じる遅延の補償と同様の効果を得られる。
また、前記撮像手段があるフレームの画像の撮像を行なってから一定の時間経過後に当該フレームについてのデータを出力するようになっている場合に、前記撮像手段制御手段は、前記第2垂直同期信号検出手段が前記垂直同期信号を検出してから前記一定の時間に相当する時間の経過後に、前記第1条件と前記第2条件とを交互に切り替えるようになっていてもよい。照明切換手段において説明した、撮像手段で生じる遅延の補償と同様の効果を得られる。
撮像手段で生成されたビデオ信号に含まれるフレームのデータのうち第1フレーム群に含まれることになるフレームのデータと第2フレーム群に含まれることになるフレームのデータの少なくとも一方を変化させる場合、つまり、上記4の前者の例の場合、前記変化手段は、前記撮像手段で生成されたビデオ信号に含まれるフレームのデータのうちの前記第1フレーム群に含まれることになるフレームのデータと前記第2フレーム群に含まれることになるフレームのデータの少なくとも一方に画像処理を行う画像処理手段を備えており、前記画像処理手段は、前記フレームデータ振分手段で振分けられる前のビデオ信号に含まれるフレームのデータのうちの前記第1フレーム群に含まれることになるフレームのデータと前記第2フレーム群に含まれることになるフレームのデータの少なくとも一方に対して画像処理を行うようになっていてもよい。或いは、前記第1フレーム群のフレームのデータと前記第2フレーム群のフレームのデータの少なくとも一方を変化させる場合、つまり、上記4の後者の例の場合、前記変化手段は、前記撮像手段で生成されたビデオ信号を前記フレームデータ振分手段で振分けることにより生成された前記第1フレーム群のフレームのデータと前記第2フレーム群のフレームのデータの少なくとも一方に画像処理を行う画像処理手段を備えていてもよい。
つまり、画像処理手段による画像処理は、フレームデータ振分手段により振分けられる前のビデオ信号に対して行われても良いし、フレームデータ振分手段により振分けられた後の第1フレーム群のフレームのデータと第2フレーム群のフレームのデータの一方に対して行われても良い。
画像処理手段による画像処理は、画像データに対する画像処理の方法であればどのようなものでもよく例えば公知のものを必要に応じて行えばよい。例えば、画像処理手段による画像処理は、前記フレームのデータから、特定の波長の光のデータを除くものとされていてもよい。或いは、前記画像処理手段は、エッジ強調、明暗反転、ホワイトバランスの調整、白飛びの補正、黒つぶれの補正、キャリブレーション、電子ズームのいずれかを行なってもよい。
フレームデータ振分手段で振分けられる前のビデオ信号に含まれるフレームのデータに対して画像処理を行う場合、画像処理手段は、第1フレーム群に含まれることになるフレームのデータと第2フレーム群に含まれることになるフレームのデータの双方に異なる画像処理を行なってもよい。同様に、ビデオ信号をフレームデータ振分手段で振分けることにより生成された第1フレーム群のフレームのデータと前記第2フレーム群のフレームのデータに対して画像処理を行う場合、画像処理手段は、第1フレーム群のフレームのデータと前記第2フレーム群のフレームのデータの双方に異なる画像処理を行なってもよい。
つまり、画像処理手段による画像処理は、フレームデータ振分手段により振分けられる前のビデオ信号に対して行われても良いし、フレームデータ振分手段により振分けられた後の第1フレーム群のフレームのデータと第2フレーム群のフレームのデータの一方に対して行われても良い。
画像処理手段による画像処理は、画像データに対する画像処理の方法であればどのようなものでもよく例えば公知のものを必要に応じて行えばよい。例えば、画像処理手段による画像処理は、前記フレームのデータから、特定の波長の光のデータを除くものとされていてもよい。或いは、前記画像処理手段は、エッジ強調、明暗反転、ホワイトバランスの調整、白飛びの補正、黒つぶれの補正、キャリブレーション、電子ズームのいずれかを行なってもよい。
フレームデータ振分手段で振分けられる前のビデオ信号に含まれるフレームのデータに対して画像処理を行う場合、画像処理手段は、第1フレーム群に含まれることになるフレームのデータと第2フレーム群に含まれることになるフレームのデータの双方に異なる画像処理を行なってもよい。同様に、ビデオ信号をフレームデータ振分手段で振分けることにより生成された第1フレーム群のフレームのデータと前記第2フレーム群のフレームのデータに対して画像処理を行う場合、画像処理手段は、第1フレーム群のフレームのデータと前記第2フレーム群のフレームのデータの双方に異なる画像処理を行なってもよい。
上記4の前者の例の場合、画像処理手段は、画像処理を行う対象となるフレームのデータを検出する必要がある。そのために画像処理手段は、照明切換手段と同様に、画像処理を行うべきフレームを検出するためのタイミングを計る必要がある。それには、既に述べた通り、典型的にはビデオ信号に含まれる各フレームのデータに含まれる垂直同期信号を用いれば良い。
この場合のビデオカメラは、例えば、以下のようなものである。ビデオカメラは、前記撮像手段が出力した前記ビデオ信号の垂直同期のタイミングに同期された垂直同期信号を検出する第2垂直同期信号検出手段を備えており、前記画像処理手段は、前記第2垂直同期信号検出手段が前記垂直同期信号を検出したタイミングに基づいて、ビデオ信号に含まれるフレームのデータから、画像処理の対象となる前記第1フレーム群に含まれることになるフレームのデータ、又は前記第2フレーム群に含まれることになるフレームのデータを検出するようになっている。
なお、上記4の後者の例の場合、すでに振り分けられた第1フレーム群に含まれるフレームのデータと、第2フレーム群に含まれるフレームのデータの一方に対して画像処理を行うので、フレームの切り換えのタイミングと何かのタイミングを同期させる必要がないから、第2垂直同期信号検出手段は不要である。
この場合のビデオカメラは、例えば、以下のようなものである。ビデオカメラは、前記撮像手段が出力した前記ビデオ信号の垂直同期のタイミングに同期された垂直同期信号を検出する第2垂直同期信号検出手段を備えており、前記画像処理手段は、前記第2垂直同期信号検出手段が前記垂直同期信号を検出したタイミングに基づいて、ビデオ信号に含まれるフレームのデータから、画像処理の対象となる前記第1フレーム群に含まれることになるフレームのデータ、又は前記第2フレーム群に含まれることになるフレームのデータを検出するようになっている。
なお、上記4の後者の例の場合、すでに振り分けられた第1フレーム群に含まれるフレームのデータと、第2フレーム群に含まれるフレームのデータの一方に対して画像処理を行うので、フレームの切り換えのタイミングと何かのタイミングを同期させる必要がないから、第2垂直同期信号検出手段は不要である。
上記1の場合の第1発明と第2発明のビデオカメラはともに、前記撮像手段、前記照明手段、前記照明切換手段、を収納するケースを備えていても良い。
前記撮像手段、前記照明手段、前記照明切換手段は小型化が容易であるから、それらを収納するケースも小型化が容易であり、手持ちできる程度にもできるし、ビデオカメラが内視鏡である場合にはその先端部に取付けることも可能である。更には、ビデオカメラがカプセル内視鏡である場合には、ケースは、カプセル内視鏡のカプセルに収納するか、カプセル内視鏡のカプセルとすることができる。
第1発明におけるビデオカメラは、前記撮像手段と、前記照明手段と、前記照明切換手段と、を収納するケースである第1ケースと、前記フレームデータ振分手段と、前記第1出力手段と、前記第2出力手段と、を収納する第2ケースと、を備えていてもよい。
第2発明におけるビデオカメラは、前記撮像手段と、前記照明手段と、前記照明切換手段と、を収納するケースである第1ケースと、前記フレームデータ振分手段と、前記出力手段と、を収納する第2ケースと、を備えていてもよい。
小型化が容易な上述のケースを第1ケースとし、フレームデータ振分手段、及び第1出力手段と第2出力手段、又はフレームデータ振分手段、及び出力手段を収納する第2ケースを別に設けるものである。
なお、それが存在する場合には、上述のケース又は第1ケースには第2垂直同期信号検出手段を、第2ケースには第1垂直同期信号検出手段を収納しても良い。
本願のビデオカメラが内視鏡である場合、当該内視鏡は、体内に挿入される一般には曲折可能な部材であるスコープ部に光ファイバを束ねて作られたイメージガイドファイバを有するものであってもよい。イメージガイドファイバは、スコープ部を曲折する必要がない場合には、ロッドレンズなどに置き換えることができる。この場合、撮像手段は、スコープ部の基端側に設けられても構わない。また、照明手段はスコープ部の先端側と基端側のいずれに配しても良い。
上述したように、本願のビデオカメラは、内視鏡とすることができる。医療用或いは工業用の内視鏡による観察を行う場合には、反射光がある動画とない動画で、同位置を略同時に観察することができるという作用効果は極めて重要になるので、特に偏光を照明光に用いた場合との親和性が高い。
前記撮像手段、前記照明手段、前記照明切換手段は小型化が容易であるから、それらを収納するケースも小型化が容易であり、手持ちできる程度にもできるし、ビデオカメラが内視鏡である場合にはその先端部に取付けることも可能である。更には、ビデオカメラがカプセル内視鏡である場合には、ケースは、カプセル内視鏡のカプセルに収納するか、カプセル内視鏡のカプセルとすることができる。
第1発明におけるビデオカメラは、前記撮像手段と、前記照明手段と、前記照明切換手段と、を収納するケースである第1ケースと、前記フレームデータ振分手段と、前記第1出力手段と、前記第2出力手段と、を収納する第2ケースと、を備えていてもよい。
第2発明におけるビデオカメラは、前記撮像手段と、前記照明手段と、前記照明切換手段と、を収納するケースである第1ケースと、前記フレームデータ振分手段と、前記出力手段と、を収納する第2ケースと、を備えていてもよい。
小型化が容易な上述のケースを第1ケースとし、フレームデータ振分手段、及び第1出力手段と第2出力手段、又はフレームデータ振分手段、及び出力手段を収納する第2ケースを別に設けるものである。
なお、それが存在する場合には、上述のケース又は第1ケースには第2垂直同期信号検出手段を、第2ケースには第1垂直同期信号検出手段を収納しても良い。
本願のビデオカメラが内視鏡である場合、当該内視鏡は、体内に挿入される一般には曲折可能な部材であるスコープ部に光ファイバを束ねて作られたイメージガイドファイバを有するものであってもよい。イメージガイドファイバは、スコープ部を曲折する必要がない場合には、ロッドレンズなどに置き換えることができる。この場合、撮像手段は、スコープ部の基端側に設けられても構わない。また、照明手段はスコープ部の先端側と基端側のいずれに配しても良い。
上述したように、本願のビデオカメラは、内視鏡とすることができる。医療用或いは工業用の内視鏡による観察を行う場合には、反射光がある動画とない動画で、同位置を略同時に観察することができるという作用効果は極めて重要になるので、特に偏光を照明光に用いた場合との親和性が高い。
第1発明と同様の作用効果を、例えば以下の方法により得ることができる。
その方法は、撮像の対象となる対象物からの像光を捉えて撮像し、連続した多数のフレームのデータを有するビデオ信号を出力する撮像手段と、制御手段と、第1出力手段と、第2出力手段と、を含んでなるビデオカメラにて実行される方法であって、前記制御手段が、前記撮像手段が出力した前記ビデオ信号に含まれる多数の前記フレームについてのデータから、それに含まれるフレームを連続して見たユーザがそれを動画として認識できるようになっている、フレームの集合である第1フレーム群についてのデータと、それに含まれるフレームを連続して見たユーザがそれを動画として認識できるようになっている、前記第1フレーム群に含まれるフレームと重複しないフレームの集合である第2フレーム群についてのデータとを生成する過程と、前記第1出力手段が、前記第1フレーム群に含まれるフレームのデータを出力する過程と、前記第2出力手段が、前記第2フレーム群に含まれるフレームのデータを出力する過程と、を含んでおり、前記制御手段は、前記第1フレーム群に含まれるフレームのデータに基いて再生される動画と、前記第2フレーム群に含まれるフレームのデータに基いて再生される動画とは、異質なものとなるようにする、方法である。
その方法は、撮像の対象となる対象物からの像光を捉えて撮像し、連続した多数のフレームのデータを有するビデオ信号を出力する撮像手段と、制御手段と、第1出力手段と、第2出力手段と、を含んでなるビデオカメラにて実行される方法であって、前記制御手段が、前記撮像手段が出力した前記ビデオ信号に含まれる多数の前記フレームについてのデータから、それに含まれるフレームを連続して見たユーザがそれを動画として認識できるようになっている、フレームの集合である第1フレーム群についてのデータと、それに含まれるフレームを連続して見たユーザがそれを動画として認識できるようになっている、前記第1フレーム群に含まれるフレームと重複しないフレームの集合である第2フレーム群についてのデータとを生成する過程と、前記第1出力手段が、前記第1フレーム群に含まれるフレームのデータを出力する過程と、前記第2出力手段が、前記第2フレーム群に含まれるフレームのデータを出力する過程と、を含んでおり、前記制御手段は、前記第1フレーム群に含まれるフレームのデータに基いて再生される動画と、前記第2フレーム群に含まれるフレームのデータに基いて再生される動画とは、異質なものとなるようにする、方法である。
第2発明と同様の作用効果を、例えば以下の方法により得ることができる。
その方法は、撮像の対象となる対象物からの像光を捉えて撮像し、連続した多数のフレームのデータを有するビデオ信号を出力する撮像手段と、制御手段と、出力手段と、を含んでなるビデオカメラにて実行される方法であって、前記制御手段が、前記撮像手段が出力した前記ビデオ信号に含まれる多数の前記フレームについてのデータから、それに含まれるフレームを連続して見たユーザがそれを動画として認識できるようになっている、フレームの集合である第1フレーム群についてのデータと、それに含まれるフレームを連続して見たユーザがそれを動画として認識できるようになっている、前記第1フレーム群に含まれるフレームと重複しないフレームの集合である第2フレーム群についてのデータとを生成する過程と、前記第1フレーム群に含まれるフレームのデータによる第1動画と、前記第2フレーム群に含まれるフレームのデータによる第2動画とを、所定のディスプレイが一画面に表示できるような動画についての動画データを生成する過程と、合成された動画データを前記出力手段に出力させる過程と、を含んでおり、前記制御手段は、前記第1フレーム群に含まれるフレームのデータに基いて再生される動画と、前記第2フレーム群に含まれるフレームのデータに基いて再生される動画とは、異質なものとなるようにする方法である。
その方法は、撮像の対象となる対象物からの像光を捉えて撮像し、連続した多数のフレームのデータを有するビデオ信号を出力する撮像手段と、制御手段と、出力手段と、を含んでなるビデオカメラにて実行される方法であって、前記制御手段が、前記撮像手段が出力した前記ビデオ信号に含まれる多数の前記フレームについてのデータから、それに含まれるフレームを連続して見たユーザがそれを動画として認識できるようになっている、フレームの集合である第1フレーム群についてのデータと、それに含まれるフレームを連続して見たユーザがそれを動画として認識できるようになっている、前記第1フレーム群に含まれるフレームと重複しないフレームの集合である第2フレーム群についてのデータとを生成する過程と、前記第1フレーム群に含まれるフレームのデータによる第1動画と、前記第2フレーム群に含まれるフレームのデータによる第2動画とを、所定のディスプレイが一画面に表示できるような動画についての動画データを生成する過程と、合成された動画データを前記出力手段に出力させる過程と、を含んでおり、前記制御手段は、前記第1フレーム群に含まれるフレームのデータに基いて再生される動画と、前記第2フレーム群に含まれるフレームのデータに基いて再生される動画とは、異質なものとなるようにする方法である。
以下、本発明の第1~第4実施形態を、図面を参照しながら詳細に説明する。
各実施形態(及びその変形例)の説明において、重複する対象には同じ符号を付すものとし、重複する説明は場合により省略するものとする。
また、各実施形態、各変形例に記載の内容は、他の実施形態又は変形例に適用できない合理的な理由がない限り、他の実施形態又は変形例にも適用可能である。
各実施形態(及びその変形例)の説明において、重複する対象には同じ符号を付すものとし、重複する説明は場合により省略するものとする。
また、各実施形態、各変形例に記載の内容は、他の実施形態又は変形例に適用できない合理的な理由がない限り、他の実施形態又は変形例にも適用可能である。
≪第1実施形態≫
図1に、この実施形態におけるビデオカメラの模式図を示す。
この実施形態のビデオカメラは、内視鏡100である。この実施形態における内視鏡100は医療用内視鏡であるが、工業用内視鏡であっても構わない。この実施形態の内視鏡100は、2台のディスプレイであるディスプレイD1、ディスプレイD2と、ケーブルC1、ケーブルC2でそれぞれ接続して用いられる。
図1に、この実施形態におけるビデオカメラの模式図を示す。
この実施形態のビデオカメラは、内視鏡100である。この実施形態における内視鏡100は医療用内視鏡であるが、工業用内視鏡であっても構わない。この実施形態の内視鏡100は、2台のディスプレイであるディスプレイD1、ディスプレイD2と、ケーブルC1、ケーブルC2でそれぞれ接続して用いられる。
内視鏡100は、その全体的な構成は、従来のものと変わらない。
内視鏡100は、スコープ部110と、ビデオプロセッサボックス120とを備えている。
内視鏡100は、スコープ部110と、ビデオプロセッサボックス120とを備えている。
スコープ部110は、少なくともその先端側が患者の体内に挿入される。それが可能な程度にスコープ部110は細く、また、柔軟で曲折可能とされている。スコープ部110はこの実施形態では断面円筒形であり、例えば樹脂でできている。スコープ部110の基端は、ビデオプロセッサボックス120に着脱自在に接続されている。
スコープ部110の先端には、撮像を行う撮像部130が設けられている。
スコープ部110の先端には、撮像を行う撮像部130が設けられている。
撮像部130は、図2に示したように構成されている。
撮像部130は、ケース131に囲まれている。ケース131は、この限りではないがスコープ部110と同径の断面円形であり、またこの限りではないが樹脂製である。ケース131の先端面には、後述する第1光源133Aからの光を撮像の対象となる対象物に照射できるようにするための第1孔131Aと、後述する第2光源133Bからの光を撮像の対象となる対象物に照射できるようにするための第2孔131Bと、対象物からの像光を後述する撮像素子に導くための第3孔131Cとが設けられており、ケース131の後端面には、後述する信号線137Aを通過させるための孔131Dが設けられている。なお、孔131Dを通過するのは信号線137Aのみならず、後述する撮像素子136に電源を供給するための電源線なども存在するが、周知であることもあり、図示、説明とも省略する。
第1孔131A、第2孔131B 、第3孔131C、孔131Dはいずれも、その大きさ、形状は上述した役割が担保される限り特に制限はない。この実施形態ではいずれも適当な大きさの円形とされている。
第1孔131Aにはそれを透過した光を直線偏光にする第1偏光板132Aが設けられている。第1偏光板132Aは、内視鏡100の使用中に患者の体液等がケース131内に入り込まないように、第1孔131Aを少なくとも水密に覆っている。
第2孔131Bにはそれを透過した光の偏光状態に影響を与えない透明な封止板132Bが設けられている。封止板132Bは、第2孔131Bを少なくとも水密に覆っている。
第3孔131Cにはそれを透過した光を直線偏光にする偏光板132Cが設けられている。偏光板132Cは、第3孔131Cを少なくとも水密に覆っている。偏光板132Cは、その偏光方向が第1偏光板132Aの偏光方向と直交している。
撮像部130は、ケース131に囲まれている。ケース131は、この限りではないがスコープ部110と同径の断面円形であり、またこの限りではないが樹脂製である。ケース131の先端面には、後述する第1光源133Aからの光を撮像の対象となる対象物に照射できるようにするための第1孔131Aと、後述する第2光源133Bからの光を撮像の対象となる対象物に照射できるようにするための第2孔131Bと、対象物からの像光を後述する撮像素子に導くための第3孔131Cとが設けられており、ケース131の後端面には、後述する信号線137Aを通過させるための孔131Dが設けられている。なお、孔131Dを通過するのは信号線137Aのみならず、後述する撮像素子136に電源を供給するための電源線なども存在するが、周知であることもあり、図示、説明とも省略する。
第1孔131A、第2孔131B 、第3孔131C、孔131Dはいずれも、その大きさ、形状は上述した役割が担保される限り特に制限はない。この実施形態ではいずれも適当な大きさの円形とされている。
第1孔131Aにはそれを透過した光を直線偏光にする第1偏光板132Aが設けられている。第1偏光板132Aは、内視鏡100の使用中に患者の体液等がケース131内に入り込まないように、第1孔131Aを少なくとも水密に覆っている。
第2孔131Bにはそれを透過した光の偏光状態に影響を与えない透明な封止板132Bが設けられている。封止板132Bは、第2孔131Bを少なくとも水密に覆っている。
第3孔131Cにはそれを透過した光を直線偏光にする偏光板132Cが設けられている。偏光板132Cは、第3孔131Cを少なくとも水密に覆っている。偏光板132Cは、その偏光方向が第1偏光板132Aの偏光方向と直交している。
第1孔131Aのやや後端側には、第1光源133Aが設けられている。第1光源133Aは、第1孔131Aを通して、対象物の撮像に必要な照明光を照射するようになっている。第1光源133Aが照射する照明光は当初は自然光である。この照明光は、第1偏光板132Aを通過して、偏光板132Cと直交する方向の直線偏光となる。偏光となったこの照明光が第1照明光である。
第2孔131Bのやや後端側には、第2光源133Bが設けられている。第2光源133Bは、第2孔131Bを通して、対象物の撮像に必要な照明光を照射するようになっている。第2光源133Bが照射する照明光は当初は自然光である。この照明光は、封止板132Bを通過しても偏光化されない。この照明光が第2照明光である。
第2孔131Bのやや後端側には、第2光源133Bが設けられている。第2光源133Bは、第2孔131Bを通して、対象物の撮像に必要な照明光を照射するようになっている。第2光源133Bが照射する照明光は当初は自然光である。この照明光は、封止板132Bを通過しても偏光化されない。この照明光が第2照明光である。
第1光源133Aと第2光源133Bはともに、適当なタイミングで点灯、消灯を繰り返すようになっている。第1光源133Aと第2光源133Bは選択的に点灯される。つまり、両者が同時に点灯することはなく、第1光源133Aと第2光源133Bは交互に点灯することとなる。もっとも、第1光源133Aが消灯してから第2光源133Bが点灯するまでの間、又は第2光源133Bが消灯してから第1光源133Aが点灯するまでの間には、時間的に隙間が空いても構わない。
第1光源133Aと第2光源133Bの点灯、消灯は、照明切換部134が行う。照明切換部134は、第1光源133Aと第2光源133Bのそれぞれに、信号線134A、134Bで接続されている。照明切換部134は、信号線134Cにて接続された、後述する第2垂直同期信号検出部137から送られてくる信号に基づいて、第1光源133Aと第2光源133Bの点灯、消灯の制御を行うが、かかる制御の詳細については後述する。
第1光源133Aと第2光源133Bの点灯、消灯は、照明切換部134が行う。照明切換部134は、第1光源133Aと第2光源133Bのそれぞれに、信号線134A、134Bで接続されている。照明切換部134は、信号線134Cにて接続された、後述する第2垂直同期信号検出部137から送られてくる信号に基づいて、第1光源133Aと第2光源133Bの点灯、消灯の制御を行うが、かかる制御の詳細については後述する。
第3孔131Cのやや後端側には、レンズ135が設けられており、レンズ135の後端側には、撮像素子136が設けられている。レンズ135は拡大レンズであり、対象物からの像光を撮像素子136に結像させる。レンズ135は図示されたように一枚であることを要せず、複数枚のレンズから構成されていてもよい。
撮像素子136は、例えばCCD或いはCMOSであり、対象物からの像光を撮像し、ビデオ信号を生成するようになっている。撮像素子136は、ビデオ信号を出力するための回路を含んでいる。このビデオ信号は、一般的なものであり、例えばVBS信号である。つまり、撮像素子136となるCCD、CMOSなどは一般的なもので良い。この実施形態の撮像素子136は、プログレッシブ方式の描画をディスプレイD1、D2にさせることができるようなビデオ信号を出力する。
ビデオ信号は、図4にvで示したように、一定の時間ごとに信号が繰り返される。この信号一つ一つが、1フレーム分の画像データに対応している。なお、図4では、一つ一つの信号を矩形波で表現しているが、実際の信号が矩形波であるとは限らないことは当然である。また、ビデオ信号には、これには限られないが多くの場合はそれに重畳される形で、vsyncで示されたような垂直同期信号が含まれている。図4では、簡単のために、ビデオ信号と垂直同期信号を別に描いている。垂直同期信号は、1フレーム分の画像信号の終わりのタイミングを示す信号であり、この実施形態ではこれには限られないが、その立ち上がりのタイミングで1フレームの信号の最後の瞬間を示すものとなっている。なお、この実施形態では、垂直同期信号は、撮像素子136の中に含まれた図示を省略の垂直同期信号を生成するための手段によって生成される。
ビデオ信号は、撮像素子136と信号線136Aで接続された第2垂直同期信号検出部137に送られるようになっている。
撮像素子136は、例えばCCD或いはCMOSであり、対象物からの像光を撮像し、ビデオ信号を生成するようになっている。撮像素子136は、ビデオ信号を出力するための回路を含んでいる。このビデオ信号は、一般的なものであり、例えばVBS信号である。つまり、撮像素子136となるCCD、CMOSなどは一般的なもので良い。この実施形態の撮像素子136は、プログレッシブ方式の描画をディスプレイD1、D2にさせることができるようなビデオ信号を出力する。
ビデオ信号は、図4にvで示したように、一定の時間ごとに信号が繰り返される。この信号一つ一つが、1フレーム分の画像データに対応している。なお、図4では、一つ一つの信号を矩形波で表現しているが、実際の信号が矩形波であるとは限らないことは当然である。また、ビデオ信号には、これには限られないが多くの場合はそれに重畳される形で、vsyncで示されたような垂直同期信号が含まれている。図4では、簡単のために、ビデオ信号と垂直同期信号を別に描いている。垂直同期信号は、1フレーム分の画像信号の終わりのタイミングを示す信号であり、この実施形態ではこれには限られないが、その立ち上がりのタイミングで1フレームの信号の最後の瞬間を示すものとなっている。なお、この実施形態では、垂直同期信号は、撮像素子136の中に含まれた図示を省略の垂直同期信号を生成するための手段によって生成される。
ビデオ信号は、撮像素子136と信号線136Aで接続された第2垂直同期信号検出部137に送られるようになっている。
第2垂直同期信号検出部137は、撮像素子136から受付けたビデオ信号から、垂直同期信号を検出するようになっている。第2垂直同期信号検出部137が垂直同期信号を検出したタイミングは、信号線134Cを介して照明切換部134に伝えられるようになっている。
照明切換部134は第2垂直同期信号検出部137から伝えられたこのタイミングに基づいて、第1光源133Aと第2光源133Bの点灯、消灯の制御を行う。
ビデオ信号は、また、第2垂直同期信号検出部137を通過して、信号線137Aを介して、ビデオプロセッサボックス120に送られるようになっている。
照明切換部134は第2垂直同期信号検出部137から伝えられたこのタイミングに基づいて、第1光源133Aと第2光源133Bの点灯、消灯の制御を行う。
ビデオ信号は、また、第2垂直同期信号検出部137を通過して、信号線137Aを介して、ビデオプロセッサボックス120に送られるようになっている。
ビデオプロセッサボックス120は、図3に示されたように構成されている。
ビデオプロセッサボックス120は、ケース121を備えている。ケース121は、これには限られないが樹脂製であり、この実施形態では直方体形状である。ケース121にはスコープ部110が接続されており、信号線137Aが引き込まれている。ケース121には、第1出力端子121Aと第2出力端子121Bが設けられている。第1出力端子121AはディスプレイD1と、第2出力端子121BはディスプレイD2と、ケーブルであるケーブルC1、ケーブルC2でそれぞれ接続される。ケース121には、また、信号線137Aをその内部に引き込むための孔121Cが設けられている。
ビデオプロセッサボックス120は、ケース121を備えている。ケース121は、これには限られないが樹脂製であり、この実施形態では直方体形状である。ケース121にはスコープ部110が接続されており、信号線137Aが引き込まれている。ケース121には、第1出力端子121Aと第2出力端子121Bが設けられている。第1出力端子121AはディスプレイD1と、第2出力端子121BはディスプレイD2と、ケーブルであるケーブルC1、ケーブルC2でそれぞれ接続される。ケース121には、また、信号線137Aをその内部に引き込むための孔121Cが設けられている。
ケース121の中には、第1垂直同期信号検出部122が設けられている。第1垂直同期信号検出部122は、信号線137Aと接続され信号線137Aを介して受取ったビデオ信号から、第2垂直同期信号検出部137と同じように垂直同期信号を検出するようになっている。第1垂直同期信号検出部122が垂直同期信号を検出したタイミングは、第1垂直同期信号検出部122と信号線122Aを介して接続された出力制御部123に伝えられるようになっている。
出力制御部123は、また、第1垂直同期信号検出部122と信号線122Bで接続されており、信号線122Bを介してビデオ信号を受取るようになっている。
出力制御部123は、また、信号線123Aを介して第1出力端子121Aと、信号線123Bを介して第2出力端子121Bとそれぞれ接続されている。出力制御部123は、ビデオ信号中の各矩形波のうちのどれに含まれるデータを第1出力端子121AからディスプレイD1に、また、ビデオ信号中の各矩形波のうちのどれに含まれるデータを第2出力端子121BからディスプレイD2に出力するかの制御、つまり矩形波をどのように振分けるかという制御を行う。これらデータのうち第1出力端子121Aへ向かうものは、信号線123Aを通って、第2出力端子121Bへ向かうものは、信号線123Bを通って、それぞれ第1出力端子121A又は第2出力端子121Bへ向かう。
なお、以下の関係は逆でも構わないが、この実施形態では、第1出力端子121Aから出力されるのが第1フレーム群のフレームのデータであり、第2出力端子121Bから出力されるのが第2フレーム群のデータである。第1フレーム群のフレームのデータ、第2フレーム群のフレームのデータとも、それに含まれるフレームのデータによってディスプレイD1又はディスプレイD2に表示されたフレームを連続してみたユーザがそれを動画として認識できるようになっている。また、第1フレーム群のフレームのデータに含まれるデータに対応するフレームと、第2フレーム群のフレームのデータに含まれるデータに対応するフレームには重複するものがないようになっている。
出力制御部123は、ビデオ信号中のどの矩形波に対応するデータを第1フレーム群のフレームのデータに含め、どの矩形波に対応するデータを第2フレーム群のフレームのデータに含めるかを、第1垂直同期信号検出部122から伝えられた、第1垂直同期信号検出部122が垂直同期信号を検出した上述のタイミングに基づいて、制御する。その制御方法については、後述する。
出力制御部123は、2つのメモリ126A、126Bを備えている。メモリ126A、126Bはそれぞれ、第1フレーム群のフレームのデータと第2フレーム群のフレームのデータに振分けられた後の、ディスプレイD1、D2に表示される画像についての最新の1フレーム分のデータを、次のフレームのデータが来るまで保持するものである。
出力制御部123は、また、信号線123Aを介して第1出力端子121Aと、信号線123Bを介して第2出力端子121Bとそれぞれ接続されている。出力制御部123は、ビデオ信号中の各矩形波のうちのどれに含まれるデータを第1出力端子121AからディスプレイD1に、また、ビデオ信号中の各矩形波のうちのどれに含まれるデータを第2出力端子121BからディスプレイD2に出力するかの制御、つまり矩形波をどのように振分けるかという制御を行う。これらデータのうち第1出力端子121Aへ向かうものは、信号線123Aを通って、第2出力端子121Bへ向かうものは、信号線123Bを通って、それぞれ第1出力端子121A又は第2出力端子121Bへ向かう。
なお、以下の関係は逆でも構わないが、この実施形態では、第1出力端子121Aから出力されるのが第1フレーム群のフレームのデータであり、第2出力端子121Bから出力されるのが第2フレーム群のデータである。第1フレーム群のフレームのデータ、第2フレーム群のフレームのデータとも、それに含まれるフレームのデータによってディスプレイD1又はディスプレイD2に表示されたフレームを連続してみたユーザがそれを動画として認識できるようになっている。また、第1フレーム群のフレームのデータに含まれるデータに対応するフレームと、第2フレーム群のフレームのデータに含まれるデータに対応するフレームには重複するものがないようになっている。
出力制御部123は、ビデオ信号中のどの矩形波に対応するデータを第1フレーム群のフレームのデータに含め、どの矩形波に対応するデータを第2フレーム群のフレームのデータに含めるかを、第1垂直同期信号検出部122から伝えられた、第1垂直同期信号検出部122が垂直同期信号を検出した上述のタイミングに基づいて、制御する。その制御方法については、後述する。
出力制御部123は、2つのメモリ126A、126Bを備えている。メモリ126A、126Bはそれぞれ、第1フレーム群のフレームのデータと第2フレーム群のフレームのデータに振分けられた後の、ディスプレイD1、D2に表示される画像についての最新の1フレーム分のデータを、次のフレームのデータが来るまで保持するものである。
なお、信号線123Aからは信号線123A1が、信号線123Bからは信号線123B1がそれぞれ分岐しており、信号線123A1と、信号線123B1はともに、記録部124に接続されている。記録部124は、ハードディスクドライブ、RAMなどのビデオプロセッサボックス120に内蔵の記録媒体か、或いはDVD、メモリカードなどのビデオプロセッサボックス120に対して着脱自在な記録媒体を含んでいる。記録部124は、信号線123A1を介して受取った第1フレーム群のフレームのデータと、信号線123B1を介して受取った第2フレーム群のフレームのデータとを、別個にそれぞれ記録する。
記録部124には、また、記録部124に記録された第1フレーム群のフレームのデータを信号線123A1、信号線123Aを介して第1出力端子121Aから出力する制御、及び記録部124に記録された第2フレーム群のフレームのデータを信号線123B1、信号線123Bを介して第2出力端子121Bから出力する制御を行う記録制御部125が接続されている。これにより、記録部124に記録された第1フレーム群のフレームのデータ、及び第2フレーム群のフレームのデータは、ビデオカメラでの撮像が行なわれた後のユーザが希望した任意の時に、ユーザが希望するディスプレイに出力できるようになっている。かかる出力は、例えば、ビデオプロセッサボックス120に設けられているかビデオプロセッサボックス120に接続されている所定の入力装置(スイッチ、テンキー、キーボード等)の操作により記録制御部125が行う。なお、記録制御部125は、記録部124に第1フレーム群のフレームのデータ、及び第2フレーム群のフレームのデータを記録させるか否かの制御を行うようになっていても良い。そのような制御を記録制御部125が行なわない場合には、記録部124は、常に第1フレーム群のフレームのデータ、及び第2フレーム群のフレームのデータを記録するようになっていてもよい。
なお、記録部124が可搬の記録媒体を含んでいるのであれば、ユーザはその可搬の記録媒体に記録された第1フレーム群のフレームのデータ又は第2フレーム群のフレームのデータを、そのデータを可搬の記録媒体から読み取り可能な機器(例えば、適当な動画再生装置やパーソナルコンピュータ)と接続した所望のディスプレイで再生することができる。
記録部124には、また、記録部124に記録された第1フレーム群のフレームのデータを信号線123A1、信号線123Aを介して第1出力端子121Aから出力する制御、及び記録部124に記録された第2フレーム群のフレームのデータを信号線123B1、信号線123Bを介して第2出力端子121Bから出力する制御を行う記録制御部125が接続されている。これにより、記録部124に記録された第1フレーム群のフレームのデータ、及び第2フレーム群のフレームのデータは、ビデオカメラでの撮像が行なわれた後のユーザが希望した任意の時に、ユーザが希望するディスプレイに出力できるようになっている。かかる出力は、例えば、ビデオプロセッサボックス120に設けられているかビデオプロセッサボックス120に接続されている所定の入力装置(スイッチ、テンキー、キーボード等)の操作により記録制御部125が行う。なお、記録制御部125は、記録部124に第1フレーム群のフレームのデータ、及び第2フレーム群のフレームのデータを記録させるか否かの制御を行うようになっていても良い。そのような制御を記録制御部125が行なわない場合には、記録部124は、常に第1フレーム群のフレームのデータ、及び第2フレーム群のフレームのデータを記録するようになっていてもよい。
なお、記録部124が可搬の記録媒体を含んでいるのであれば、ユーザはその可搬の記録媒体に記録された第1フレーム群のフレームのデータ又は第2フレーム群のフレームのデータを、そのデータを可搬の記録媒体から読み取り可能な機器(例えば、適当な動画再生装置やパーソナルコンピュータ)と接続した所望のディスプレイで再生することができる。
次に、この内視鏡100の使用方法、及び動作について説明する。
内視鏡100を用いるには、スコープ部110を患者の体内に挿入する。これには限られないが、この実施形態では、スコープ部110の先端の撮像部130が患者の胃に届くまで、口から食道を経て胃まで、スコープ部110を挿入することとする。そして、スコープ部110を胃まで挿入しながら、撮像が行なわれる。撮像の対象となるのは、食道、胃の内表面であり、これらが撮像の対象となる対象物となる。
内視鏡100を用いるには、スコープ部110を患者の体内に挿入する。これには限られないが、この実施形態では、スコープ部110の先端の撮像部130が患者の胃に届くまで、口から食道を経て胃まで、スコープ部110を挿入することとする。そして、スコープ部110を胃まで挿入しながら、撮像が行なわれる。撮像の対象となるのは、食道、胃の内表面であり、これらが撮像の対象となる対象物となる。
撮像部130は、対象物を撮像する。
より詳細には、撮像部130内の撮像素子136が、第3孔131Cに嵌められた偏光板132Cとレンズ135を介して対象物から来る像光を撮像する。
第1光源133Aと、第2光源133Bとは交互に点灯、消灯を繰り返す。撮像素子136が撮像を行うときには、第1光源133A、第2光源133Bのいずれかが点灯している。第1光源133Aと、第2光源133Bが点灯しているときに撮像素子136で撮像される画像は以下のようなものとなる。
より詳細には、撮像部130内の撮像素子136が、第3孔131Cに嵌められた偏光板132Cとレンズ135を介して対象物から来る像光を撮像する。
第1光源133Aと、第2光源133Bとは交互に点灯、消灯を繰り返す。撮像素子136が撮像を行うときには、第1光源133A、第2光源133Bのいずれかが点灯している。第1光源133Aと、第2光源133Bが点灯しているときに撮像素子136で撮像される画像は以下のようなものとなる。
まず、第1光源133Aが点灯している場合には、図5に示したような像光が撮像される。なお、図5(A)は対象物の表面で反射する表面反射光を、図5(B)は対象物の表面から若干対象物に入って反射する内部反射光の振る舞いを示している。また、太線の○印の中に引かれた直線は当該部分における照明光又は像光の偏光の方向を示しており、○印の中に四方八方に線が引かれているのは当該部分における照明光又は像光の偏光が乱れている(例えば自然光化している。)ことを示している。以下も同様である。
第1光源133Aから出た照明光は、第1偏光板132Aを通過する。なお、第1偏光板132Aの偏光の向きは便宜上斜線の向きに等しいものとする。以下も同様である。第1偏光板132Aを通過すると、照明光は、左右方向に振動する直線偏光になる。ここまでは、図5(A)、(B)で共通である。
第1偏光板132Aを通過した照明光である第1照明光は、対象物Xに当たり、対象物Xからの像光となる。対象物Xの表面で反射した第1照明光は、その偏光状態が維持されたままである。この像光は、第1偏光板132Aと偏光の向きが直交する偏光板132Cに遮断され、撮像素子136には届かない(図5(A))。他方、対象物Xの中に若干入り込んで反射してきた像光は、その偏光状態が乱れている。この像光は、その中に含まれる偏光板132Cと偏光の方向が一致する成分が偏光板132Cを通過するので、少なくともその半分程度が偏光板132Cを通過する(図5(B))。
結果として、第1光源133Aが点灯しているときは、表面反射光のない対象物の艶消しの画像が得られることになる。
なお、この実施形態では、第1光源133Aと、第2光源133Bは、内視鏡の用途を考えると白色光を照明光として照射するものであることが好ましい。この実施形態における、第1光源133Aと、第2光源133Bのうち少なくとも第1光源133Aは、第1偏光板132Aと、偏光板132Cを透過する光の消光比が90%以上となる波長領域に含まれる波長の光しか含んでいない。より好ましくは、この実施形態では、第1光源133Aは、光の消光比が100%となる波長領域に含まれる波長の光しか含んでいない。それは、例えば、第1光源133Aを、そのような波長領域に含まれる光を発する微細な光源を複数集めてなるLEDにより構成することにより実現できる。特定の幾つかの波長の光を混合した光を白色光か或いはそれに近い光として用いる(少なくとも人間の目にそう見せる)ことは可能であるが、上述のような第1光源133Aを用いると、得られる動画における色の再現性が良くなる。なお、この実施形態では、第2光源133Bも第1光源133Aと同じものとされている。
第1光源133Aから出た照明光は、第1偏光板132Aを通過する。なお、第1偏光板132Aの偏光の向きは便宜上斜線の向きに等しいものとする。以下も同様である。第1偏光板132Aを通過すると、照明光は、左右方向に振動する直線偏光になる。ここまでは、図5(A)、(B)で共通である。
第1偏光板132Aを通過した照明光である第1照明光は、対象物Xに当たり、対象物Xからの像光となる。対象物Xの表面で反射した第1照明光は、その偏光状態が維持されたままである。この像光は、第1偏光板132Aと偏光の向きが直交する偏光板132Cに遮断され、撮像素子136には届かない(図5(A))。他方、対象物Xの中に若干入り込んで反射してきた像光は、その偏光状態が乱れている。この像光は、その中に含まれる偏光板132Cと偏光の方向が一致する成分が偏光板132Cを通過するので、少なくともその半分程度が偏光板132Cを通過する(図5(B))。
結果として、第1光源133Aが点灯しているときは、表面反射光のない対象物の艶消しの画像が得られることになる。
なお、この実施形態では、第1光源133Aと、第2光源133Bは、内視鏡の用途を考えると白色光を照明光として照射するものであることが好ましい。この実施形態における、第1光源133Aと、第2光源133Bのうち少なくとも第1光源133Aは、第1偏光板132Aと、偏光板132Cを透過する光の消光比が90%以上となる波長領域に含まれる波長の光しか含んでいない。より好ましくは、この実施形態では、第1光源133Aは、光の消光比が100%となる波長領域に含まれる波長の光しか含んでいない。それは、例えば、第1光源133Aを、そのような波長領域に含まれる光を発する微細な光源を複数集めてなるLEDにより構成することにより実現できる。特定の幾つかの波長の光を混合した光を白色光か或いはそれに近い光として用いる(少なくとも人間の目にそう見せる)ことは可能であるが、上述のような第1光源133Aを用いると、得られる動画における色の再現性が良くなる。なお、この実施形態では、第2光源133Bも第1光源133Aと同じものとされている。
他方、第2光源133Bが点灯している場合には、図6に示したような像光が撮像される。なお、図6(A)は対象物の表面で反射する表面反射光を、図6(B)は対象物の表面から若干対象物に入って反射する内部反射光の振る舞いを示している。
第2光源133Bから出た照明光は、封止板132Bを通過する。封止板132Bを通過しても、照明光は偏光化されない。ここまでは、図6(A)、(B)で共通である。
封止板132Bを通過した照明光である第2照明光は、対象物Xに当たり、対象物Xからの像光となる。もとより偏光でないので、対象物Xの表面で反射してきた像光も、対象物Xの中に若干入り込んで反射してきた像光も、その偏光状態が乱れている。これら像光はともに、その中に含まれる偏光板132Cと偏光の方向が一致する成分が偏光板132Cを通過するので、少なくともその半分程度が偏光板132Cを通過する。
結果として、第2光源133Bが点灯しているときは、表面反射光も内部反射光も撮像されるので、対象物の艶有りの画像が得られることになる。
第2光源133Bから出た照明光は、封止板132Bを通過する。封止板132Bを通過しても、照明光は偏光化されない。ここまでは、図6(A)、(B)で共通である。
封止板132Bを通過した照明光である第2照明光は、対象物Xに当たり、対象物Xからの像光となる。もとより偏光でないので、対象物Xの表面で反射してきた像光も、対象物Xの中に若干入り込んで反射してきた像光も、その偏光状態が乱れている。これら像光はともに、その中に含まれる偏光板132Cと偏光の方向が一致する成分が偏光板132Cを通過するので、少なくともその半分程度が偏光板132Cを通過する。
結果として、第2光源133Bが点灯しているときは、表面反射光も内部反射光も撮像されるので、対象物の艶有りの画像が得られることになる。
上述のような理屈で、第1光源133Aが点灯しているときは艶消しの、第2光源133Bが点灯しているときは艶有の画像が得られることになる。そして、これら画像がどのように動画になるかという点について説明する。
上述したように、撮像素子136は、図4に示したようなビデオ信号vを出力する。ビデオ信号vには、垂直同期信号vsyncが含まれている。
ビデオ信号vは、第2垂直同期信号検出部137に送られる。第2垂直同期信号検出部137は、ビデオ信号vに含まれている垂直同期信号vsyncを検出し、そのタイミングを照明切換部134に伝える。照明切換部134は、第2垂直同期信号検出部137から伝えられた垂直同期信号のタイミングに基づいて第1光源133Aと第2光源133Bの点灯、消灯の制御を行う。
他方、ビデオ信号vは、信号線137Aを介して第1垂直同期信号検出部122に送られる。第1垂直同期信号検出部122は、第2垂直同期信号検出部137と同様に垂直同期信号vsyncを検出し、そのタイミングを出力制御部123に伝える。第2垂直同期信号検出部137と第1垂直同期信号検出部122は、同時に垂直同期信号vsyncを検出するので、そのタイミングを伝えられる照明切換部134と出力制御部123のそれぞれが行う処理を、同期したものとすることが可能となる。
ビデオ信号vは、第2垂直同期信号検出部137に送られる。第2垂直同期信号検出部137は、ビデオ信号vに含まれている垂直同期信号vsyncを検出し、そのタイミングを照明切換部134に伝える。照明切換部134は、第2垂直同期信号検出部137から伝えられた垂直同期信号のタイミングに基づいて第1光源133Aと第2光源133Bの点灯、消灯の制御を行う。
他方、ビデオ信号vは、信号線137Aを介して第1垂直同期信号検出部122に送られる。第1垂直同期信号検出部122は、第2垂直同期信号検出部137と同様に垂直同期信号vsyncを検出し、そのタイミングを出力制御部123に伝える。第2垂直同期信号検出部137と第1垂直同期信号検出部122は、同時に垂直同期信号vsyncを検出するので、そのタイミングを伝えられる照明切換部134と出力制御部123のそれぞれが行う処理を、同期したものとすることが可能となる。
この実施形態では、出力制御部123は、図4に示したように、タイミング信号が検出されたとの通知を第1垂直同期信号検出部122から受取った瞬間毎に、スイッチングを行い、信号線122Bを介して受取ったビデオ信号v中の各矩形波を1つずつ、信号線123Aと信号線123Bに交互に振り分けていく。図4では、信号線123Aに振分けられる矩形波の上に「1」の表示を、信号線123Bに振分けられる矩形波の上に「2」の表示をしている。信号線123Aから第1出力端子121A、ケーブルC1を介してディスプレイD1に向かうビデオ信号が、第1フレーム群に含まれることになるフレームのデータとなり、信号線123Bから第2出力端子121B、ケーブルC2を介してディスプレイD2に向かうビデオ信号が、第2フレーム群に含まれることになるフレームのデータとなる。
このようなデータの振分けは、概念的には、図3に示したように、ビデオ信号vを出力制御部123に送ってくる信号線122Bを、スイッチ123Sにより、交互に信号線123Aと信号線123Bに接続することにより実現可能である。そのようなスイッチ123Sの切換は、例えばフリップフロップ回路を用いることにより実現可能である。
このようなデータの振分けは、概念的には、図3に示したように、ビデオ信号vを出力制御部123に送ってくる信号線122Bを、スイッチ123Sにより、交互に信号線123Aと信号線123Bに接続することにより実現可能である。そのようなスイッチ123Sの切換は、例えばフリップフロップ回路を用いることにより実現可能である。
出力制御部123の上述の処理により生成される、信号線123Aから第1出力端子121A、ケーブルC1を介してディスプレイD1に向かうビデオ信号と、信号線123Bから第2出力端子121B、ケーブルC2を介してディスプレイD2に向かうビデオ信号はともに、元のビデオ信号vで再生される動画から半分フレームが落ちた動画をディスプレイD1又はディスプレイD2に表示させるものとなる。言い換えれば、それらは共に、元のビデオ信号vで再生される動画のフレームレートが半分になった動画をディスプレイD1又はディスプレイD2に表示させるようなビデオ信号となる。
上述の処理が行われているのと同時に、第2垂直同期信号検出部137から垂直同期信号を検出したタイミングを通知された照明切換部134は、以下のように動作する。照明切換部134は、タイミング信号が検出されたとの通知を第2垂直同期信号検出部137から受取る毎に、例えばその通知を受取った瞬間に、スイッチングを行い、第1光源133Aと第2光源133Bを交互に点灯、消灯させる。具体的には、図4で示された矩形波のうち信号線123Aに振分けられるもの(つまり第1フレーム群に振分けられるフレーム)が撮像されているときは第1光源133Aが点灯して第2光源133Bが消灯した状態となり、図4で示された矩形波のうち信号線123Bに振分けられるもの(つまり第2フレーム群に振分けられるフレーム)が撮像されているときは第2光源133Bが点灯して第1光源133Aが消灯した状態となるように、第1光源133Aと第2光源133Bを制御する。これもスイッチの切換により実現できるが、そのようなスイッチの切換は、例えばフリップフロップ回路を用いることにより実現可能である。
これにより、第1フレーム群に振分けられるフレームが撮像素子136によって撮像される場合には第1光源133Aが点灯し、第2フレーム群に振分けられるフレームが撮像素子136によって撮像される場合には第2光源133Bが点灯することになる。つまり、第1フレーム群に振分けられるフレームのデータによってディスプレイD1に表示される動画は艶消しの動画となり、第2フレーム群に振分けられるフレームのデータによってディスプレイD2に表示される動画は艶有りの動画となる。
医師はそれら2種類の動画をまとめて見ることにより、より正確な診断を行うことができるようになる。
これにより、第1フレーム群に振分けられるフレームが撮像素子136によって撮像される場合には第1光源133Aが点灯し、第2フレーム群に振分けられるフレームが撮像素子136によって撮像される場合には第2光源133Bが点灯することになる。つまり、第1フレーム群に振分けられるフレームのデータによってディスプレイD1に表示される動画は艶消しの動画となり、第2フレーム群に振分けられるフレームのデータによってディスプレイD2に表示される動画は艶有りの動画となる。
医師はそれら2種類の動画をまとめて見ることにより、より正確な診断を行うことができるようになる。
なお、撮像素子136の種類によっては、あるフレームの撮像を行なってからそのフレームのデータを出力するまでに若干の遅延を生じる場合がある。そのような遅延があると、第2垂直同期信号検出部137が垂直同期信号を検出するタイミングと、実際に撮像素子136が撮像を行うタイミングとにずれが生じる可能性がある。これは、撮像素子136が撮像を行うタイミングと、第1光源133Aと第2光源133Bの点灯、消灯のタイミングにずれが生じることを意味する。そのような場合には、第2垂直同期信号検出部137から照明切換部134までの間か、照明切換部134の内部に、撮像素子136があるフレームを撮像してからそのフレームのデータを出力するまでに生じる上述の遅延の時間分だけ照明の切換のタイミングを遅らせるための機構を設けておけばよい。例えば、所定の信号を上述の遅延の時間分だけ遅延させる遅延回路を設けておけば、それは容易に実現可能である。
なお、記録部124には、第1フレーム群のフレームのデータと第2フレーム群のフレームのデータが記録される。これらデータを用いて、ディスプレイD1とディスプレイD2に、リアルタイムで見られた上記2種類の動画をそれぞれ好きなときに表示させることもできるし、同じ動画を他のディスプレイに好きなときに表示させることも可能である。
<変形例1>
変形例1のビデオカメラは内視鏡であり、その殆どの部分は第1実施形態の内視鏡と変わらない。
異なるのは以下の点のみである。
第1実施形態における撮像素子は、プログレッシブ方式の描画をディスプレイD1、D2(以下、単に「D」とする場合がある。)にさせることができるようなビデオ信号を出力するものとなっていた。これに対しこの実施形態における撮像素子は、インタレース方式での描画をディスプレイDにさせることができるようなビデオ信号を出力する。
ビデオ信号vは、図7に示したような波形となる。
ビデオ信号vに含まれる各矩形波は、第1実施形態のものとは異なり、ディスプレイDの1フレーム分の画像ではなく、その奇数行目又は偶数行目の画像である。図7中Oの符号が付されている矩形波がディスプレイDの奇数行目の走査線に対応するデータであり、Eの符号が付されている矩形波がディスプレイDの偶数行目の走査線に対応するデータである。データOとデータEが一組となって、ディスプレイDの走査線の奇数行目と偶数行目の描画がなされる。つまり、この変形例ではデータOとデータEが一組となって1フレーム分のデータとなる。
図示を省略するが、ビデオ信号vに含まれる各矩形波には、ディスプレイDの奇数行目の走査線に対応するデータOにも、ディスプレイDの偶数行目の走査線に対応するデータEにも、第1実施形態のビデオ信号vに含まれていたのと同様の垂直同期信号が含まれている。
変形例1のビデオカメラは内視鏡であり、その殆どの部分は第1実施形態の内視鏡と変わらない。
異なるのは以下の点のみである。
第1実施形態における撮像素子は、プログレッシブ方式の描画をディスプレイD1、D2(以下、単に「D」とする場合がある。)にさせることができるようなビデオ信号を出力するものとなっていた。これに対しこの実施形態における撮像素子は、インタレース方式での描画をディスプレイDにさせることができるようなビデオ信号を出力する。
ビデオ信号vは、図7に示したような波形となる。
ビデオ信号vに含まれる各矩形波は、第1実施形態のものとは異なり、ディスプレイDの1フレーム分の画像ではなく、その奇数行目又は偶数行目の画像である。図7中Oの符号が付されている矩形波がディスプレイDの奇数行目の走査線に対応するデータであり、Eの符号が付されている矩形波がディスプレイDの偶数行目の走査線に対応するデータである。データOとデータEが一組となって、ディスプレイDの走査線の奇数行目と偶数行目の描画がなされる。つまり、この変形例ではデータOとデータEが一組となって1フレーム分のデータとなる。
図示を省略するが、ビデオ信号vに含まれる各矩形波には、ディスプレイDの奇数行目の走査線に対応するデータOにも、ディスプレイDの偶数行目の走査線に対応するデータEにも、第1実施形態のビデオ信号vに含まれていたのと同様の垂直同期信号が含まれている。
変形例1では、ビデオ信号vが上述のようなものであることを前提としつつ、以下の2通りの処理が実現可能である。
1通り目の処理は以下のようなものである。
1通り目の処理は、変形例1におけるデータOとデータEのそれぞれを、第1実施形態における矩形波にそれぞれ対応したものとして取扱うというものである(図7(B))。この場合には、第1垂直同期信号検出部122、出力制御部123、第2垂直同期信号検出部137、照明切換部134で行なわれる処理はすべて第1実施形態の場合と同じになる。ただしその結果得られる第1フレーム群に含まれることになるフレームのデータは、それがディスプレイD1に表示させる動画が、ビデオ信号vにより動画を表示させたときと比較してフレームレートが半分になった動画となるようなデータではなく、それがディスプレイD1に表示させる動画が、ビデオ信号vにより動画を表示させたときと比較して走査線数(或いは画素数)が半分になった動画となるようなデータとなる。
他方、2通り目の処理は以下のようなものである。
2通り目の処理は、変形例1におけるデータOとデータEを一纏めにしたものを、第1実施形態における矩形波にそれぞれ対応したものとして取扱うというものである(図7(A))。この場合には、出力制御部123と、照明切換部134は垂直同期信号が2回検出される毎に、第1実施形態で説明したスイッチングの処理を実行することになる。これは例えば、第1垂直同期信号検出部122と、第2垂直同期信号検出部137をともに、垂直同期信号を2回検出する毎に第1実施形態で説明した垂直同期信号を検出したという通知を出力制御部123又は照明切換部134に送るようにするとともに、出力制御部123及び照明切換部134がその通知を受取る毎に第1実施形態で述べたスイッチングの処理を実行するようにするか、或いは、第1垂直同期信号検出部122と、第2垂直同期信号検出部137を、垂直同期信号を検出する毎に垂直同期信号を検出したという通知を送出するようにするとともに、出力制御部123及び照明切換部134を、その通知を2回受取る毎に第1実施形態で述べたスイッチングの処理を実行するようにすることにより、実現可能である。また、これらはいずれも、信号の数を2までカウントできるカウンタとカウンタのカウントに従い出力制御部123及び照明切換部134又は第1垂直同期信号検出部122及び第2垂直同期信号検出部137の動作を変更させる手段を第1垂直同期信号検出部122及び第2垂直同期信号検出部137か、出力制御部123及び照明切換部134に適宜配するだけで容易に実現可能である。
1通り目の処理は以下のようなものである。
1通り目の処理は、変形例1におけるデータOとデータEのそれぞれを、第1実施形態における矩形波にそれぞれ対応したものとして取扱うというものである(図7(B))。この場合には、第1垂直同期信号検出部122、出力制御部123、第2垂直同期信号検出部137、照明切換部134で行なわれる処理はすべて第1実施形態の場合と同じになる。ただしその結果得られる第1フレーム群に含まれることになるフレームのデータは、それがディスプレイD1に表示させる動画が、ビデオ信号vにより動画を表示させたときと比較してフレームレートが半分になった動画となるようなデータではなく、それがディスプレイD1に表示させる動画が、ビデオ信号vにより動画を表示させたときと比較して走査線数(或いは画素数)が半分になった動画となるようなデータとなる。
他方、2通り目の処理は以下のようなものである。
2通り目の処理は、変形例1におけるデータOとデータEを一纏めにしたものを、第1実施形態における矩形波にそれぞれ対応したものとして取扱うというものである(図7(A))。この場合には、出力制御部123と、照明切換部134は垂直同期信号が2回検出される毎に、第1実施形態で説明したスイッチングの処理を実行することになる。これは例えば、第1垂直同期信号検出部122と、第2垂直同期信号検出部137をともに、垂直同期信号を2回検出する毎に第1実施形態で説明した垂直同期信号を検出したという通知を出力制御部123又は照明切換部134に送るようにするとともに、出力制御部123及び照明切換部134がその通知を受取る毎に第1実施形態で述べたスイッチングの処理を実行するようにするか、或いは、第1垂直同期信号検出部122と、第2垂直同期信号検出部137を、垂直同期信号を検出する毎に垂直同期信号を検出したという通知を送出するようにするとともに、出力制御部123及び照明切換部134を、その通知を2回受取る毎に第1実施形態で述べたスイッチングの処理を実行するようにすることにより、実現可能である。また、これらはいずれも、信号の数を2までカウントできるカウンタとカウンタのカウントに従い出力制御部123及び照明切換部134又は第1垂直同期信号検出部122及び第2垂直同期信号検出部137の動作を変更させる手段を第1垂直同期信号検出部122及び第2垂直同期信号検出部137か、出力制御部123及び照明切換部134に適宜配するだけで容易に実現可能である。
<変形例2>
変形例2のビデオカメラは内視鏡であり、その殆どの部分は第1実施形態の内視鏡と変わらない。
異なるのは以下の点のみである。
第1実施形態の出力制御部123は、図4に示したように、タイミング信号が検出されたとの通知を第1垂直同期信号検出部122から受取った瞬間毎に、スイッチ123Sのスイッチングを行い、信号線122Bを介して受取ったビデオ信号v中の各矩形波を1つずつ、信号線123Aと信号線123Bに交互に振り分けていくようになっていた。つまり、第1実施形態では、矩形波に対応するすべてのフレームを捨てることなく、第1フレーム群又は第2フレーム群に交互に振り分けることとしていた。
これに対し、この変形例の内視鏡の出力制御部123は、タイミング信号が検出されたとの通知を第1垂直同期信号検出部122から受取った瞬間のすべてでスイッチングを行うことはせず、ビデオ信号vに含まれる矩形波を、例えば、図8の(A)~(C)のように信号線123Aと信号線123Bに振分けるようになっている。
変形例2のビデオカメラは内視鏡であり、その殆どの部分は第1実施形態の内視鏡と変わらない。
異なるのは以下の点のみである。
第1実施形態の出力制御部123は、図4に示したように、タイミング信号が検出されたとの通知を第1垂直同期信号検出部122から受取った瞬間毎に、スイッチ123Sのスイッチングを行い、信号線122Bを介して受取ったビデオ信号v中の各矩形波を1つずつ、信号線123Aと信号線123Bに交互に振り分けていくようになっていた。つまり、第1実施形態では、矩形波に対応するすべてのフレームを捨てることなく、第1フレーム群又は第2フレーム群に交互に振り分けることとしていた。
これに対し、この変形例の内視鏡の出力制御部123は、タイミング信号が検出されたとの通知を第1垂直同期信号検出部122から受取った瞬間のすべてでスイッチングを行うことはせず、ビデオ信号vに含まれる矩形波を、例えば、図8の(A)~(C)のように信号線123Aと信号線123Bに振分けるようになっている。
図8(A)の例は、ビデオ信号vに含まれる各矩形波を、「第1フレーム群」、「捨てる」(矩形波の上に「1」、「2」の記載がないもの)、「第2フレーム群」、「捨てる」、「第1フレーム群」、「捨てる」、「第2フレーム群」、「捨てる」…、の順番で信号線123Aと信号線123Bに振分けるものとなっている。つまり、図8(A)の例では、その出力制御部123が、ビデオ信号vに含まれる多数のフレームについてのデータから、一定の枚数置き(より正確には3枚置き)のフレームについてのデータを抜き出して第1フレーム群に含まれるフレームのデータとするとともに、第1フレーム群に含まれないフレームについてのデータから一定の枚数置き(より正確には3枚置き)のフレームについてのデータを抜き出して第2フレーム群に含まれるフレームのデータとするようになっている。
図8(B)の例は、ビデオ信号vに含まれる各矩形波を、「第1フレーム群」、「第2フレーム群」、「捨てる」、「第1フレーム群」、「第2フレーム群」、「捨てる」…、の順番で、信号線123Aと信号線123Bに振分けるものとなっている。つまり、図8(B)の例では、その出力制御部123が、ビデオ信号vに含まれる多数のフレームについてのデータから、一定の枚数置き(より正確には2枚置き)のフレームについてのデータを抜き出して第1フレーム群に含まれるフレームのデータとするとともに、第1フレーム群に含まれないフレームについてのデータから一定の枚数置き(より正確には2枚置き)のフレームについてのデータを抜き出して第2フレーム群に含まれるフレームのデータとするようになっている。
図8(A)、図8(B)の例はいずれも、ビデオ信号vに含まれる多数のフレームについてのデータの一部を捨てる場合であり、ビデオ信号vがインタレース方式の描画をディスプレイDにさせるものであり、且つ変形例1におけるデータOとデータEのそれぞれを、第1実施形態における矩形波にそれぞれ対応したものとして取扱うのでなければ、第1フレーム群のフレームのデータ又は第2フレーム群のフレームのデータにより描画されることになる動画のフレームレートは、元のビデオ信号vによって描画されることになる動画のフレームレートの半分未満となる。
これらにおいて出力制御部123でスイッチ123Sが行うスイッチングはそれぞれ、図8(A)の場合であれば、「信号線122Bを信号線123Aと接続」、「信号線122Bを信号線123Aと信号線123Bのいずれにも接続しない」、「信号線122Bを信号線123Bと接続」、「信号線122Bを信号線123Aと信号線123Bのいずれにも接続しない」、「信号線122Bを信号線123Aと接続」、「信号線122Bを信号線123Aと信号線123Bのいずれにも接続しない」、「信号線122Bを信号線123Bと接続」、「信号線122Bを信号線123Aと信号線123Bのいずれにも接続しない」…という処理を繰り返すものとなる。図8(B)の場合であれば、「信号線122Bを信号線123Aと接続」、「信号線122Bを信号線123Bと接続」、「信号線122Bを信号線123Aと信号線123Bのいずれにも接続しない」、「信号線122Bを信号線123Aと接続」、「信号線122Bを信号線123Bと接続」、「信号線122Bを信号線123Aと信号線123Bのいずれにも接続しない」…という処理を繰り返すものとなる。
このようなスイッチ123Sのスイッチングは、カウンタ等を適宜用いれば周知技術により実現可能である。
図8(B)の例は、ビデオ信号vに含まれる各矩形波を、「第1フレーム群」、「第2フレーム群」、「捨てる」、「第1フレーム群」、「第2フレーム群」、「捨てる」…、の順番で、信号線123Aと信号線123Bに振分けるものとなっている。つまり、図8(B)の例では、その出力制御部123が、ビデオ信号vに含まれる多数のフレームについてのデータから、一定の枚数置き(より正確には2枚置き)のフレームについてのデータを抜き出して第1フレーム群に含まれるフレームのデータとするとともに、第1フレーム群に含まれないフレームについてのデータから一定の枚数置き(より正確には2枚置き)のフレームについてのデータを抜き出して第2フレーム群に含まれるフレームのデータとするようになっている。
図8(A)、図8(B)の例はいずれも、ビデオ信号vに含まれる多数のフレームについてのデータの一部を捨てる場合であり、ビデオ信号vがインタレース方式の描画をディスプレイDにさせるものであり、且つ変形例1におけるデータOとデータEのそれぞれを、第1実施形態における矩形波にそれぞれ対応したものとして取扱うのでなければ、第1フレーム群のフレームのデータ又は第2フレーム群のフレームのデータにより描画されることになる動画のフレームレートは、元のビデオ信号vによって描画されることになる動画のフレームレートの半分未満となる。
これらにおいて出力制御部123でスイッチ123Sが行うスイッチングはそれぞれ、図8(A)の場合であれば、「信号線122Bを信号線123Aと接続」、「信号線122Bを信号線123Aと信号線123Bのいずれにも接続しない」、「信号線122Bを信号線123Bと接続」、「信号線122Bを信号線123Aと信号線123Bのいずれにも接続しない」、「信号線122Bを信号線123Aと接続」、「信号線122Bを信号線123Aと信号線123Bのいずれにも接続しない」、「信号線122Bを信号線123Bと接続」、「信号線122Bを信号線123Aと信号線123Bのいずれにも接続しない」…という処理を繰り返すものとなる。図8(B)の場合であれば、「信号線122Bを信号線123Aと接続」、「信号線122Bを信号線123Bと接続」、「信号線122Bを信号線123Aと信号線123Bのいずれにも接続しない」、「信号線122Bを信号線123Aと接続」、「信号線122Bを信号線123Bと接続」、「信号線122Bを信号線123Aと信号線123Bのいずれにも接続しない」…という処理を繰り返すものとなる。
このようなスイッチ123Sのスイッチングは、カウンタ等を適宜用いれば周知技術により実現可能である。
他方、図8(C)の例は、ビデオ信号vに含まれる各矩形波を、「第1フレーム群」、「第2フレーム群」、「第1フレーム群」、「第1フレーム群」、「第2フレーム群」、「第1フレーム群」、「捨てる」、「第1フレーム群」、「第2フレーム群」、「第1フレーム群」、…、の順番で、信号線123Aと信号線123Bに振分けるものとなっている。この場合には、第1フレーム群に振分けられたフレームのフレームレート、第2フレーム群に振分けられたフレームのフレームレートともに時間により変化することになる。
したがってこの例はそれほど有用ではない。本願発明によればこのような変形例も実現可能であるということである。
したがってこの例はそれほど有用ではない。本願発明によればこのような変形例も実現可能であるということである。
<変形例3>
変形例3のビデオカメラは内視鏡であり、その殆どの部分は第1実施形態の内視鏡と変わらない。
異なるのは以下の点のみである。
第1実施形態では、第2光源133Bの前にはそれを通過する光の偏光状態に影響を与えない封止板132Bが存在した。変形例3ではこの封止板132Bが、撮像素子136の前にある偏光板132Cとその偏光方向が同じである第2偏光板132B1に置き換えられている。
この場合にも以下の理由により第1光源133Aが点灯した場合には艶消しの画像が、第2光源133Bが点灯した場合には艶有の画像が撮像素子136で撮像されることになる。
まず、第1光源133Aが点灯している場合には、図9に示したような像光が撮像される。このときの表面反射光と内部反射光の振る舞いは、図5に示した場合と変わらない。なお、図9中の各記号の意味は図5に、図10中の各記号の意味は図6にそれぞれ倣っている。
他方、第2光源133Bが点灯している場合には、図10に示したような像光が撮像される。
第2光源133Bから出た照明光は、第2偏光板132B1を通過する。第2偏光板132B1を通過した照明光は、偏光板132Cの偏光方向と同じ方向に偏光化される。ここまでは、図10(A)、(B)で共通である。
第2偏光板132B1を通過した照明光である第2照明光は、対象物Xに当たり、対象物Xからの像光となる。対象物Xの表面で反射してきた像光は偏光を保っているが、その偏光方向が偏光板132Cの偏光方向と同じであるから偏光板132Cを通過する。他方、対象物Xの中に若干入り込んで反射してきた像光は、その偏光状態が乱れている。この内部反射光による像光は、その中に含まれる偏光板132Cと偏光の方向が一致する成分が偏光板132Cを通過するので、少なくともその半分程度が偏光板132Cを通過する。
結果として、第2光源133Bが点灯しているときは、表面反射光も内部反射光も撮像されるので、対象物の艶有りの画像が得られることになる。
以上のように、封止板132Bを、それを通過した光の偏光状態に影響を与える偏光板である第2偏光板132B1に変更しても、第1実施形態と同様の2種類の動画を撮像でき、その作用効果は保たれる。第2偏光板132B1の偏光方向は、第2光源133Bが撮像されるときの画像の暗さを無視すれば、理論上、偏光板132Cとその偏光方向が直交していなければ、第2光源133Bが点灯した場合に得られる画像を艶ありの画像とすることができる。
変形例3のビデオカメラは内視鏡であり、その殆どの部分は第1実施形態の内視鏡と変わらない。
異なるのは以下の点のみである。
第1実施形態では、第2光源133Bの前にはそれを通過する光の偏光状態に影響を与えない封止板132Bが存在した。変形例3ではこの封止板132Bが、撮像素子136の前にある偏光板132Cとその偏光方向が同じである第2偏光板132B1に置き換えられている。
この場合にも以下の理由により第1光源133Aが点灯した場合には艶消しの画像が、第2光源133Bが点灯した場合には艶有の画像が撮像素子136で撮像されることになる。
まず、第1光源133Aが点灯している場合には、図9に示したような像光が撮像される。このときの表面反射光と内部反射光の振る舞いは、図5に示した場合と変わらない。なお、図9中の各記号の意味は図5に、図10中の各記号の意味は図6にそれぞれ倣っている。
他方、第2光源133Bが点灯している場合には、図10に示したような像光が撮像される。
第2光源133Bから出た照明光は、第2偏光板132B1を通過する。第2偏光板132B1を通過した照明光は、偏光板132Cの偏光方向と同じ方向に偏光化される。ここまでは、図10(A)、(B)で共通である。
第2偏光板132B1を通過した照明光である第2照明光は、対象物Xに当たり、対象物Xからの像光となる。対象物Xの表面で反射してきた像光は偏光を保っているが、その偏光方向が偏光板132Cの偏光方向と同じであるから偏光板132Cを通過する。他方、対象物Xの中に若干入り込んで反射してきた像光は、その偏光状態が乱れている。この内部反射光による像光は、その中に含まれる偏光板132Cと偏光の方向が一致する成分が偏光板132Cを通過するので、少なくともその半分程度が偏光板132Cを通過する。
結果として、第2光源133Bが点灯しているときは、表面反射光も内部反射光も撮像されるので、対象物の艶有りの画像が得られることになる。
以上のように、封止板132Bを、それを通過した光の偏光状態に影響を与える偏光板である第2偏光板132B1に変更しても、第1実施形態と同様の2種類の動画を撮像でき、その作用効果は保たれる。第2偏光板132B1の偏光方向は、第2光源133Bが撮像されるときの画像の暗さを無視すれば、理論上、偏光板132Cとその偏光方向が直交していなければ、第2光源133Bが点灯した場合に得られる画像を艶ありの画像とすることができる。
<変形例4>
変形例4のビデオカメラは内視鏡であり、その殆どの部分は第1実施形態の内視鏡と変わらない。
異なるのは以下の点のみである。
変形例4のビデオカメラの撮像部130を図11に示す。
第1実施形態のビデオカメラは第1光源133Aと第2光源133Bという2つの光源を備えていたが、変形例4では光源は、第1光源133Aのみを残している。そしてこの第1光源133Aは撮像中は点灯したままである。また、第1実施形態のビデオカメラでは第1光源133Aと第2光源133Bという2つの光源が存在していた関係上、それらの前方に第1孔131Aと第2孔131Bという2つの孔が存在していたが、第2光源133Bをなくした変形例4では第1孔131Aのみを残し、第2孔131Bをなくしている。なお、第1孔131Aには、第1偏光板132Aではなく、封止板132Bが嵌められている。
また、変形例4のビデオカメラは、液晶板138を備えている。液晶板138は、第1光源133Aから対象物までの光路上に存在する。液晶板138はそれに印加する電圧を変更することにより、偏光板として機能する第1状態と、それを透過する光の偏光状態に影響を与えない第2状態とを取ることができるようになっている。第1状態におけるその偏光方向は、偏光板132Cと直交する方向である。
また、第1実施形態の照明切換部134は、第1光源133Aと第2光源133Bの点灯、消灯の切換を行ったが、変形例4の照明切換部134は、その代わりに、液晶板138の制御を行う。具体的には、変形例4の照明切換部134は、液晶板138が所定のタイミングで、第1状態から第2状態に、又は第2状態から第1状態に変化するように、液晶板138を制御する。
変形例4のビデオカメラは内視鏡であり、その殆どの部分は第1実施形態の内視鏡と変わらない。
異なるのは以下の点のみである。
変形例4のビデオカメラの撮像部130を図11に示す。
第1実施形態のビデオカメラは第1光源133Aと第2光源133Bという2つの光源を備えていたが、変形例4では光源は、第1光源133Aのみを残している。そしてこの第1光源133Aは撮像中は点灯したままである。また、第1実施形態のビデオカメラでは第1光源133Aと第2光源133Bという2つの光源が存在していた関係上、それらの前方に第1孔131Aと第2孔131Bという2つの孔が存在していたが、第2光源133Bをなくした変形例4では第1孔131Aのみを残し、第2孔131Bをなくしている。なお、第1孔131Aには、第1偏光板132Aではなく、封止板132Bが嵌められている。
また、変形例4のビデオカメラは、液晶板138を備えている。液晶板138は、第1光源133Aから対象物までの光路上に存在する。液晶板138はそれに印加する電圧を変更することにより、偏光板として機能する第1状態と、それを透過する光の偏光状態に影響を与えない第2状態とを取ることができるようになっている。第1状態におけるその偏光方向は、偏光板132Cと直交する方向である。
また、第1実施形態の照明切換部134は、第1光源133Aと第2光源133Bの点灯、消灯の切換を行ったが、変形例4の照明切換部134は、その代わりに、液晶板138の制御を行う。具体的には、変形例4の照明切換部134は、液晶板138が所定のタイミングで、第1状態から第2状態に、又は第2状態から第1状態に変化するように、液晶板138を制御する。
照明切換部134が液晶板138の状態を変化させるタイミングは、第1実施形態の場合と同様の方法で制御でき、変形例4では、第1実施形態において第1光源133Aが点灯したのと同じ瞬間に液晶板138が第2状態から第1状態に変化し、第1実施形態において第2光源133Bが点灯したのと同じ瞬間に液晶板138が第1状態から第2状態に変化するようになっている。
液晶板138が第1状態を取っているときは、第1光源133Aから出た光は、液晶板138を透過すると、その偏光方向が偏光板132Cと直交する方向である偏光となる。このときの液晶板138は、第1実施形態における第1偏光板132Aと等価である。したがって、液晶板138を透過した第1光源133Aからの照明光である第1照明光は、その後透過するのがそれを透過する光の偏光の状態に影響を与えない封止板132Bであることもあり、第1実施形態における第1照明光と等価なものとなる。
他方、液晶板138が第2状態を取っているときは、液晶板138を透過しても、第1光源133Aから出た光は偏光していない。このときの液晶板138は、第1実施形態における封止板132Bと等価である。したがって、液晶板138を透過した第1光源133Aからの照明光である第2照明光は、第1実施形態における第2照明光と等価なものとなる。
つまり、変形例4における第1照明光、第2照明光とも第1実施形態のときのそれと変わらないので、変形例4においても、艶消しの動画と艶有りの動画を撮像できることになる。
液晶板138が第1状態を取っているときは、第1光源133Aから出た光は、液晶板138を透過すると、その偏光方向が偏光板132Cと直交する方向である偏光となる。このときの液晶板138は、第1実施形態における第1偏光板132Aと等価である。したがって、液晶板138を透過した第1光源133Aからの照明光である第1照明光は、その後透過するのがそれを透過する光の偏光の状態に影響を与えない封止板132Bであることもあり、第1実施形態における第1照明光と等価なものとなる。
他方、液晶板138が第2状態を取っているときは、液晶板138を透過しても、第1光源133Aから出た光は偏光していない。このときの液晶板138は、第1実施形態における封止板132Bと等価である。したがって、液晶板138を透過した第1光源133Aからの照明光である第2照明光は、第1実施形態における第2照明光と等価なものとなる。
つまり、変形例4における第1照明光、第2照明光とも第1実施形態のときのそれと変わらないので、変形例4においても、艶消しの動画と艶有りの動画を撮像できることになる。
<変形例5>
変形例5のビデオカメラは内視鏡であり、その殆どの部分は第1実施形態の内視鏡と変わらない。
更に言えば、変形例5のビデオカメラは、変形例4のビデオカメラにかなり近いものになっている。
変形例5のビデオカメラの撮像部130を図12に示す。
変形例5のビデオカメラは、変形例4のビデオカメラ同様、光源は、第1光源133Aのみである。そしてこの第1光源133Aは、変形例4の場合と同様、撮像中は点灯したままである。また、変形例5のビデオカメラでは、変形例4の場合と同様、第1孔131Aは残っているが、第2孔131Bはない。第1孔131Aに封止板132Bが嵌められている点も変形例4と同様である。
変形例5のビデオカメラは、また、後述するような移動を行う偏光板である移動偏光板139Aを備えている。移動偏光板139Aの偏光方向は、第1偏光板132Aと同じであり、偏光板132Cの偏光方向とは直交している。移動偏光板139Aは、実線で示した位置と、二点鎖線で示した位置との間で往復運動を行うようになっている。移動偏光板139Aは、実線で示した位置にあるときは、第1光源133Aからでる照明光の光路上に位置せず、二点鎖線で示した位置にあるときには、第1光源133Aからでる照明光の光路上に位置する。なお、両位置、及びその間で、移動偏光板139Aの偏光の方向は変化しないようになっている。
移動偏光板139Aの移動を実現するのが、移動機構139Bである。移動機構139Bは所定のフレーム等で支持された移動偏光板139Aを平行移動により往復させる。
変形例5のビデオカメラは内視鏡であり、その殆どの部分は第1実施形態の内視鏡と変わらない。
更に言えば、変形例5のビデオカメラは、変形例4のビデオカメラにかなり近いものになっている。
変形例5のビデオカメラの撮像部130を図12に示す。
変形例5のビデオカメラは、変形例4のビデオカメラ同様、光源は、第1光源133Aのみである。そしてこの第1光源133Aは、変形例4の場合と同様、撮像中は点灯したままである。また、変形例5のビデオカメラでは、変形例4の場合と同様、第1孔131Aは残っているが、第2孔131Bはない。第1孔131Aに封止板132Bが嵌められている点も変形例4と同様である。
変形例5のビデオカメラは、また、後述するような移動を行う偏光板である移動偏光板139Aを備えている。移動偏光板139Aの偏光方向は、第1偏光板132Aと同じであり、偏光板132Cの偏光方向とは直交している。移動偏光板139Aは、実線で示した位置と、二点鎖線で示した位置との間で往復運動を行うようになっている。移動偏光板139Aは、実線で示した位置にあるときは、第1光源133Aからでる照明光の光路上に位置せず、二点鎖線で示した位置にあるときには、第1光源133Aからでる照明光の光路上に位置する。なお、両位置、及びその間で、移動偏光板139Aの偏光の方向は変化しないようになっている。
移動偏光板139Aの移動を実現するのが、移動機構139Bである。移動機構139Bは所定のフレーム等で支持された移動偏光板139Aを平行移動により往復させる。
第1実施形態の照明切換部134は、第1光源133Aと第2光源133Bの点灯、消灯の切換を行ったが、変形例5の照明切換部134は、その代わりに、移動偏光板139Aの移動のタイミングを制御させるべく、移動機構139Bを制御する。具体的には、変形例5の照明切換部134は、移動偏光板139が所定のタイミングで、実線で示した位置から二点鎖線で示した位置に移動し、又は二点鎖線で示した位置から実線で示した位置に移動するように、移動機構139Bを制御する。
移動機構139Bが移動偏光板139Aを移動させるタイミングは、第1実施形態の場合と同様の方法で、照明切換部134が制御する。変形例5では、第1実施形態において第1光源133Aが点灯した時間帯に移動偏光板139Aが二点鎖線で示した位置にあり、第1実施形態において第2光源133Bが点灯した時間帯に移動偏光板139Aが実線で示した位置にあるように、照明切換部134が移動機構139Bを制御する。
移動偏光板139Aが二点鎖線で記載した位置にあるときには、第1光源133Aから出た光は、移動偏光板139Aを透過すると、その偏光方向が偏光板132Cと直交する方向である偏光となる。このときの移動偏光板139Aは、第1実施形態における第1偏光板132Aと等価である。したがって、移動偏光板139Aを透過した第1光源133Aからの照明光である第1照明光は、その後透過するのがそれを透過する光の偏光の状態に影響を与えない封止板132Bであることもあり、第1実施形態における第1照明光と等価なものとなる。
他方、移動偏光板139Aが実線で記載した位置にあるときには第1光源133Aから出た光は、封止板132Bを透過するのみであるので偏光化されない。したがって、この場合、第1光源133Aからの照明光である第2照明光は、第1実施形態における第2照明光と等価なものとなる。
つまり、変形例5における第1照明光、第2照明光とも第1実施形態のときのそれと変わらないので、変形例5においても、艶消しの動画と艶有りの動画を撮像できることになる。
移動機構139Bが移動偏光板139Aを移動させるタイミングは、第1実施形態の場合と同様の方法で、照明切換部134が制御する。変形例5では、第1実施形態において第1光源133Aが点灯した時間帯に移動偏光板139Aが二点鎖線で示した位置にあり、第1実施形態において第2光源133Bが点灯した時間帯に移動偏光板139Aが実線で示した位置にあるように、照明切換部134が移動機構139Bを制御する。
移動偏光板139Aが二点鎖線で記載した位置にあるときには、第1光源133Aから出た光は、移動偏光板139Aを透過すると、その偏光方向が偏光板132Cと直交する方向である偏光となる。このときの移動偏光板139Aは、第1実施形態における第1偏光板132Aと等価である。したがって、移動偏光板139Aを透過した第1光源133Aからの照明光である第1照明光は、その後透過するのがそれを透過する光の偏光の状態に影響を与えない封止板132Bであることもあり、第1実施形態における第1照明光と等価なものとなる。
他方、移動偏光板139Aが実線で記載した位置にあるときには第1光源133Aから出た光は、封止板132Bを透過するのみであるので偏光化されない。したがって、この場合、第1光源133Aからの照明光である第2照明光は、第1実施形態における第2照明光と等価なものとなる。
つまり、変形例5における第1照明光、第2照明光とも第1実施形態のときのそれと変わらないので、変形例5においても、艶消しの動画と艶有りの動画を撮像できることになる。
<変形例6>
変形例6のビデオカメラは内視鏡であり、その殆どの部分は第1実施形態の内視鏡と変わらない。
更に言えば、変形例6のビデオカメラは、変形例5のビデオカメラと殆ど同じものになっている。
変形例5のビデオカメラは、移動偏光板139Aの移動により、偏光である第1照明光と偏光でない第2照明光を作り出していたが、変形例6では、図13に示した複合偏光板141の回転により、偏光である第1照明光と偏光でない第2照明光を作り出すこととしている。
複合偏光板141は、中心角90度の扇形形状をした偏光板141Aと、それを透過した光の偏光方向に影響を与えない、中心角90度の扇形形状をした透過板141Bとを互い違いに2枚ずつ組合せて円形としたものである。複合偏光板141はその中心を貫く軸142に固定されている。軸142は、軸142を回転させるアクチュエータ143に接続されており、アクチュエータ143により回転させられる。それにより複合偏光板141は軸142周りに例えば一方向で回転する。
変形例6のビデオカメラは内視鏡であり、その殆どの部分は第1実施形態の内視鏡と変わらない。
更に言えば、変形例6のビデオカメラは、変形例5のビデオカメラと殆ど同じものになっている。
変形例5のビデオカメラは、移動偏光板139Aの移動により、偏光である第1照明光と偏光でない第2照明光を作り出していたが、変形例6では、図13に示した複合偏光板141の回転により、偏光である第1照明光と偏光でない第2照明光を作り出すこととしている。
複合偏光板141は、中心角90度の扇形形状をした偏光板141Aと、それを透過した光の偏光方向に影響を与えない、中心角90度の扇形形状をした透過板141Bとを互い違いに2枚ずつ組合せて円形としたものである。複合偏光板141はその中心を貫く軸142に固定されている。軸142は、軸142を回転させるアクチュエータ143に接続されており、アクチュエータ143により回転させられる。それにより複合偏光板141は軸142周りに例えば一方向で回転する。
第1実施形態の照明切換部134は、第1光源133Aと第2光源133Bの点灯、消灯の切換を行ったが、変形例6の照明切換部134は、その代わりに、複合偏光板141の回転の速さとその時点における位置を制御させるべく、アクチュエータ143を制御する。
アクチュエータ143が、複合偏光板141を回転させるスピードとある時点における位置は、第1実施形態の場合と同様の方法で、照明切換部134が制御する。変形例6では、第1実施形態において第1光源133Aが点灯した時間帯に偏光板141Aが第1光源133Aの前にあり、第1実施形態において第2光源133Bが点灯した時間帯に透過板141Bが第1光源133Aの前にあるように、照明切換部134がアクチュエータ143を制御する。
偏光板141Aが第1光源133Aの前にあるときには、第1光源133Aから出た光は、偏光板141Aを透過する。すると、照明光はその偏光方向が偏光板132Cと直交する方向である偏光となる。このときの偏光板141Aは、第1実施形態における第1偏光板132Aと等価である。したがって、偏光板141Aを透過した第1光源133Aからの照明光である第1照明光は、その後透過するのがそれを透過する光の偏光の状態に影響を与えない封止板132Bであることもあり、第1実施形態における第1照明光と等価なものとなる。
他方、透過板141Bが第1光源133Aの前にあるときには第1光源133Aから出た光は、透過板141Bを透過しても偏光化されず、また、その後封止板132Bを透過しても偏光化されない。したがって、この場合、第1光源133Aからの照明光である第2照明光は、第1実施形態における第2照明光と等価なものとなる。
つまり、変形例6における第1照明光、第2照明光とも第1実施形態のときのそれと変わらないので、変形例4においても、艶消しの動画と艶有りの動画を撮像できることになる。
アクチュエータ143が、複合偏光板141を回転させるスピードとある時点における位置は、第1実施形態の場合と同様の方法で、照明切換部134が制御する。変形例6では、第1実施形態において第1光源133Aが点灯した時間帯に偏光板141Aが第1光源133Aの前にあり、第1実施形態において第2光源133Bが点灯した時間帯に透過板141Bが第1光源133Aの前にあるように、照明切換部134がアクチュエータ143を制御する。
偏光板141Aが第1光源133Aの前にあるときには、第1光源133Aから出た光は、偏光板141Aを透過する。すると、照明光はその偏光方向が偏光板132Cと直交する方向である偏光となる。このときの偏光板141Aは、第1実施形態における第1偏光板132Aと等価である。したがって、偏光板141Aを透過した第1光源133Aからの照明光である第1照明光は、その後透過するのがそれを透過する光の偏光の状態に影響を与えない封止板132Bであることもあり、第1実施形態における第1照明光と等価なものとなる。
他方、透過板141Bが第1光源133Aの前にあるときには第1光源133Aから出た光は、透過板141Bを透過しても偏光化されず、また、その後封止板132Bを透過しても偏光化されない。したがって、この場合、第1光源133Aからの照明光である第2照明光は、第1実施形態における第2照明光と等価なものとなる。
つまり、変形例6における第1照明光、第2照明光とも第1実施形態のときのそれと変わらないので、変形例4においても、艶消しの動画と艶有りの動画を撮像できることになる。
<変形例7>
変形例7のビデオカメラは内視鏡であり、その基本的な構成は第1実施形態の内視鏡と変わらない。変形例7のビデオカメラを図14に示す。
変形例7の内視鏡が第1実施形態の内視鏡と異なる最大の点は、第1実施形態の内視鏡ではスコープ部110の先端の撮像部130に撮像素子136が設けられていたが、変形例7の内視鏡では撮像素子136がビデオプロセッサボックス120に設けられているという点である。つまり、変形例7の内視鏡は、そのスコープ部110が像光を伝送させるようになっている。
図14における110がスコープ部である。スコープ部110の中には、上述した像光を伝送させる手段である像光伝送体151が設けられている。像光伝送体151は、これには限られないが、この実施形態では、光ファイバを束ねて構成されている。像光伝送体151の中の光ファイバは、その束の中(その束の断面中)における互いの位置関係が少なくともその両端で固定された状態となっている、公知のイメージガイドファイバである。もっともこのイメージガイドファイバは、スコープ部110の柔軟性が要求されないのであれば、公知のロッドレンズにより構成することも可能である。
スコープ部110の内部には、また、第1照明光を伝送するための第1照明光伝送体152Aと、第2照明光を伝送するための第2照明光伝送体152Bと、が設けられている。これらは、これには限られないが、この実施形態では、光ファイバを束ねて構成されている。像光を伝送するわけではないので、第1照明光伝送体152A及び第2照明光伝送体152Bの中の光ファイバは、その束の中(その束の断面中)における互いの位置関係が固定された状態となっている必要はない。スコープ部110の柔軟性が要求されないのであれば、これをロッドレンズにより構成することができるのは像光伝送体151と同様である。
変形例7のビデオカメラは内視鏡であり、その基本的な構成は第1実施形態の内視鏡と変わらない。変形例7のビデオカメラを図14に示す。
変形例7の内視鏡が第1実施形態の内視鏡と異なる最大の点は、第1実施形態の内視鏡ではスコープ部110の先端の撮像部130に撮像素子136が設けられていたが、変形例7の内視鏡では撮像素子136がビデオプロセッサボックス120に設けられているという点である。つまり、変形例7の内視鏡は、そのスコープ部110が像光を伝送させるようになっている。
図14における110がスコープ部である。スコープ部110の中には、上述した像光を伝送させる手段である像光伝送体151が設けられている。像光伝送体151は、これには限られないが、この実施形態では、光ファイバを束ねて構成されている。像光伝送体151の中の光ファイバは、その束の中(その束の断面中)における互いの位置関係が少なくともその両端で固定された状態となっている、公知のイメージガイドファイバである。もっともこのイメージガイドファイバは、スコープ部110の柔軟性が要求されないのであれば、公知のロッドレンズにより構成することも可能である。
スコープ部110の内部には、また、第1照明光を伝送するための第1照明光伝送体152Aと、第2照明光を伝送するための第2照明光伝送体152Bと、が設けられている。これらは、これには限られないが、この実施形態では、光ファイバを束ねて構成されている。像光を伝送するわけではないので、第1照明光伝送体152A及び第2照明光伝送体152Bの中の光ファイバは、その束の中(その束の断面中)における互いの位置関係が固定された状態となっている必要はない。スコープ部110の柔軟性が要求されないのであれば、これをロッドレンズにより構成することができるのは像光伝送体151と同様である。
スコープ部110の先端には、像光伝送体151と、第1照明光伝送体152A及び第2照明光伝送体152Bとの先端を固定するための先端固定部材153が設けられている。先端固定部材153には、そこに挿入された第1照明光伝送体152Aの先端を固定する第1先端孔153A、そこに挿入された第2照明光伝送体152Bの先端を固定する第2先端孔153B、そこに挿入された像光伝送体151の先端を固定する第3先端孔153Cが設けられている。これら3つの孔にかしめられるなどして、像光伝送体151と、第1照明光伝送体152A及び第2照明光伝送体152Bとは、先端固定部材153と固定されている。
また、第3先端孔153Cの像光伝送体151の前側には、拡大レンズである先端レンズ154が取付けられている。先端レンズ154は、対象物からの像光を像光伝送体151の先端の端面に導くようになっている。
また、第3先端孔153Cの像光伝送体151の前側には、拡大レンズである先端レンズ154が取付けられている。先端レンズ154は、対象物からの像光を像光伝送体151の先端の端面に導くようになっている。
変形例7のビデオプロセッサボックス120は、大雑把に言えば、第1実施形態における撮像部130と第1実施形態におけるビデオプロセッサボックス120とを併せたような構成となっている。
ビデオプロセッサボックス120のケース121には、第1孔131A、第2孔131B、第3孔131Cが設けられている。これらは、第1実施形態の撮像部130に設けられていた第1孔131A、第2孔131B、第3孔131Cに対応するものである。ただし、変形例7における第3孔131Cには、第1実施形態におけるのと同様の偏光板132Cが嵌めこまれているが、変形例7における第1孔131Aと第2孔131Bには、第1実施形態において第1孔131Aと第2孔131Bの中にそれぞれ嵌めこまれていた第1偏光板132Aと封止板132Bが嵌めこまれていない。
その代わり、第1孔131Aと第2孔131Bの中には、それぞれ、レンズである集束レンズ155A とこれもレンズである集束レンズ155Bが嵌めこまれている。集束レンズ155Aは、第1実施形態の場合と同様の第1光源133Aからの光を第1照明光伝送体152Aの基端の端面に収束させ、集束レンズ155Bは、第1実施形態の場合と同様の第2光源133Bからの光を第2照明光伝送体152Bの基端の端面に収束させるようになっている。また、第1実施形態で存在した第1偏光板132Aは、第1光源133Aの前側に配置されている。したがって、第1光源133Aが点灯したときの照明光は、第1偏光板132Aを通過して偏光化されてから、第1照明光伝送体152Aに入ることになる。他方、第2光源133Bが点灯したときの照明光は、偏光化されずにそのまま、第2照明光伝送体152Bに入ることになる。前者が第1照明光、後者が第2照明光であり、前者が偏光、後者が自然光であることは第1実施形態と同様である。第1照明光は、第1照明光伝送体152Aの先端の端面から、第2照明光は、第2照明光伝送体152Bの先端の端面から、それぞれ対象物に照射されるようになっている。
変形例7におけるビデオプロセッサボックス120のケース121の中には、上述のように、第1光源133A、第2光源133Bがあり、また、レンズ135、撮像素子136、第2垂直同期信号検出部137、照明切換部134がある。撮像素子136は、像光伝送体151を通って来てレンズ135によりそれに結像させられた像光を撮像するようになっている。また、撮像素子136、第2垂直同期信号検出部137、照明切換部134、第1光源133A、第2光源133Bは、第1実施形態の場合と同様に信号線134A、134B 、134C、136Aで互いに接続されている。撮像素子136、第2垂直同期信号検出部137、照明切換部134はともに、第1実施形態のそれと同様に動作する。したがって、第1光源133Aと第2光源133Bは、照明切換部134による制御下で、第1実施形態の場合と同様に、点灯と消灯を繰り返す。
ビデオプロセッサボックス120のケース121には、第1孔131A、第2孔131B、第3孔131Cが設けられている。これらは、第1実施形態の撮像部130に設けられていた第1孔131A、第2孔131B、第3孔131Cに対応するものである。ただし、変形例7における第3孔131Cには、第1実施形態におけるのと同様の偏光板132Cが嵌めこまれているが、変形例7における第1孔131Aと第2孔131Bには、第1実施形態において第1孔131Aと第2孔131Bの中にそれぞれ嵌めこまれていた第1偏光板132Aと封止板132Bが嵌めこまれていない。
その代わり、第1孔131Aと第2孔131Bの中には、それぞれ、レンズである集束レンズ155A とこれもレンズである集束レンズ155Bが嵌めこまれている。集束レンズ155Aは、第1実施形態の場合と同様の第1光源133Aからの光を第1照明光伝送体152Aの基端の端面に収束させ、集束レンズ155Bは、第1実施形態の場合と同様の第2光源133Bからの光を第2照明光伝送体152Bの基端の端面に収束させるようになっている。また、第1実施形態で存在した第1偏光板132Aは、第1光源133Aの前側に配置されている。したがって、第1光源133Aが点灯したときの照明光は、第1偏光板132Aを通過して偏光化されてから、第1照明光伝送体152Aに入ることになる。他方、第2光源133Bが点灯したときの照明光は、偏光化されずにそのまま、第2照明光伝送体152Bに入ることになる。前者が第1照明光、後者が第2照明光であり、前者が偏光、後者が自然光であることは第1実施形態と同様である。第1照明光は、第1照明光伝送体152Aの先端の端面から、第2照明光は、第2照明光伝送体152Bの先端の端面から、それぞれ対象物に照射されるようになっている。
変形例7におけるビデオプロセッサボックス120のケース121の中には、上述のように、第1光源133A、第2光源133Bがあり、また、レンズ135、撮像素子136、第2垂直同期信号検出部137、照明切換部134がある。撮像素子136は、像光伝送体151を通って来てレンズ135によりそれに結像させられた像光を撮像するようになっている。また、撮像素子136、第2垂直同期信号検出部137、照明切換部134、第1光源133A、第2光源133Bは、第1実施形態の場合と同様に信号線134A、134B 、134C、136Aで互いに接続されている。撮像素子136、第2垂直同期信号検出部137、照明切換部134はともに、第1実施形態のそれと同様に動作する。したがって、第1光源133Aと第2光源133Bは、照明切換部134による制御下で、第1実施形態の場合と同様に、点灯と消灯を繰り返す。
ケース121の中には、また、第1実施形態のケース121の中にあったものが大凡すべて存在している。存在していないのは、信号線137Aと、第1垂直同期信号検出部122である。
第1垂直同期信号検出部122が存在しないのは、第2垂直同期信号検出部137が第1垂直同期信号検出部122を兼ねているからである。変形例7では、第2垂直同期信号検出部137が、信号線122Aを介して垂直同期信号を検出したタイミングを出力制御部123に伝えるようになっており、また、信号線122Bを介してビデオ信号を出力制御部123に伝えるようになっている。第1実施形態における第2垂直同期信号検出部137と第1垂直同期信号検出部122が垂直同期信号を検出するタイミングは殆ど同時であるので、第2垂直同期信号検出部137から垂直同期信号を検出したタイミングを伝えられることとなっても、出力制御部123は第1実施形態のときと同様に動作できる。
変形例7のケース121の中にある、或いはケース121に設けられた各部材の動作、機能はすべて第1実施形態のものと同様にすることができ、この変形例7ではそうされている。したがって、変形例7のビデオカメラによっても、第1実施形態の場合と同様に2種類の動画をディスプレイD1、ディスプレイD2に表示できる。
第1垂直同期信号検出部122が存在しないのは、第2垂直同期信号検出部137が第1垂直同期信号検出部122を兼ねているからである。変形例7では、第2垂直同期信号検出部137が、信号線122Aを介して垂直同期信号を検出したタイミングを出力制御部123に伝えるようになっており、また、信号線122Bを介してビデオ信号を出力制御部123に伝えるようになっている。第1実施形態における第2垂直同期信号検出部137と第1垂直同期信号検出部122が垂直同期信号を検出するタイミングは殆ど同時であるので、第2垂直同期信号検出部137から垂直同期信号を検出したタイミングを伝えられることとなっても、出力制御部123は第1実施形態のときと同様に動作できる。
変形例7のケース121の中にある、或いはケース121に設けられた各部材の動作、機能はすべて第1実施形態のものと同様にすることができ、この変形例7ではそうされている。したがって、変形例7のビデオカメラによっても、第1実施形態の場合と同様に2種類の動画をディスプレイD1、ディスプレイD2に表示できる。
<変形例8>
変形例8のビデオカメラは内視鏡であり、その基本的な構成は第1実施形態の内視鏡と変わらない。
更に言えば、変形例8のビデオカメラは、図15に示したように、変形例7のビデオカメラと殆ど同じものになっている。
変形例8のビデオカメラのうち、変形例7のビデオカメラと端的に異なる部分は、第1光源133Aと第2光源133Bの位置である。
変形例7ではビデオプロセッサボックス120のケース121内にあった第1光源133Aと第2光源133Bは、変形例8では、先端固定部材153に固定されている。それに伴い、変形例8では、変形例7にあった第1照明光伝送体152Aと第2照明光伝送体152Bがなくなっており、また、それに伴い、変形例8では、変形例7にあった集束レンズ155Aと集束レンズ155Bがなくなっている。
また、変形例8のビデオカメラでは、第1光源133Aの前に存在して第1光源133Aからの光を透過させる必要がある第1偏光板132Aが、先端固定部材153の第1孔153Aに取付けられている。また、変形例8のビデオカメラでは、第1実施形態にあったのと同様の封止板132Bが第2孔153Bに嵌めこまれている。
また、変形例8では、第1光源133Aと第2垂直同期信号検出部137を結ぶ信号線134Aと、第2光源133Bと第2垂直同期信号検出部137を結ぶ信号線134Bとが、スコープ部110の内部を伸びている。
その他については、各部材の機能、動作についても変形例7と変わらない。
変形例8のビデオカメラでは、第1光源133Aが点灯した場合には、第1光源133Aから出た照明光は、第1偏光板132Aを通過して偏光化している第1照明光になる。また、第2光源133Bから出た照明光は、封止板132Bを通過しても偏光化されないから、偏光でない第2照明光となる。第1照明光と第2照明光の関係が第1実施形態と同様であるから、変形例8のビデオカメラでも、第1実施形態のビデオカメラと同様に2種類の動画をディスプレイD1、ディスプレイD2に表示できる。
変形例8のビデオカメラは内視鏡であり、その基本的な構成は第1実施形態の内視鏡と変わらない。
更に言えば、変形例8のビデオカメラは、図15に示したように、変形例7のビデオカメラと殆ど同じものになっている。
変形例8のビデオカメラのうち、変形例7のビデオカメラと端的に異なる部分は、第1光源133Aと第2光源133Bの位置である。
変形例7ではビデオプロセッサボックス120のケース121内にあった第1光源133Aと第2光源133Bは、変形例8では、先端固定部材153に固定されている。それに伴い、変形例8では、変形例7にあった第1照明光伝送体152Aと第2照明光伝送体152Bがなくなっており、また、それに伴い、変形例8では、変形例7にあった集束レンズ155Aと集束レンズ155Bがなくなっている。
また、変形例8のビデオカメラでは、第1光源133Aの前に存在して第1光源133Aからの光を透過させる必要がある第1偏光板132Aが、先端固定部材153の第1孔153Aに取付けられている。また、変形例8のビデオカメラでは、第1実施形態にあったのと同様の封止板132Bが第2孔153Bに嵌めこまれている。
また、変形例8では、第1光源133Aと第2垂直同期信号検出部137を結ぶ信号線134Aと、第2光源133Bと第2垂直同期信号検出部137を結ぶ信号線134Bとが、スコープ部110の内部を伸びている。
その他については、各部材の機能、動作についても変形例7と変わらない。
変形例8のビデオカメラでは、第1光源133Aが点灯した場合には、第1光源133Aから出た照明光は、第1偏光板132Aを通過して偏光化している第1照明光になる。また、第2光源133Bから出た照明光は、封止板132Bを通過しても偏光化されないから、偏光でない第2照明光となる。第1照明光と第2照明光の関係が第1実施形態と同様であるから、変形例8のビデオカメラでも、第1実施形態のビデオカメラと同様に2種類の動画をディスプレイD1、ディスプレイD2に表示できる。
<変形例9>
変形例9のビデオカメラは、第1実施形態とは異なり内視鏡ではない。変形例9のビデオカメラは、手持ちタイプの拡大観察装置である。
ただし、変形例9のビデオカメラの構成は、第1実施形態のビデオカメラと概ね同じである。
図16に示すように、拡大観察装置160は、手持ち可能な形状、大きさのケース161を備えている。ケース161は、第1実施形態のスコープ部110と同様にその内部に信号線137Aを内包する柔軟なチューブ110Xによって、第1実施形態の場合と同様に構成された図外のビデオプロセッサボックス120に接続されている。
変形例9のケース161の先端付近は、その先端に向かって細くなるようにテーパーが与えられており、その先端には孔162が開いている。この拡大観察装置160は、その先端の孔162の周囲を撮像対象物(より正確には、撮像対象物の若干外側)に当接させた状態で使用される。
ケース161の後端には、孔163があるがこれは、第1実施形態の撮像部130の孔131Dと同様のものである。
変形例9のビデオカメラは、第1実施形態とは異なり内視鏡ではない。変形例9のビデオカメラは、手持ちタイプの拡大観察装置である。
ただし、変形例9のビデオカメラの構成は、第1実施形態のビデオカメラと概ね同じである。
図16に示すように、拡大観察装置160は、手持ち可能な形状、大きさのケース161を備えている。ケース161は、第1実施形態のスコープ部110と同様にその内部に信号線137Aを内包する柔軟なチューブ110Xによって、第1実施形態の場合と同様に構成された図外のビデオプロセッサボックス120に接続されている。
変形例9のケース161の先端付近は、その先端に向かって細くなるようにテーパーが与えられており、その先端には孔162が開いている。この拡大観察装置160は、その先端の孔162の周囲を撮像対象物(より正確には、撮像対象物の若干外側)に当接させた状態で使用される。
ケース161の後端には、孔163があるがこれは、第1実施形態の撮像部130の孔131Dと同様のものである。
ケース161の内部には、第1光源133Aが設けられている。
ケース161の孔162の周縁部には、内向きに、複数の第2光源133Bが設けられている。第2光源133Bが複数なのは、相対的に第1光源133Aよりも小さく、それ故相対的に照明光の光量が第1光源133Aよりも劣る第2光源133Bからの照明光の光量を、第1光源133Aからの光量に合わせることを意識したものである。このような光量の一致の要請がない、或いは第2光源133Bが1つでもそもそも光量が一致しているのであれば、第2光源133Bを複数にする必要はそもそもない。
ケース161の中には、像光に対して45°の角度に傾いたハーフミラー164が設けられている。第1光源133Aからの照明光である第1照明光は、ハーフミラー164で反射され、対象物に略垂直に照射される。
この実施形態では、第1光源133Aからの照明光である第1照明光も、第2光源133Bからの照明光である第2照明光も、偏光化されることはない。ただし、第1照明光は、対象物への入射角が40°以下の光である落射光であり、第2照明光は、対象物への入射角が40°より大きな光である側射光となる。
ケース161内には、撮像素子136、第2垂直同期信号検出部137、照明切換部134が設けられており、これらと、第1光源133A、及び第2光源133Bは、信号線134A、134B、134Cで接続されている。これらの機能、動作は第1実施形態と変わらない。
また、ケース161内にはレンズ135がある。このレンズ135は基本的に第1実施形態のレンズ135と変わらないが、このレンズ135は撮像素子136の焦点が、孔162の部分に合うように設計されている。したがって、この拡大観察装置160は、その先端の孔162の周囲を対象物に当接させると、孔162の部分に存在する対象物に自動的に焦点が合うことになる。拡大観察装置160を、その先端の孔162の周囲を対象物に当接させて撮像を行えるようにすることは、手振れの防止に効果的である。なお、撮像素子136は、ハーフミラー164を透過した像光を撮像する。
第1光源133Aと第2光源133Bは、照明切換部134による制御下で、第1実施形態の場合と同様に、点灯と消灯を繰り返す。したがって、変形例9のビデオカメラでも、第1実施形態のビデオカメラと同様に、2種類の動画をディスプレイD1、ディスプレイD2に表示できる。ただし、2種類の動画は、変形例9では、落射光を第1照明光とする動画と、側射光を第2照明光とする動画である。
ケース161の孔162の周縁部には、内向きに、複数の第2光源133Bが設けられている。第2光源133Bが複数なのは、相対的に第1光源133Aよりも小さく、それ故相対的に照明光の光量が第1光源133Aよりも劣る第2光源133Bからの照明光の光量を、第1光源133Aからの光量に合わせることを意識したものである。このような光量の一致の要請がない、或いは第2光源133Bが1つでもそもそも光量が一致しているのであれば、第2光源133Bを複数にする必要はそもそもない。
ケース161の中には、像光に対して45°の角度に傾いたハーフミラー164が設けられている。第1光源133Aからの照明光である第1照明光は、ハーフミラー164で反射され、対象物に略垂直に照射される。
この実施形態では、第1光源133Aからの照明光である第1照明光も、第2光源133Bからの照明光である第2照明光も、偏光化されることはない。ただし、第1照明光は、対象物への入射角が40°以下の光である落射光であり、第2照明光は、対象物への入射角が40°より大きな光である側射光となる。
ケース161内には、撮像素子136、第2垂直同期信号検出部137、照明切換部134が設けられており、これらと、第1光源133A、及び第2光源133Bは、信号線134A、134B、134Cで接続されている。これらの機能、動作は第1実施形態と変わらない。
また、ケース161内にはレンズ135がある。このレンズ135は基本的に第1実施形態のレンズ135と変わらないが、このレンズ135は撮像素子136の焦点が、孔162の部分に合うように設計されている。したがって、この拡大観察装置160は、その先端の孔162の周囲を対象物に当接させると、孔162の部分に存在する対象物に自動的に焦点が合うことになる。拡大観察装置160を、その先端の孔162の周囲を対象物に当接させて撮像を行えるようにすることは、手振れの防止に効果的である。なお、撮像素子136は、ハーフミラー164を透過した像光を撮像する。
第1光源133Aと第2光源133Bは、照明切換部134による制御下で、第1実施形態の場合と同様に、点灯と消灯を繰り返す。したがって、変形例9のビデオカメラでも、第1実施形態のビデオカメラと同様に、2種類の動画をディスプレイD1、ディスプレイD2に表示できる。ただし、2種類の動画は、変形例9では、落射光を第1照明光とする動画と、側射光を第2照明光とする動画である。
<変形例10>
変形例10のビデオカメラは、第1実施形態とは異なり内視鏡ではない。変形例10のビデオカメラは、手持ちタイプの拡大観察装置である。
ただし、変形例10のビデオカメラの構成は、変形例9の拡大観察装置と殆ど同じである。
この拡大観察装置160が変形例9の拡大観察装置160と端的に異なるのは、第1光源133Aと第2光源133Bである(図17)。変形例10のビデオカメラの第1光源133Aと、第2光源133Bは、大きさを含め同じものであり、ともに同じ入射角で、対象物に対して照明光を照射するようになっている。なお、変形例10の拡大観察装置160にはハーフミラーは存在しない。
変形例10のビデオカメラには、第1光源133Aの前に、フィルタ165が設けられている。第1光源133Aからの光は、フィルタ165を透過してから対象物に照射される。フィルタ165は、この実施形態では、特定の範囲の波長の光のみを透過させるバンドパスフィルタである。
変形例10における第1光源133Aと第2光源133Bは、赤外領域から紫外領域までの光を含む、自然光様の照明光(白色光)を照射するものとされている。第2光源133Bからの照明光である第2照明光は、そのまま対象物に照射されるので、第2光源133Bが点灯しているときに第2照明光により撮像される画像は、白色光を照明光として撮像されたのと同様の一般的な画像となる。
他方、変形例10におけるフィルタ165が例えば、赤外領域の光のみを透過するものとされていれば、変形例10のビデオカメラで撮像される画像は、赤外光である第1照明光で撮像された画像となる。また、変形例10におけるフィルタ165が例えば、紫外領域の光のみを透過するものとされていれば、変形例10のビデオカメラで撮像される画像は、紫外光である第1照明光で撮像された画像となる。また、変形例10におけるフィルタ165が例えば、緑色の光のみを透過するものとされていれば、変形例10のビデオカメラで撮像される画像は、緑色光である第1照明光で撮像された画像となる。
このように、フィルタ165を適当なものとすることにより、変形例10のビデオカメラは、可視光と赤外光、可視光と紫外光、或いは白色光と緑色光という異なる2種類の動画をディスプレイD1、ディスプレイD2に表示できる。フィルタ165を更に変更すれば、2種類の動画を撮像するための照明光の波長を更に異なるものにできること、また、フィルタ165を第1偏光板132Aとし、撮像素子136の前に第1実施形態における偏光板132Cと同様のものを配すれば、拡大観察装置でも、艶なしと艶有りの動画をディスプレイD1、ディスプレイD2に表示できることは自明である。
なお、フィルタ165を用いずとも、第1光源133Aと第2光源133Bを、異なる特定の波長領域の照明光のみを照射できるものとすれば、2種類の動画を撮像するための照明光の波長を異なるものとできることも自明であろう。
変形例10のビデオカメラは、第1実施形態とは異なり内視鏡ではない。変形例10のビデオカメラは、手持ちタイプの拡大観察装置である。
ただし、変形例10のビデオカメラの構成は、変形例9の拡大観察装置と殆ど同じである。
この拡大観察装置160が変形例9の拡大観察装置160と端的に異なるのは、第1光源133Aと第2光源133Bである(図17)。変形例10のビデオカメラの第1光源133Aと、第2光源133Bは、大きさを含め同じものであり、ともに同じ入射角で、対象物に対して照明光を照射するようになっている。なお、変形例10の拡大観察装置160にはハーフミラーは存在しない。
変形例10のビデオカメラには、第1光源133Aの前に、フィルタ165が設けられている。第1光源133Aからの光は、フィルタ165を透過してから対象物に照射される。フィルタ165は、この実施形態では、特定の範囲の波長の光のみを透過させるバンドパスフィルタである。
変形例10における第1光源133Aと第2光源133Bは、赤外領域から紫外領域までの光を含む、自然光様の照明光(白色光)を照射するものとされている。第2光源133Bからの照明光である第2照明光は、そのまま対象物に照射されるので、第2光源133Bが点灯しているときに第2照明光により撮像される画像は、白色光を照明光として撮像されたのと同様の一般的な画像となる。
他方、変形例10におけるフィルタ165が例えば、赤外領域の光のみを透過するものとされていれば、変形例10のビデオカメラで撮像される画像は、赤外光である第1照明光で撮像された画像となる。また、変形例10におけるフィルタ165が例えば、紫外領域の光のみを透過するものとされていれば、変形例10のビデオカメラで撮像される画像は、紫外光である第1照明光で撮像された画像となる。また、変形例10におけるフィルタ165が例えば、緑色の光のみを透過するものとされていれば、変形例10のビデオカメラで撮像される画像は、緑色光である第1照明光で撮像された画像となる。
このように、フィルタ165を適当なものとすることにより、変形例10のビデオカメラは、可視光と赤外光、可視光と紫外光、或いは白色光と緑色光という異なる2種類の動画をディスプレイD1、ディスプレイD2に表示できる。フィルタ165を更に変更すれば、2種類の動画を撮像するための照明光の波長を更に異なるものにできること、また、フィルタ165を第1偏光板132Aとし、撮像素子136の前に第1実施形態における偏光板132Cと同様のものを配すれば、拡大観察装置でも、艶なしと艶有りの動画をディスプレイD1、ディスプレイD2に表示できることは自明である。
なお、フィルタ165を用いずとも、第1光源133Aと第2光源133Bを、異なる特定の波長領域の照明光のみを照射できるものとすれば、2種類の動画を撮像するための照明光の波長を異なるものとできることも自明であろう。
なお、変形例10の拡大観察装置で、第1照明光が紫外線、第2照明光が白色光を照射するようになっている場合、第1フレーム群に振分けられたフレームのデータに基づく動画が表示されるディスプレイD1の前に、青の波長領域の光を遮断するフィルタを配置してやれば、後述する変形例16~18の場合と同様に、第1フレーム群に振分けられたフレームのデータに基づく動画が見やすくなる。
<変形例11>
変形例11のビデオカメラは、第1実施形態の場合と同様内視鏡である。ただし、変形例11の内視鏡は、カプセル内視鏡である。
変形例11のカプセル内視鏡は、図18、図19に示したように構成されている。
カプセル内視鏡は、第1実施形態における撮像部130に相当するカプセル170を備えている。カプセル170は、患者が飲み込むのに無理がない形状、大きさであり、樹脂製の本体170Aと、透明な樹脂でできたドーム170Bを備えている。ドーム170Bは、本体170Aの一端側の面を、水密に覆っている。もちろんドーム170Bは、それを透過する光の偏光の状態に影響を与えない。
本体170Aのドーム170Bで覆われた一端側の面には、第1実施形態と同様の第1光源133Aと第2光源133Bが配されている。また、第1光源133Aの前方には、第1実施形態と同様の第1偏光板132Aが配されている。第1光源133Aからの照明光は、第1偏光板132Aを通過して、第1実施形態と同様に偏光化される。つまり、第1光源133Aが点灯したときに対象物に照射される照明光である第1照明光は、変形例11では偏光であり、第2光源133Bが点灯したときに対象物に照射される照明光である第2照明光は、偏光でない光である。この関係は、第1実施形態のときと変わらない。
また、本体170Aのドーム170Bで覆われた一端側の面には、孔170A1が穿たれており、第1実施形態と同様のレンズ135がそこに嵌めこまれている。レンズ135の前には、第1実施形態と同様の偏光板132Cがあり、対象物からの像光は、偏光板132C、レンズ135を介して、本体170Aの内部の撮像素子136で撮像されるようになっている。
変形例11のビデオカメラは、第1実施形態の場合と同様内視鏡である。ただし、変形例11の内視鏡は、カプセル内視鏡である。
変形例11のカプセル内視鏡は、図18、図19に示したように構成されている。
カプセル内視鏡は、第1実施形態における撮像部130に相当するカプセル170を備えている。カプセル170は、患者が飲み込むのに無理がない形状、大きさであり、樹脂製の本体170Aと、透明な樹脂でできたドーム170Bを備えている。ドーム170Bは、本体170Aの一端側の面を、水密に覆っている。もちろんドーム170Bは、それを透過する光の偏光の状態に影響を与えない。
本体170Aのドーム170Bで覆われた一端側の面には、第1実施形態と同様の第1光源133Aと第2光源133Bが配されている。また、第1光源133Aの前方には、第1実施形態と同様の第1偏光板132Aが配されている。第1光源133Aからの照明光は、第1偏光板132Aを通過して、第1実施形態と同様に偏光化される。つまり、第1光源133Aが点灯したときに対象物に照射される照明光である第1照明光は、変形例11では偏光であり、第2光源133Bが点灯したときに対象物に照射される照明光である第2照明光は、偏光でない光である。この関係は、第1実施形態のときと変わらない。
また、本体170Aのドーム170Bで覆われた一端側の面には、孔170A1が穿たれており、第1実施形態と同様のレンズ135がそこに嵌めこまれている。レンズ135の前には、第1実施形態と同様の偏光板132Cがあり、対象物からの像光は、偏光板132C、レンズ135を介して、本体170Aの内部の撮像素子136で撮像されるようになっている。
本体170Aの内部には、上述の撮像素子136の他、第2垂直同期信号検出部137、照明切換部134が設けられており、これらと、第1光源133A、及び第2光源133Bは、信号線134A、134B、134Cで接続されている。これらの機能、動作は第1実施形態と変わらない。
第1光源133Aと第2光源133Bは、照明切換部134による制御下で、第1実施形態の場合と同様に、点灯と消灯を繰り返すようになっている。撮像素子136が生成するビデオ信号は、第1実施形態のものと同様となる。
第2垂直同期信号検出部137は、また、第1実施形態の場合と同様、信号線137Aの一端と接続されている。しかしながら、この信号線137Aの他端は、第1実施形態の場合と異なり、無線送信部171と接続されている。無線送信部171は、ビデオ信号を、例えば電波により無線で送信するものである。
第1光源133Aと第2光源133Bは、照明切換部134による制御下で、第1実施形態の場合と同様に、点灯と消灯を繰り返すようになっている。撮像素子136が生成するビデオ信号は、第1実施形態のものと同様となる。
第2垂直同期信号検出部137は、また、第1実施形態の場合と同様、信号線137Aの一端と接続されている。しかしながら、この信号線137Aの他端は、第1実施形態の場合と異なり、無線送信部171と接続されている。無線送信部171は、ビデオ信号を、例えば電波により無線で送信するものである。
変形例11のビデオカメラは、ビデオプロセッサボックス120を備えている。変形例11のビデオプロセッサボックス120は、小さく、患者がそれを身につけて行動できる程度の大きさになっている。患者は例えば、ビデオプロセッサボックス120をそのポケットに収納できるベストを着用して、日常生活を送りながら、飲み込んだカプセル170が撮像した動画を撮像し、そのデータを、後述のようにビデオプロセッサボックス120に記録させることができる。医師はそのデータにより、第1実施形態の場合と同様の2種類の動画を後から確認することができる。このように、日常生活を送りながら内視鏡検査を行えるのが、カプセル内視鏡の利点である。
話を、ビデオプロセッサボックス120に戻す。変形例11のビデオプロセッサボックス120は、基本的に第1実施形態の場合と変わらない。
異なるのは、第1垂直同期信号検出部122に接続されているのが信号線137Aではなく信号線172Aの一端であるという点である。そして、信号線172Aの他端は、無線受信部172と接続されている。無線受信部172は、無線送信部171が送信したビデオ信号を受信するものである。
つまり、変形例11のビデオカメラのビデオプロセッサボックス120は、第2垂直同期信号検出部137が送信したビデオ信号を、第1実施形態の場合と異なり、信号線137Aのみを介して受取るのではなく、信号線137A、無線送信部171、無線受信部172、信号線172Aを介して受取るようになっている。
第1垂直同期信号検出部122以下の各要素が実行する処理は、第1実施形態の場合と変わらない。出力制御部123は、第1フレーム群のフレームのデータと第2フレーム群のフレームのデータとを生成する。
これらデータはそれぞれ、信号線123A1、信号線123B1から出力される。なお、変形例11には、信号線123A及び第1出力端子121A1と、信号線123Bと第2出力端子121Bは存在しない。上述のように、この実施形態のカプセル内視鏡では、医師がディスプレイD1とディスプレイD2により、リアルタイムで動画を見ることが予定されていないからである。もちろん、それを予定するのであれば、信号線123A及び第1出力端子121A1と、信号線123Bと第2出力端子121Bを設けることは可能である。
変形例11では、第1実施形態と同様の機能を有する記録部124が、信号線123A1を介して受取った第1フレーム群のフレームのデータと、信号線123B1を介して受取った第2フレーム群のフレームのデータとを、別個にそれぞれ記録する。医師は、このデータにより、第1実施形態の場合と同様の、2種類の動画を、ディスプレイD1とディスプレイD2を用いて見ることができる。
異なるのは、第1垂直同期信号検出部122に接続されているのが信号線137Aではなく信号線172Aの一端であるという点である。そして、信号線172Aの他端は、無線受信部172と接続されている。無線受信部172は、無線送信部171が送信したビデオ信号を受信するものである。
つまり、変形例11のビデオカメラのビデオプロセッサボックス120は、第2垂直同期信号検出部137が送信したビデオ信号を、第1実施形態の場合と異なり、信号線137Aのみを介して受取るのではなく、信号線137A、無線送信部171、無線受信部172、信号線172Aを介して受取るようになっている。
第1垂直同期信号検出部122以下の各要素が実行する処理は、第1実施形態の場合と変わらない。出力制御部123は、第1フレーム群のフレームのデータと第2フレーム群のフレームのデータとを生成する。
これらデータはそれぞれ、信号線123A1、信号線123B1から出力される。なお、変形例11には、信号線123A及び第1出力端子121A1と、信号線123Bと第2出力端子121Bは存在しない。上述のように、この実施形態のカプセル内視鏡では、医師がディスプレイD1とディスプレイD2により、リアルタイムで動画を見ることが予定されていないからである。もちろん、それを予定するのであれば、信号線123A及び第1出力端子121A1と、信号線123Bと第2出力端子121Bを設けることは可能である。
変形例11では、第1実施形態と同様の機能を有する記録部124が、信号線123A1を介して受取った第1フレーム群のフレームのデータと、信号線123B1を介して受取った第2フレーム群のフレームのデータとを、別個にそれぞれ記録する。医師は、このデータにより、第1実施形態の場合と同様の、2種類の動画を、ディスプレイD1とディスプレイD2を用いて見ることができる。
<変形例12>
変形例12のビデオカメラは内視鏡であり、その基本的な構成は第1実施形態の内視鏡と変わらない。
変形例12のビデオカメラが、第1実施形態のビデオカメラと異なるのは、第1実施形態のビデオカメラでは、ビデオ信号に垂直同期信号が重畳されていたのに対し、変形例12のビデオカメラでは、垂直同期信号はビデオ信号とは別の信号となっているという点にある。つまり、図4におけるビデオ信号vと、垂直同期信号vsyncは、変形例12では別の信号として取り扱われる。
変形例12のビデオカメラは内視鏡であり、その基本的な構成は第1実施形態の内視鏡と変わらない。
変形例12のビデオカメラが、第1実施形態のビデオカメラと異なるのは、第1実施形態のビデオカメラでは、ビデオ信号に垂直同期信号が重畳されていたのに対し、変形例12のビデオカメラでは、垂直同期信号はビデオ信号とは別の信号となっているという点にある。つまり、図4におけるビデオ信号vと、垂直同期信号vsyncは、変形例12では別の信号として取り扱われる。
第1実施形態では、垂直同期信号は撮像素子136内で生成され、ビデオ信号に重畳された状態で外部に出力されるようになっていたが、変形例12のビデオカメラでは、垂直同期信号は撮像素子136内ではなく、図20に示した垂直同期信号発生部181が発生するようになっている。垂直同期信号発生部181は、それが発生させた垂直同期信号を、信号線181A、181Bを介して、撮像素子136と第2垂直同期信号検出部137に送るようになっている。
撮像素子136は、受付けた垂直同期信号にフレームの切り換えのタイミングを同期させて、動画を撮影しビデオ信号を出力する。これにより、垂直同期信号発生部181が発生させた垂直同期信号は、撮像素子136が生成したビデオ信号に含まれるフレームのデータの切り換えのタイミングに同期したものとなる。ビデオ信号は、第1実施形態の場合と同様に、信号線137Aを介してビデオプロセッサボックス120に送られるようになっている。ただし、変形例12では、撮像素子136で生成されたビデオ信号は、第1実施形態の場合と異なり、第2垂直同期信号検出部137を経由せずにビデオプロセッサボックス120に送られる。第2垂直同期信号検出部137は、垂直同期信号を垂直同期信号発生部181から受取ると、第1実施形態の第2垂直同期信号検出部137と同様に、第2垂直同期信号検出部137が垂直同期信号を検出したタイミングを、信号線134Cを介して照明切換部134に伝えるようになっている。このタイミングの情報を用いて照明切換部134が行う処理は、第1実施形態の場合と同様である。
変形例12の垂直同期信号発生部181は、また、スコープ部110の内部を走る第2信号線181Cと接続されており、第2信号線181Cを介して、ビデオ信号とは別の信号として、垂直同期信号をビデオプロセッサボックス120に送るようになっている。
撮像素子136は、受付けた垂直同期信号にフレームの切り換えのタイミングを同期させて、動画を撮影しビデオ信号を出力する。これにより、垂直同期信号発生部181が発生させた垂直同期信号は、撮像素子136が生成したビデオ信号に含まれるフレームのデータの切り換えのタイミングに同期したものとなる。ビデオ信号は、第1実施形態の場合と同様に、信号線137Aを介してビデオプロセッサボックス120に送られるようになっている。ただし、変形例12では、撮像素子136で生成されたビデオ信号は、第1実施形態の場合と異なり、第2垂直同期信号検出部137を経由せずにビデオプロセッサボックス120に送られる。第2垂直同期信号検出部137は、垂直同期信号を垂直同期信号発生部181から受取ると、第1実施形態の第2垂直同期信号検出部137と同様に、第2垂直同期信号検出部137が垂直同期信号を検出したタイミングを、信号線134Cを介して照明切換部134に伝えるようになっている。このタイミングの情報を用いて照明切換部134が行う処理は、第1実施形態の場合と同様である。
変形例12の垂直同期信号発生部181は、また、スコープ部110の内部を走る第2信号線181Cと接続されており、第2信号線181Cを介して、ビデオ信号とは別の信号として、垂直同期信号をビデオプロセッサボックス120に送るようになっている。
変形例12のビデオプロセッサボックス120は、図21に示したように構成されている。
このビデオプロセッサボックス120は、第1実施形態のそれと概ね同様であるが、第1垂直同期信号検出部122が、信号線137Aとは接続されていない。信号線137Aは、第1垂直同期直信号検出部122を経ずに、そのまま出力制御部123に接続されている。
変形例12のビデオプロセッサボックス120内にも、第1垂直同期信号検出部122は存在する。第1垂直同期信号検出部122は、第1実施形態の場合と異なり、第2信号線181Cと接続されている。変形例12では、第2信号線181Cを介して第1垂直同期信号検出部122が垂直同期信号を受取ると、第1垂直同期信号検出部122は、それが垂直同期信号を受取ったタイミングを、信号線122Aを介して出力制御部123に伝えるようになっている。
出力制御部123は、信号線137Aを介して受取ったビデオ信号に対して、第1垂直同期信号検出部122から通知されたタイミングの情報を用いて、第1実施形態の場合と同様の方法で処理を実行する。
このように、ビデオ信号に垂直同期信号が含まれておらず、垂直同期信号発生部181がビデオ信号とは別の信号として垂直同期信号を発生する変形例12のビデオカメラでも、第1実施形態のビデオカメラと同様に2種類の動画をディスプレイD1、ディスプレイD2に表示できる。
このビデオプロセッサボックス120は、第1実施形態のそれと概ね同様であるが、第1垂直同期信号検出部122が、信号線137Aとは接続されていない。信号線137Aは、第1垂直同期直信号検出部122を経ずに、そのまま出力制御部123に接続されている。
変形例12のビデオプロセッサボックス120内にも、第1垂直同期信号検出部122は存在する。第1垂直同期信号検出部122は、第1実施形態の場合と異なり、第2信号線181Cと接続されている。変形例12では、第2信号線181Cを介して第1垂直同期信号検出部122が垂直同期信号を受取ると、第1垂直同期信号検出部122は、それが垂直同期信号を受取ったタイミングを、信号線122Aを介して出力制御部123に伝えるようになっている。
出力制御部123は、信号線137Aを介して受取ったビデオ信号に対して、第1垂直同期信号検出部122から通知されたタイミングの情報を用いて、第1実施形態の場合と同様の方法で処理を実行する。
このように、ビデオ信号に垂直同期信号が含まれておらず、垂直同期信号発生部181がビデオ信号とは別の信号として垂直同期信号を発生する変形例12のビデオカメラでも、第1実施形態のビデオカメラと同様に2種類の動画をディスプレイD1、ディスプレイD2に表示できる。
<変形例13>
変形例13のビデオカメラは内視鏡であり、その基本的な構成は第1実施形態の内視鏡と変わらない。もっと言えば、変形例13のビデオカメラは、変形例12のビデオカメラと殆ど同じものである。
変形例13のビデオカメラが変形例12のビデオカメラと異なるのは、事実上次の一点である。変形例13のビデオカメラでは、変形例12のビデオカメラでは撮像部130にあった垂直同期信号発生部181が、ビデオプロセッサボックス120にあるという点である(図22、23)。
変形例13のビデオカメラは内視鏡であり、その基本的な構成は第1実施形態の内視鏡と変わらない。もっと言えば、変形例13のビデオカメラは、変形例12のビデオカメラと殆ど同じものである。
変形例13のビデオカメラが変形例12のビデオカメラと異なるのは、事実上次の一点である。変形例13のビデオカメラでは、変形例12のビデオカメラでは撮像部130にあった垂直同期信号発生部181が、ビデオプロセッサボックス120にあるという点である(図22、23)。
変形例13のビデオカメラの垂直同期信号発生部181は、スコープ部110の内部を走る第2信号線181Cと接続されており、第2信号線181Cを介して撮像部130に接続されている。第2信号線181Cは、撮像部130内で、信号線181A、181Bに分岐しており、これらを介して、撮像素子136と第2垂直同期信号検出部137に接続されている。
変形例13のビデオカメラでは、垂直同期信号発生部181が生成した垂直同期信号は、第2信号線181Cと、信号線181A又は信号線181Bのいずれかとを介して、撮像素子136と、第2垂直同期信号検出部137に送られる。これらを受取った場合の撮像素子136と、第2垂直同期信号検出部137の動作は、変形例12の場合と同様である。
変形例13のビデオカメラの垂直同期信号発生部181は、また、信号線181Dを介して、第1垂直同期信号検出部122に接続されており、垂直同期信号発生部181で生成された垂直同期信号は、第1垂直同期信号検出部122に送られる。これを受取った場合の第1垂直同期信号検出部122の動作は、変形例12の場合と同様である。
以上のような構成、動作により、ビデオ信号に垂直同期信号が含まれておらず、且つ垂直同期信号発生部181がビデオプロセッサボックス120内にあるビデオカメラでも、第1実施形態のビデオカメラと同様に2種類の動画をディスプレイD1、ディスプレイD2に表示できる。
変形例13のビデオカメラでは、垂直同期信号発生部181が生成した垂直同期信号は、第2信号線181Cと、信号線181A又は信号線181Bのいずれかとを介して、撮像素子136と、第2垂直同期信号検出部137に送られる。これらを受取った場合の撮像素子136と、第2垂直同期信号検出部137の動作は、変形例12の場合と同様である。
変形例13のビデオカメラの垂直同期信号発生部181は、また、信号線181Dを介して、第1垂直同期信号検出部122に接続されており、垂直同期信号発生部181で生成された垂直同期信号は、第1垂直同期信号検出部122に送られる。これを受取った場合の第1垂直同期信号検出部122の動作は、変形例12の場合と同様である。
以上のような構成、動作により、ビデオ信号に垂直同期信号が含まれておらず、且つ垂直同期信号発生部181がビデオプロセッサボックス120内にあるビデオカメラでも、第1実施形態のビデオカメラと同様に2種類の動画をディスプレイD1、ディスプレイD2に表示できる。
<変形例14>
変形例14のビデオカメラは内視鏡であり、その基本的な構成は第1実施形態の内視鏡と変わらない。もっと言えば、変形例14のビデオカメラは、変形例13のビデオカメラと殆ど同じものである。
変形例14のビデオカメラが変形例13のビデオカメラと異なるのは、事実上次の一点である。変形例14のビデオカメラでは、変形例13のビデオカメラではビデオプロセッサボックス120にあった垂直同期信号発生部181が、ビデオカメラ外にあるという点である(図24)。変形例14では、垂直同期信号は、ビデオカメラの一部ではなく、垂直同期信号を発生する所定の垂直同期信号発生装置により生成され、入力線182を介してビデオプロセッサボックス120に送られるようになっている。ビデオプロセッサボックス120は、入力端子183を備えており、入力線182は入力端子183に、例えば着脱自在に接続されるようになっている。
入力線182は、入力端子183を介して信号線182A に接続されている。信号線182Aは、ビデオプロセッサボックス120の内部で、信号線182Bと、第2信号線181Cに分岐している。第2信号線181Cは、変形例13の場合と同様撮像部130に接続されている。変形例14における撮像部130の構成は変形例13の場合と同じなので、撮像部130の図示は省略する。
信号線182Bは、第1垂直同期信号検出部122に接続されている。
変形例14のビデオカメラは内視鏡であり、その基本的な構成は第1実施形態の内視鏡と変わらない。もっと言えば、変形例14のビデオカメラは、変形例13のビデオカメラと殆ど同じものである。
変形例14のビデオカメラが変形例13のビデオカメラと異なるのは、事実上次の一点である。変形例14のビデオカメラでは、変形例13のビデオカメラではビデオプロセッサボックス120にあった垂直同期信号発生部181が、ビデオカメラ外にあるという点である(図24)。変形例14では、垂直同期信号は、ビデオカメラの一部ではなく、垂直同期信号を発生する所定の垂直同期信号発生装置により生成され、入力線182を介してビデオプロセッサボックス120に送られるようになっている。ビデオプロセッサボックス120は、入力端子183を備えており、入力線182は入力端子183に、例えば着脱自在に接続されるようになっている。
入力線182は、入力端子183を介して信号線182A に接続されている。信号線182Aは、ビデオプロセッサボックス120の内部で、信号線182Bと、第2信号線181Cに分岐している。第2信号線181Cは、変形例13の場合と同様撮像部130に接続されている。変形例14における撮像部130の構成は変形例13の場合と同じなので、撮像部130の図示は省略する。
信号線182Bは、第1垂直同期信号検出部122に接続されている。
変形例13で、垂直同期信号発生部181が発生させた垂直同期信号が第2信号線181Cを経て撮像部130に供給されたのと同様に、変形例14では、垂直同期信号発生装置で発生させられた垂直同期信号が、入力線182、入力端子183、信号線182A、及び第2信号線181Cを介して撮像部130に供給される。
また、変形例14では、垂直同期信号発生部181が発生させた垂直同期信号が第1垂直同期信号検出部122に供給されたのと同様に、垂直同期信号発生装置で発生させられた垂直同期信号が、入力線182、入力端子183、信号線182A、及び信号線182Bを介して第1垂直同期信号検出部122に供給される。
撮像部130で垂直同期信号を用いて行われる動作、ビデオプロセッサボックス120で垂直同期信号を用いて行われる動作は変形例13と同様であるから、変形例14のビデオカメラでも、第1実施形態のビデオカメラと同様に2種類の動画をディスプレイD1、ディスプレイD2に表示できる。
また、変形例14では、垂直同期信号発生部181が発生させた垂直同期信号が第1垂直同期信号検出部122に供給されたのと同様に、垂直同期信号発生装置で発生させられた垂直同期信号が、入力線182、入力端子183、信号線182A、及び信号線182Bを介して第1垂直同期信号検出部122に供給される。
撮像部130で垂直同期信号を用いて行われる動作、ビデオプロセッサボックス120で垂直同期信号を用いて行われる動作は変形例13と同様であるから、変形例14のビデオカメラでも、第1実施形態のビデオカメラと同様に2種類の動画をディスプレイD1、ディスプレイD2に表示できる。
<変形例15>
変形例15のビデオカメラは内視鏡であり、その基本的な構成は第1実施形態の内視鏡と変わらない。もっと言えば、変形例15のビデオカメラは、変形例14のビデオカメラと殆ど同じものである。
変形例15のビデオカメラが変形例14のビデオカメラと異なるのは、事実上次の一点である。それは、変形例14のビデオカメラでは、入力線182と入力端子183を介して接続されていた信号線182Aはビデオプロセッサボックス120内で信号線182Bと第2信号線181Cに分岐していたが、変形例15のビデオカメラでは、信号線182Aは、第1垂直同期信号検出部122に接続されている、という点である(図25)。
そして、第1垂直同期信号検出部122は、信号線122Aを介して出力制御部123に接続されており、また、第2信号線181Cを介して撮像部130に接続されている。
第1垂直同期信号検出部122は、入力線182、入力端子183、信号線182Aを介して図外の垂直同期信号発生装置から垂直同期信号を受付けると、そのタイミングを出力制御部123に通知する。この通知を受けて出力制御部123が行う処理は第1実施形態と同様である。
また、この変形例15の第1垂直同期信号検出部122は、垂直同期信号を受付けると、そのタイミングを第2信号線181Cを経て撮像部130に通知する。図26に示したように、撮像部130内で、第2信号線181Cは、信号線181Aと信号線134Cとに分岐し、前者を介して撮像素子136に、後者を介して照明切換部134に接続されている。なお、変形例15には第2垂直同期信号検出部137はない。
タイミングの情報を通知された撮像素子136はそのタイミングに同期したフレームのデータを含むビデオ信号を生成する。もっとも、撮像素子136には、第1垂直同期信号検出部122を素通りさせた垂直同期信号をそのまま送るようにしてもよい。他方、照明切換部134は、第1垂直同期信号検出部122から受取ったタイミングの情報に基づいて、第2垂直同期信号検出部137からタイミングの情報を受取るようになっていた第1実施形態の場合と同様の処理を実行する。つまり、この変形例15では、第1垂直同期信号検出部122が、第2垂直同期信号検出部137を兼ねている。
変形例15のビデオカメラでも、第1実施形態のビデオカメラと同様に2種類の動画をディスプレイD1、ディスプレイD2に表示できる。
変形例15のビデオカメラは内視鏡であり、その基本的な構成は第1実施形態の内視鏡と変わらない。もっと言えば、変形例15のビデオカメラは、変形例14のビデオカメラと殆ど同じものである。
変形例15のビデオカメラが変形例14のビデオカメラと異なるのは、事実上次の一点である。それは、変形例14のビデオカメラでは、入力線182と入力端子183を介して接続されていた信号線182Aはビデオプロセッサボックス120内で信号線182Bと第2信号線181Cに分岐していたが、変形例15のビデオカメラでは、信号線182Aは、第1垂直同期信号検出部122に接続されている、という点である(図25)。
そして、第1垂直同期信号検出部122は、信号線122Aを介して出力制御部123に接続されており、また、第2信号線181Cを介して撮像部130に接続されている。
第1垂直同期信号検出部122は、入力線182、入力端子183、信号線182Aを介して図外の垂直同期信号発生装置から垂直同期信号を受付けると、そのタイミングを出力制御部123に通知する。この通知を受けて出力制御部123が行う処理は第1実施形態と同様である。
また、この変形例15の第1垂直同期信号検出部122は、垂直同期信号を受付けると、そのタイミングを第2信号線181Cを経て撮像部130に通知する。図26に示したように、撮像部130内で、第2信号線181Cは、信号線181Aと信号線134Cとに分岐し、前者を介して撮像素子136に、後者を介して照明切換部134に接続されている。なお、変形例15には第2垂直同期信号検出部137はない。
タイミングの情報を通知された撮像素子136はそのタイミングに同期したフレームのデータを含むビデオ信号を生成する。もっとも、撮像素子136には、第1垂直同期信号検出部122を素通りさせた垂直同期信号をそのまま送るようにしてもよい。他方、照明切換部134は、第1垂直同期信号検出部122から受取ったタイミングの情報に基づいて、第2垂直同期信号検出部137からタイミングの情報を受取るようになっていた第1実施形態の場合と同様の処理を実行する。つまり、この変形例15では、第1垂直同期信号検出部122が、第2垂直同期信号検出部137を兼ねている。
変形例15のビデオカメラでも、第1実施形態のビデオカメラと同様に2種類の動画をディスプレイD1、ディスプレイD2に表示できる。
<変形例16>
変形例16のビデオカメラは、第1実施形態のビデオカメラと、後述する第4実施形態のビデオカメラを組み合わせたものといえる。
変形例16のビデオカメラは内視鏡ではなく、手持ちタイプの拡大観察装置であり、また、その基本的な構成は変形例10の拡大観察装置と変わらない。
変形例10の拡大観察装置では、第2光源133Bからの照明光である第2照明光は、そのまま対象物に白色光として照射され、第1光源133Aからの照明光である第1照明光は、フィルタ165を通過してから対象物に照射されるものとなっていた。
変形例16では、フィルタ165は紫外領域の光のみを透過するものとされており、それ故第1照明光は紫外線となるようになっている。
変形例16のビデオカメラは、第1実施形態のビデオカメラと、後述する第4実施形態のビデオカメラを組み合わせたものといえる。
変形例16のビデオカメラは内視鏡ではなく、手持ちタイプの拡大観察装置であり、また、その基本的な構成は変形例10の拡大観察装置と変わらない。
変形例10の拡大観察装置では、第2光源133Bからの照明光である第2照明光は、そのまま対象物に白色光として照射され、第1光源133Aからの照明光である第1照明光は、フィルタ165を通過してから対象物に照射されるものとなっていた。
変形例16では、フィルタ165は紫外領域の光のみを透過するものとされており、それ故第1照明光は紫外線となるようになっている。
変形例16のビデオカメラが、変形例10の拡大観察装置と異なるのは、変形例16のビデオカメラは、変形例10の拡大観察装置が持たなかった画像処理部184をビデオプロセッサボックス120内に備えているという点である(図27)。画像処理部184は、出力制御部123に至る前のビデオ信号に対して、より正確には出力制御部123に至る前のビデオ信号の一部に対して所定の画像処理を行うものである。
画像処理部184は、信号線184Aで、第1垂直同期信号検出部122と接続されている。変形例16の第1垂直同期信号検出部122は、ビデオ信号中の垂直同期信号を検出した場合に、垂直同期信号が検出されたタイミングを、出力制御部123のみでなく、画像処理部184にも通知するようになっている。
画像処理部184は、ビデオ信号に含まれるフレームのデータのうち、出力制御部123で信号線123Aに振分けられるフレーム(つまり第1フレーム群に振分けられるフレーム)のデータと、信号線123Bに振分けられるフレーム(つまり第2フレーム群に振分けられるフレーム)のデータのうちの一方のみに対して画像処理を行う。変形例16では、第1フレーム群に振分けられるフレームを撮像素子136が撮像するときには第1光源133Aが点灯し、第2フレーム群に振分けられるフレームを撮像素子136が撮像するときには第2光源133Bが点灯するが、画像処理部184は、後に第1フレーム群に振分けられるフレームのデータに対してのみ画像処理を行うようになっている。ビデオ信号中のフレームのうち、後に第1フレーム群に振分けられるフレームのデータにのみ画像処理を行うためのタイミングの制御には、第1垂直同期信号検出部122がビデオ信号中の垂直同期信号を検出した場合に、第1垂直同期信号検出部122から通知される垂直同期信号が検出されたタイミングについての情報が利用される。
画像処理部184は、ビデオ信号に含まれるフレームのデータのうち、出力制御部123で信号線123Aに振分けられるフレーム(つまり第1フレーム群に振分けられるフレーム)のデータと、信号線123Bに振分けられるフレーム(つまり第2フレーム群に振分けられるフレーム)のデータのうちの一方のみに対して画像処理を行う。変形例16では、第1フレーム群に振分けられるフレームを撮像素子136が撮像するときには第1光源133Aが点灯し、第2フレーム群に振分けられるフレームを撮像素子136が撮像するときには第2光源133Bが点灯するが、画像処理部184は、後に第1フレーム群に振分けられるフレームのデータに対してのみ画像処理を行うようになっている。ビデオ信号中のフレームのうち、後に第1フレーム群に振分けられるフレームのデータにのみ画像処理を行うためのタイミングの制御には、第1垂直同期信号検出部122がビデオ信号中の垂直同期信号を検出した場合に、第1垂直同期信号検出部122から通知される垂直同期信号が検出されたタイミングについての情報が利用される。
画像処理部184が行う画像処理は、第1フレーム群に含まれるフレームのデータに基づく動画を見易くする等の、所望の目的に応じて選択することができ、公知のものであっても良いが、変形例16では、これには限られないが以下のようなものとなっている。
画像処理部184は、後に第1フレーム群に振分けられるフレームのデータに対し、当該データに基づいて表示される画像から、特定の波長の光のデータを除くものとされている。より詳細には、画像処理部184は、R(赤)、G(緑)、B(青)の信号を含む、後に第1フレーム群に振分けられるフレームのデータから、Bの信号を除去するものとなっている。
紫外線を照射して生じる、例えば黄色から赤色の波長領域の光である蛍光を観察する場合、青の波長領域の光は邪魔である。ビデオ信号のフレームのデータに含まれるBの信号を除去すると、第1フレーム群に振分けられるフレームのデータに基づく動画から青味を取り除くことができ、動画が見やすくなる。
この拡大観察装置のその他の構成、処理については、変形例10に同じである。
画像処理部184は、後に第1フレーム群に振分けられるフレームのデータに対し、当該データに基づいて表示される画像から、特定の波長の光のデータを除くものとされている。より詳細には、画像処理部184は、R(赤)、G(緑)、B(青)の信号を含む、後に第1フレーム群に振分けられるフレームのデータから、Bの信号を除去するものとなっている。
紫外線を照射して生じる、例えば黄色から赤色の波長領域の光である蛍光を観察する場合、青の波長領域の光は邪魔である。ビデオ信号のフレームのデータに含まれるBの信号を除去すると、第1フレーム群に振分けられるフレームのデータに基づく動画から青味を取り除くことができ、動画が見やすくなる。
この拡大観察装置のその他の構成、処理については、変形例10に同じである。
<変形例17>
変形例17のビデオカメラは、第1実施形態のビデオカメラと、後述する第4実施形態の変形例26のビデオカメラを組み合わせたものといえる。
変形例17のビデオカメラは内視鏡ではなく、手持ちタイプの拡大観察装置であり、また、その基本的な構成は変形例16の拡大観察装置と変わらない。
変形例17の拡大観察装置でも、第1照明光は紫外線、第2照明光は白色光となるようになっている。
変形例17のビデオカメラは、第1実施形態のビデオカメラと、後述する第4実施形態の変形例26のビデオカメラを組み合わせたものといえる。
変形例17のビデオカメラは内視鏡ではなく、手持ちタイプの拡大観察装置であり、また、その基本的な構成は変形例16の拡大観察装置と変わらない。
変形例17の拡大観察装置でも、第1照明光は紫外線、第2照明光は白色光となるようになっている。
変形例17のビデオカメラが、変形例16の拡大観察装置と異なるのは、画像処理部184の位置である(図28)。画像処理部184は、出力制御部123で振分けられた2つのデータ、つまり信号線123Aに振分けられた、第1フレーム群に振分けられたフレームのデータと、信号線123Bに振分けられた、第2フレーム群に振分けられたフレームのデータの一方に対して画像処理を行うものである。この変形例における画像処理部184は、信号線123Aの上にあり、第1フレーム群に振分けられたフレームのデータに対して画像処理を行うようになっている。
画像処理部184が行う画像処理の内容は、変形例16で述べたものと同じである。ただし、変形例17の画像処理部184は、ビデオ信号から既に振分けられた後の第1フレーム群に振分けられたフレームのデータに対して画像処理を行うものであるから、変形例16の画像処理部184で必要であったタイミングの制御が不要であり、それ故第1垂直同期信号検出部122から垂直同期信号を検出したタイミングの情報を受ける必要もないので、第1垂直同期信号検出部122と接続されているということもない。
画像処理部184により、第1フレーム群に振分けられたフレームのデータから、B(青)の信号が除去されるので、変形例17における第1フレーム群に振分けられるフレームのデータに基づく動画からも、青味が取り除かれる。
この拡大観察装置のその他の構成、処理については、変形例16に同じである。
画像処理部184が行う画像処理の内容は、変形例16で述べたものと同じである。ただし、変形例17の画像処理部184は、ビデオ信号から既に振分けられた後の第1フレーム群に振分けられたフレームのデータに対して画像処理を行うものであるから、変形例16の画像処理部184で必要であったタイミングの制御が不要であり、それ故第1垂直同期信号検出部122から垂直同期信号を検出したタイミングの情報を受ける必要もないので、第1垂直同期信号検出部122と接続されているということもない。
画像処理部184により、第1フレーム群に振分けられたフレームのデータから、B(青)の信号が除去されるので、変形例17における第1フレーム群に振分けられるフレームのデータに基づく動画からも、青味が取り除かれる。
この拡大観察装置のその他の構成、処理については、変形例16に同じである。
<変形例18>
変形例18のビデオカメラは、第1実施形態のビデオカメラと、後述する第2実施形態のビデオカメラを組み合わせたものといえる。
変形例18のビデオカメラは内視鏡ではなく、手持ちタイプの拡大観察装置であり、また、その基本的な構成は変形例10の拡大観察装置と変わらない。
また、変形例18の拡大観察装置でも、変形例10の場合と同様、第1照明光は紫外線、第2照明光は白色光となるようになっている。
変形例18のビデオカメラは、第1実施形態のビデオカメラと、後述する第2実施形態のビデオカメラを組み合わせたものといえる。
変形例18のビデオカメラは内視鏡ではなく、手持ちタイプの拡大観察装置であり、また、その基本的な構成は変形例10の拡大観察装置と変わらない。
また、変形例18の拡大観察装置でも、変形例10の場合と同様、第1照明光は紫外線、第2照明光は白色光となるようになっている。
変形例18のビデオカメラが、変形例10の拡大観察装置と異なるのは、変形例18のビデオカメラは、第1像光透過部材185を備えているという点である(図29)。
第1像光透過部材185は、それを透過した像光の性質が互いに異なるものとなる第1状態と第2状態に変化させられるようになっており、それを透過した像光の性質を所望のタイミングで変化させるためのものである。第1像光透過部材185は、対象物と撮像素子136の間にある。
必ずしもこの限りではないが、変形例18のビデオカメラにおける第1像光透過部材185は、第1状態では、青の波長領域の光を遮断するフィルタとして機能する。第1像光透過部材185は、第2状態では、像光に対し光学的に透明である。このような状態の変化を高速に行えるような第1像光透過部材185は、電気的な制御により状態の変化を生じるものがよく、例えばMEMS(Micro Electro Mechanical Systems)による、可変カラーフィルタによって構成することができる。
第1像光透過部材185は、それを透過した像光の性質が互いに異なるものとなる第1状態と第2状態に変化させられるようになっており、それを透過した像光の性質を所望のタイミングで変化させるためのものである。第1像光透過部材185は、対象物と撮像素子136の間にある。
必ずしもこの限りではないが、変形例18のビデオカメラにおける第1像光透過部材185は、第1状態では、青の波長領域の光を遮断するフィルタとして機能する。第1像光透過部材185は、第2状態では、像光に対し光学的に透明である。このような状態の変化を高速に行えるような第1像光透過部材185は、電気的な制御により状態の変化を生じるものがよく、例えばMEMS(Micro Electro Mechanical Systems)による、可変カラーフィルタによって構成することができる。
変形例18では、第1像光透過部材185は、撮像素子136が、後に第1フレーム群に振分けられるフレームを撮像しているときには第1状態を、撮像素子136が、後に第2フレーム群に振分けられるフレームを撮像しているときには第2状態を取るようになっている。そのような同期を可能とするために、第1像光透過部材185は、信号線185Aにより第2垂直同期信号検出部137と接続されており、第2垂直同期信号検出部137から、ビデオ信号から垂直同期信号が検出されたタイミングについての情報を受付けるようになっている。第1像光透過部材185はその情報を用いて、第1像光透過部材185の状態を撮像素子136が撮像を行いフレームのデータを生成するタイミングと同期させる。なお、第1像光透過部材185は、ビデオ信号から垂直同期信号を検出する他の手段から垂直同期信号が検出されたタイミングについての情報を受取るようになっていても構わない。
変形例18では、後に第1フレーム群に振分けられるフレームを撮像しているときには第1像光透過部材185が青の波長領域の光を遮断するフィルタとして機能するようになっているから、そのときに第1像光透過部材185を透過して撮像素子136で撮像される像光からは青の波長が除かれる。したがって、第1フレーム群に振分けられるフレームのデータには、変形例16、17における画像処理部184による画像処理を行わなくとも、そもそも青色(B)のデータが含まれていない。他方、後に第2フレーム群に振分けられるフレームを撮像しているときには第1像光透過部材185は光学的に透明であるから、そのときに第1像光透過部材185を透過して撮像素子136で撮像される像光からは青の波長が除かれない。
変形例18によって得られる2種類の動画は、変形例16、17の場合に得られる2種類の動画と同等のものとなる。
変形例18では、後に第1フレーム群に振分けられるフレームを撮像しているときには第1像光透過部材185が青の波長領域の光を遮断するフィルタとして機能するようになっているから、そのときに第1像光透過部材185を透過して撮像素子136で撮像される像光からは青の波長が除かれる。したがって、第1フレーム群に振分けられるフレームのデータには、変形例16、17における画像処理部184による画像処理を行わなくとも、そもそも青色(B)のデータが含まれていない。他方、後に第2フレーム群に振分けられるフレームを撮像しているときには第1像光透過部材185は光学的に透明であるから、そのときに第1像光透過部材185を透過して撮像素子136で撮像される像光からは青の波長が除かれない。
変形例18によって得られる2種類の動画は、変形例16、17の場合に得られる2種類の動画と同等のものとなる。
<変形例19>
変形例19のビデオカメラは、第1実施形態のビデオカメラと同様に内視鏡である。
変形例19のビデオカメラの構成は、図30、31に示すように、第1実施形態のビデオカメラの構成と殆ど変わらない。
変形例19のビデオカメラが第1実施形態のビデオカメラと端的に異なるのは、変形例19のビデオカメラは、ディスプレイD1とディスプレイD2という2台のディスプレイDに接続された第1実施形態のビデオカメラとは異なり、ディスプレイD1という1台のディスプレイにのみ接続されるという点である。
変形例19のビデオカメラも、ビデオプロセッサボックス120と、その先端に撮像部130を備えるスコープ部110とを備えている。
変形例19のビデオカメラは、第1実施形態のビデオカメラと同様に内視鏡である。
変形例19のビデオカメラの構成は、図30、31に示すように、第1実施形態のビデオカメラの構成と殆ど変わらない。
変形例19のビデオカメラが第1実施形態のビデオカメラと端的に異なるのは、変形例19のビデオカメラは、ディスプレイD1とディスプレイD2という2台のディスプレイDに接続された第1実施形態のビデオカメラとは異なり、ディスプレイD1という1台のディスプレイにのみ接続されるという点である。
変形例19のビデオカメラも、ビデオプロセッサボックス120と、その先端に撮像部130を備えるスコープ部110とを備えている。
変形例19における撮像部130、スコープ部110の構成は、第1実施形態の場合とまったく変わらない。また、変形例19におけるビデオプロセッサボックス120の構成も第1実施形態と殆ど変わらないが、ディスプレイD1のみとディスプレイが1台になったことに関連した変更が、ビデオプロセッサボックス120にはなされている。
変形例19のビデオプロセッサボックス120の第1実施形態のビデオプロセッサボックス120からの変更点は、端的に言えば、変形例19のビデオプロセッサボックス120が画像合成部188を備えている点にある。画像合成部188は、第1実施形態と同様の出力制御部123と、第1実施形態と同様の信号線123A及び信号線123Bで接続されている。
出力制御部123からは、第1実施形態の場合と同様に、信号線123Aを介して、第1フレーム群のフレームのデータが、信号線123Bを介して第2フレーム群のフレームのデータが出力される。画像合成部188は、第1フレーム群のフレームのデータと、第2フレーム群のフレームのデータとを受取り、それら2種類の動画を、1つのディスプレイに表示できるような動画データに合成する。
変形例19では、第1フレーム群のフレームのデータと、第2フレーム群のフレームのデータが、交互に画像合成部188に送られる。第1フレーム群のフレームのデータと、第2フレーム群のフレームのデータのどちらが先でも構わないが、この実施形態の画像合成部188は、先に受取ったフレームのデータと、その次に受取ったフレームのデータを、メモリ188Aの一部にそれぞれ書き込む。このとき、両データにより本来描画されるフレームを、多少縮小する、或いはその一部を切り捨てるなどして、新たな一画面分のフレームに描画し直してもよい。これを連続して行うことにより、画像合成部188は、第1フレーム群のフレームにより本来ディスプレイに表示される画像と、第2フレーム群のフレームにより本来ディスプレイに表示される画像とを共に含んだ、新たな動画のデータを作成する。この動画のデータは、メモリ188Aから、信号線189、第1出力端子121A、ケーブルC1を介してディスプレイD1に出力される。
ディスプレイD1には、第1フレーム群のフレームにより本来ディスプレイに表示される画像の連続である第1動画M1と、第2フレーム群のフレームにより本来ディスプレイに表示される画像の連続である第2動画M2とを含む動画が表示される。そのような動画の例を、図32に示す。
なお、変形例19のビデオプロセッサボックス120では、信号線189から、信号線1891が分岐している。信号線1891を介して、記録部124に、上記新たな動画のデータが記録される。
変形例19のビデオプロセッサボックス120の第1実施形態のビデオプロセッサボックス120からの変更点は、端的に言えば、変形例19のビデオプロセッサボックス120が画像合成部188を備えている点にある。画像合成部188は、第1実施形態と同様の出力制御部123と、第1実施形態と同様の信号線123A及び信号線123Bで接続されている。
出力制御部123からは、第1実施形態の場合と同様に、信号線123Aを介して、第1フレーム群のフレームのデータが、信号線123Bを介して第2フレーム群のフレームのデータが出力される。画像合成部188は、第1フレーム群のフレームのデータと、第2フレーム群のフレームのデータとを受取り、それら2種類の動画を、1つのディスプレイに表示できるような動画データに合成する。
変形例19では、第1フレーム群のフレームのデータと、第2フレーム群のフレームのデータが、交互に画像合成部188に送られる。第1フレーム群のフレームのデータと、第2フレーム群のフレームのデータのどちらが先でも構わないが、この実施形態の画像合成部188は、先に受取ったフレームのデータと、その次に受取ったフレームのデータを、メモリ188Aの一部にそれぞれ書き込む。このとき、両データにより本来描画されるフレームを、多少縮小する、或いはその一部を切り捨てるなどして、新たな一画面分のフレームに描画し直してもよい。これを連続して行うことにより、画像合成部188は、第1フレーム群のフレームにより本来ディスプレイに表示される画像と、第2フレーム群のフレームにより本来ディスプレイに表示される画像とを共に含んだ、新たな動画のデータを作成する。この動画のデータは、メモリ188Aから、信号線189、第1出力端子121A、ケーブルC1を介してディスプレイD1に出力される。
ディスプレイD1には、第1フレーム群のフレームにより本来ディスプレイに表示される画像の連続である第1動画M1と、第2フレーム群のフレームにより本来ディスプレイに表示される画像の連続である第2動画M2とを含む動画が表示される。そのような動画の例を、図32に示す。
なお、変形例19のビデオプロセッサボックス120では、信号線189から、信号線1891が分岐している。信号線1891を介して、記録部124に、上記新たな動画のデータが記録される。
≪第2実施形態≫
第1実施形態のビデオカメラは、第1フレーム群に含まれるフレームのデータに基いて再生される動画と、第2フレーム群に含まれるフレームのデータに基いて再生される動画とを異質なものとするように、ビデオ信号中のフレームが切換わるタイミングに同期させながら、第1フレーム群に含まれることになるフレームが撮像素子136で撮像されているときには第1照明光が、第2フレーム群に含まれることになるフレームが撮像素子136で撮像されているときには第1照明光とは異質な第2照明光がそれぞれ照射されるように、照明光を適切なタイミングで切換えるものとなっていた。
これに対し、第2実施形態のビデオカメラは、後述する変形例のビデオカメラも含め、第1フレーム群に含まれるフレームのデータに基いて再生される動画と、第2フレーム群に含まれるフレームのデータに基いて再生される動画とを異質なものとするように、ビデオ信号中のフレームが切換わるタイミングに同期させながら、第1フレーム群に含まれることになるフレームが撮像素子136で撮像されているときには像光を第1像光に、第2フレーム群に含まれることになるフレームが撮像素子136で撮像されているときには像光を第1像光とは異質な第2像光にするように、像光を適切なタイミングで切換えるものとなっている。
各実施形態、変形例で説明した技術は、他の実施形態、変形例に原則適用できるのは上述の通りであるが、特に、変形例1、2で述べたフレームの概念の変更や、第1フレーム群と第2フレーム群にフレームを振分ける方法、変形例7で述べた第1垂直同期信号検出部122と第2垂直同期信号検出部137の一方で他方を兼ねる技術、変形例12~16で述べたビデオ信号に重畳されていない垂直同期信号を利用する技術、変形例19で述べた異質な2つの画像を組合せて一画像とする技術は、第2実施形態、及びその変形例にも利用可能である。なお、この点は、第3実施形態以下の各実施形態及びそれらの変形例でも同様である。
また、第1実施形態(の変形例)で第1実施形態と第2実施形態を組み合わせた例を説明したのみならず、第1実施形態と第4実施形態とを組合せた例を説明した。しかしながら、第2実施形態は、第1実施形態のみでなく他の実施形態とも組合せ可能である。更に言えば、第1実施形態から第4実施形態(及びそれらの変形例)はそれぞれ、他の実施形態(及びそれらの変形例)と組合せることが可能である。
第1実施形態のビデオカメラは、第1フレーム群に含まれるフレームのデータに基いて再生される動画と、第2フレーム群に含まれるフレームのデータに基いて再生される動画とを異質なものとするように、ビデオ信号中のフレームが切換わるタイミングに同期させながら、第1フレーム群に含まれることになるフレームが撮像素子136で撮像されているときには第1照明光が、第2フレーム群に含まれることになるフレームが撮像素子136で撮像されているときには第1照明光とは異質な第2照明光がそれぞれ照射されるように、照明光を適切なタイミングで切換えるものとなっていた。
これに対し、第2実施形態のビデオカメラは、後述する変形例のビデオカメラも含め、第1フレーム群に含まれるフレームのデータに基いて再生される動画と、第2フレーム群に含まれるフレームのデータに基いて再生される動画とを異質なものとするように、ビデオ信号中のフレームが切換わるタイミングに同期させながら、第1フレーム群に含まれることになるフレームが撮像素子136で撮像されているときには像光を第1像光に、第2フレーム群に含まれることになるフレームが撮像素子136で撮像されているときには像光を第1像光とは異質な第2像光にするように、像光を適切なタイミングで切換えるものとなっている。
各実施形態、変形例で説明した技術は、他の実施形態、変形例に原則適用できるのは上述の通りであるが、特に、変形例1、2で述べたフレームの概念の変更や、第1フレーム群と第2フレーム群にフレームを振分ける方法、変形例7で述べた第1垂直同期信号検出部122と第2垂直同期信号検出部137の一方で他方を兼ねる技術、変形例12~16で述べたビデオ信号に重畳されていない垂直同期信号を利用する技術、変形例19で述べた異質な2つの画像を組合せて一画像とする技術は、第2実施形態、及びその変形例にも利用可能である。なお、この点は、第3実施形態以下の各実施形態及びそれらの変形例でも同様である。
また、第1実施形態(の変形例)で第1実施形態と第2実施形態を組み合わせた例を説明したのみならず、第1実施形態と第4実施形態とを組合せた例を説明した。しかしながら、第2実施形態は、第1実施形態のみでなく他の実施形態とも組合せ可能である。更に言えば、第1実施形態から第4実施形態(及びそれらの変形例)はそれぞれ、他の実施形態(及びそれらの変形例)と組合せることが可能である。
第2実施形態のビデオカメラは、変形例18で説明したビデオカメラと概ね同一に構成された、手持ちタイプの拡大観察装置である。
第2実施形態のビデオカメラが、変形例18で説明したビデオカメラと異なるのは、図33に示したように、第2実施形態のビデオカメラには、変形例18のビデオカメラが備えていた、第2光源133B、照明切換部134、及びこれらに接続されていた信号線134A、134B、134Cがないという点である。第2実施形態のビデオカメラの光源は常時点灯する第1光源133Aのみであり、第1光源133Aに、第1実施形態のときのように、適当なタイミングで、第2光源133Bと交互に点灯させる必要がないからである。
他方、第2実施形態のビデオカメラは、変形例18のビデオカメラ同様に、第1像光透過部材185を備えている。第1像光透過部材185は、像光を透過させるものである。第2実施形態では、第1像光透過部材185はレンズ135と撮像素子136の間に設けられているが、第1像光透過部材185は、像光を透過させられる限り、対象物と撮像素子136の間のどこに設けられていても構わない。これは変形例18の場合も同様である。
第1像光透過部材185は、特定の波長領域の波長の光を透過させる状態と透過させない状態を選択できるフィルタである。逆でも構わないが、この実施形態では、前者の状態を第1状態、後者の状態を第2状態と呼ぶこととする。特定の波長領域は、可視領域、赤外領域、紫外領域等どのような波長領域でも構わないが、例えば、変形例18と同様に、青の波長領域である。必ずしもこの限りではないが、第2実施形態のビデオカメラにおける第1像光透過部材185は、第1状態では、青の波長領域の光を遮断するフィルタとして機能し、第2状態では、像光に対し光学的に透明である。第1像光透過部材185は、例えばMEMSである。
第2実施形態のビデオカメラが、変形例18で説明したビデオカメラと異なるのは、図33に示したように、第2実施形態のビデオカメラには、変形例18のビデオカメラが備えていた、第2光源133B、照明切換部134、及びこれらに接続されていた信号線134A、134B、134Cがないという点である。第2実施形態のビデオカメラの光源は常時点灯する第1光源133Aのみであり、第1光源133Aに、第1実施形態のときのように、適当なタイミングで、第2光源133Bと交互に点灯させる必要がないからである。
他方、第2実施形態のビデオカメラは、変形例18のビデオカメラ同様に、第1像光透過部材185を備えている。第1像光透過部材185は、像光を透過させるものである。第2実施形態では、第1像光透過部材185はレンズ135と撮像素子136の間に設けられているが、第1像光透過部材185は、像光を透過させられる限り、対象物と撮像素子136の間のどこに設けられていても構わない。これは変形例18の場合も同様である。
第1像光透過部材185は、特定の波長領域の波長の光を透過させる状態と透過させない状態を選択できるフィルタである。逆でも構わないが、この実施形態では、前者の状態を第1状態、後者の状態を第2状態と呼ぶこととする。特定の波長領域は、可視領域、赤外領域、紫外領域等どのような波長領域でも構わないが、例えば、変形例18と同様に、青の波長領域である。必ずしもこの限りではないが、第2実施形態のビデオカメラにおける第1像光透過部材185は、第1状態では、青の波長領域の光を遮断するフィルタとして機能し、第2状態では、像光に対し光学的に透明である。第1像光透過部材185は、例えばMEMSである。
第2実施形態では、第1像光透過部材185は、変形例18と同じように、撮像素子136が、後に第1フレーム群に振分けられるフレームを撮像しているときには第1状態を、撮像素子136が、後に第2フレーム群に振分けられるフレームを撮像しているときには第2状態を取るようになっている。そのような同期を可能とするために、第1像光透過部材185は、信号線185Aにより第2垂直同期信号検出部137と接続されており、第2垂直同期信号検出部137から、ビデオ信号から垂直同期信号が検出されたタイミングについての情報を受付けるようになっている。第1像光透過部材185はその情報を用いて、第1像光透過部材185の状態を撮像素子136が撮像を行いフレームのデータを生成するタイミングと同期させる。
第2実施形態のビデオカメラでは、変形例18の場合と同様に、後に第1フレーム群に振分けられるフレームを撮像しているときには第1像光透過部材185が青の波長領域の光を遮断するフィルタとして機能する第1状態になっているから、そのときに第1像光透過部材185を透過して撮像素子136で撮像される像光からは青の波長が除かれる。したがって、第1フレーム群に振分けられるフレームのデータには、そもそも青色(B)のデータが含まれていない。他方、後に第2フレーム群に振分けられるフレームを撮像しているときには第1像光透過部材185は光学的に透明な第2状態となっているから、そのときに第1像光透過部材185を透過して撮像素子136で撮像される像光からは青の波長が除かれない。
このようにして、異質な動画についての2種類のビデオ信号が作られる。
第2実施形態のビデオカメラでは、変形例18の場合と同様に、後に第1フレーム群に振分けられるフレームを撮像しているときには第1像光透過部材185が青の波長領域の光を遮断するフィルタとして機能する第1状態になっているから、そのときに第1像光透過部材185を透過して撮像素子136で撮像される像光からは青の波長が除かれる。したがって、第1フレーム群に振分けられるフレームのデータには、そもそも青色(B)のデータが含まれていない。他方、後に第2フレーム群に振分けられるフレームを撮像しているときには第1像光透過部材185は光学的に透明な第2状態となっているから、そのときに第1像光透過部材185を透過して撮像素子136で撮像される像光からは青の波長が除かれない。
このようにして、異質な動画についての2種類のビデオ信号が作られる。
<変形例20>
変形例20のビデオカメラは、第2実施形態で説明したビデオカメラと概ね同一に構成された、手持ちタイプの拡大観察装置である。
変形例20のビデオカメラが、第2実施形態で説明したビデオカメラと端的に異なるのは、変形例20のビデオカメラには、第2実施形態のビデオカメラが備えていた第1像光透過部材185がない、という点である。その代わり、変形例20のビデオカメラは、第2実施形態のビデオカメラが備えていなかったそのパワーが可変とされたパワー可変レンズ301を備えている(図34)。
パワー可変レンズ301は、例えば液晶レンズである。液晶レンズは一般に、いずれも図示を省略するが、所定の間隔をおいて配された2枚の透明な板と、その2枚の板に沿って2枚の板のそれぞれと対にして設けられた2つの透明電極と、2つの透明電極の間に配された液晶層と、2つの透明電極の間に所望の電圧を印加する電源を備えて構成されている。液晶レンズは、透明電極の間に印加する電圧の大小及び向きを制御して、液晶層を横切る電界の強さを液晶層の部分毎に異ならせることで液晶層の屈折率分布をその部分によって異ならせることにより、全体としてレンズとして機能するとともに、そのパワーのプラスとマイナス、及びそのパワーの大きさを変化させられるというものである。
パワー可変レンズ301は、あるパワーである第1状態と、それとは異なるパワーである第2状態を取ることができるようになっている。それは、上述の電圧の制御により実現可能である。第1状態におけるパワーと、第2状態におけるパワーの組み合わせは、プラス、マイナス、ゼロ、及びそれらの絶対値の双方について自由に選択できるが、この実施形態ではいずれもプラスである。つまり、パワー可変レンズ301は、第1状態と第2状態のいずれでも、凸レンズとして機能するが、そのパワーが異なる。
変形例20のビデオカメラは、第2実施形態で説明したビデオカメラと概ね同一に構成された、手持ちタイプの拡大観察装置である。
変形例20のビデオカメラが、第2実施形態で説明したビデオカメラと端的に異なるのは、変形例20のビデオカメラには、第2実施形態のビデオカメラが備えていた第1像光透過部材185がない、という点である。その代わり、変形例20のビデオカメラは、第2実施形態のビデオカメラが備えていなかったそのパワーが可変とされたパワー可変レンズ301を備えている(図34)。
パワー可変レンズ301は、例えば液晶レンズである。液晶レンズは一般に、いずれも図示を省略するが、所定の間隔をおいて配された2枚の透明な板と、その2枚の板に沿って2枚の板のそれぞれと対にして設けられた2つの透明電極と、2つの透明電極の間に配された液晶層と、2つの透明電極の間に所望の電圧を印加する電源を備えて構成されている。液晶レンズは、透明電極の間に印加する電圧の大小及び向きを制御して、液晶層を横切る電界の強さを液晶層の部分毎に異ならせることで液晶層の屈折率分布をその部分によって異ならせることにより、全体としてレンズとして機能するとともに、そのパワーのプラスとマイナス、及びそのパワーの大きさを変化させられるというものである。
パワー可変レンズ301は、あるパワーである第1状態と、それとは異なるパワーである第2状態を取ることができるようになっている。それは、上述の電圧の制御により実現可能である。第1状態におけるパワーと、第2状態におけるパワーの組み合わせは、プラス、マイナス、ゼロ、及びそれらの絶対値の双方について自由に選択できるが、この実施形態ではいずれもプラスである。つまり、パワー可変レンズ301は、第1状態と第2状態のいずれでも、凸レンズとして機能するが、そのパワーが異なる。
変形例20では、パワー可変レンズ301は、第2実施形態と同じように、撮像素子136が、後に第1フレーム群に振分けられるフレームを撮像しているときには第1状態を、撮像素子136が、後に第2フレーム群に振分けられるフレームを撮像しているときには第2状態を取るようになっている。そのような同期を可能とするために、パワー可変レンズ301は、第2実施形態における信号線185Aに代わる信号線301Aにより第2垂直同期信号検出部137と接続されており、第2垂直同期信号検出部137から、ビデオ信号から垂直同期信号が検出されたタイミングについての情報を受付けるようになっている。パワー可変レンズ301はその情報を用いて、パワー可変レンズ301の状態を撮像素子136が撮像を行いフレームのデータを生成するタイミングと同期させる。
変形例20のビデオカメラでは、後に第1フレーム群に振分けられるフレームを撮像しているときに第1状態を、後に第2フレーム群に振分けられるフレームを撮像しているときには第2状態を取るが、両状態におけるパワー可変レンズ301はパワーの異なるプラスのパワーのレンズとして機能する。これは両状態における画像が、異なる倍率で拡大されることを意味する。
そのように異なる倍率で拡大された像光が撮像素子136で撮像されるから、第1フレーム群に振分けられたフレームのデータに基いて再生される動画と、第2フレーム群に振分けられたフレームのデータに基いて再生される動画とは、倍率の異なる拡大画像となり、異質なものとなる。
変形例20のビデオカメラでは、後に第1フレーム群に振分けられるフレームを撮像しているときに第1状態を、後に第2フレーム群に振分けられるフレームを撮像しているときには第2状態を取るが、両状態におけるパワー可変レンズ301はパワーの異なるプラスのパワーのレンズとして機能する。これは両状態における画像が、異なる倍率で拡大されることを意味する。
そのように異なる倍率で拡大された像光が撮像素子136で撮像されるから、第1フレーム群に振分けられたフレームのデータに基いて再生される動画と、第2フレーム群に振分けられたフレームのデータに基いて再生される動画とは、倍率の異なる拡大画像となり、異質なものとなる。
<変形例21>
変形例21のビデオカメラは、第2実施形態で説明したビデオカメラと概ね同一に構成された、手持ちタイプの拡大観察装置である。
変形例21のビデオカメラが、第2実施形態で説明したビデオカメラと端的に異なるのは、変形例21のビデオカメラには、第2実施形態のビデオカメラが備えていた第1像光透過部材185がない、という点である。その代わり、変形例21のビデオカメラは、第2実施形態のビデオカメラが備えていなかった像光を絞るものであり、その径が可変とされた絞り302を備えている(図35)。絞り302は、ある径とそれとは異なる径を取ることができる。便宜上、前者を第1状態、後者を第2状態と呼ぶ。
絞り302の径は上述したように可変であるが、どのような仕組みで径が可変となるように成っていても良い。例えば、機械的にその径が変更できる周知の仕組みを絞り302に採用しても良いし、透過液晶板を用いて電気的にその径を変更できるような仕組みを絞り302に採用しても良い。
絞り302の径を変更することにより、撮像素子136で撮像される画像は、焦点深度又は明るさが異なるものとなる。絞り302に焦点深度の変更の機能を与えるか、明るさの変更の機能を与えるかは、絞り302を配する位置によって変えられる。
焦点深度を変化させる場合には、焦点深度の深さと、得られる画像の解像度がバーターの関係となる。
変形例21のビデオカメラは、第2実施形態で説明したビデオカメラと概ね同一に構成された、手持ちタイプの拡大観察装置である。
変形例21のビデオカメラが、第2実施形態で説明したビデオカメラと端的に異なるのは、変形例21のビデオカメラには、第2実施形態のビデオカメラが備えていた第1像光透過部材185がない、という点である。その代わり、変形例21のビデオカメラは、第2実施形態のビデオカメラが備えていなかった像光を絞るものであり、その径が可変とされた絞り302を備えている(図35)。絞り302は、ある径とそれとは異なる径を取ることができる。便宜上、前者を第1状態、後者を第2状態と呼ぶ。
絞り302の径は上述したように可変であるが、どのような仕組みで径が可変となるように成っていても良い。例えば、機械的にその径が変更できる周知の仕組みを絞り302に採用しても良いし、透過液晶板を用いて電気的にその径を変更できるような仕組みを絞り302に採用しても良い。
絞り302の径を変更することにより、撮像素子136で撮像される画像は、焦点深度又は明るさが異なるものとなる。絞り302に焦点深度の変更の機能を与えるか、明るさの変更の機能を与えるかは、絞り302を配する位置によって変えられる。
焦点深度を変化させる場合には、焦点深度の深さと、得られる画像の解像度がバーターの関係となる。
変形例21では、絞り302は、第2実施形態と同じように、撮像素子136が、後に第1フレーム群に振分けられるフレームを撮像しているときには第1状態を、撮像素子136が、後に第2フレーム群に振分けられるフレームを撮像しているときには第2状態を取るようになっている。そのような同期を可能とするために、絞り302は、第2実施形態における信号線185Aに代わる信号線302Aにより第2垂直同期信号検出部137と接続されており、第2垂直同期信号検出部137から、ビデオ信号から垂直同期信号が検出されたタイミングについての情報を受付けるようになっている。絞り302はその情報を用いて、絞り302の状態を撮像素子136が撮像を行いフレームのデータを生成するタイミングと同期させる。
変形例21のビデオカメラでは、絞り302は、後に第1フレーム群に振分けられるフレームを撮像しているときに第1状態を、後に第2フレーム群に振分けられるフレームを撮像しているときには第2状態を取る。両状態における絞り302の径は異なるものとなっているから、両状態で撮像される画像は、焦点深度、或いは明るさという点で異なるものとなる。
第1状態と第2状態のいずれかの状態の絞り302を通過して絞られた像光が撮像素子136で撮像されるから、第1フレーム群に振分けられたフレームのデータに基いて再生される動画と、第2フレーム群に振分けられたフレームのデータに基いて再生される動画とは、焦点深度、或いは明るさが異なる、異質なものとなる。
変形例21のビデオカメラでは、絞り302は、後に第1フレーム群に振分けられるフレームを撮像しているときに第1状態を、後に第2フレーム群に振分けられるフレームを撮像しているときには第2状態を取る。両状態における絞り302の径は異なるものとなっているから、両状態で撮像される画像は、焦点深度、或いは明るさという点で異なるものとなる。
第1状態と第2状態のいずれかの状態の絞り302を通過して絞られた像光が撮像素子136で撮像されるから、第1フレーム群に振分けられたフレームのデータに基いて再生される動画と、第2フレーム群に振分けられたフレームのデータに基いて再生される動画とは、焦点深度、或いは明るさが異なる、異質なものとなる。
<変形例22>
変形例22のビデオカメラは、第2実施形態で説明したビデオカメラと概ね同一に構成された、手持ちタイプの拡大観察装置である。
変形例22のビデオカメラが、第2実施形態で説明したビデオカメラと端的に異なるのは、変形例22のビデオカメラには、第2実施形態のビデオカメラが備えていた第1像光透過部材185がない、という点である。その代わり、変形例22のビデオカメラは、第2実施形態のビデオカメラが備えていなかった、第2像光透過部材303、及びそれを駆動させる駆動部304を備えている(図36)。
駆動部304は、第2像光透過部材303を平行移動させることができるようなものであり、それにより第2像光透過部材303は、破線で示された、像光の光路上にあり像光を透過させる第1位置と、実線で示された像光の光路上になく像光を透過させない第2位置の間を往復する。
変形例22の第2像光透過部材303は、フィルタであり、ある波長領域の光を透過させないものである。例えば、第2像光透過部材303は、青の波長領域の光を透過させないフィルタである。
変形例22のビデオカメラは、第2実施形態で説明したビデオカメラと概ね同一に構成された、手持ちタイプの拡大観察装置である。
変形例22のビデオカメラが、第2実施形態で説明したビデオカメラと端的に異なるのは、変形例22のビデオカメラには、第2実施形態のビデオカメラが備えていた第1像光透過部材185がない、という点である。その代わり、変形例22のビデオカメラは、第2実施形態のビデオカメラが備えていなかった、第2像光透過部材303、及びそれを駆動させる駆動部304を備えている(図36)。
駆動部304は、第2像光透過部材303を平行移動させることができるようなものであり、それにより第2像光透過部材303は、破線で示された、像光の光路上にあり像光を透過させる第1位置と、実線で示された像光の光路上になく像光を透過させない第2位置の間を往復する。
変形例22の第2像光透過部材303は、フィルタであり、ある波長領域の光を透過させないものである。例えば、第2像光透過部材303は、青の波長領域の光を透過させないフィルタである。
変形例22では、第2像光透過部材303は、撮像素子136が、後に第1フレーム群に振分けられるフレームを撮像しているときには第1位置に、撮像素子136が、後に第2フレーム群に振分けられるフレームを撮像しているときには第2位置にあるようになっている。そのような同期を可能とするために、第2像光透過部材303を移動させる駆動部304は、第2実施形態における信号線185Aに代わる信号線303Aにより第2垂直同期信号検出部137と接続されており、第2垂直同期信号検出部137から、ビデオ信号から垂直同期信号が検出されたタイミングについての情報を受付けるようになっている。駆動部304はその情報を用いて、第2像光透過部材303を第1位置と第2位置の間で移動させ、第2像光透過部材303の位置の変化を撮像素子136が撮像を行いフレームのデータを生成するタイミングと同期させる。
変形例22のビデオカメラでは、第2像光透過部材303は、後に第1フレーム群に振分けられるフレームを撮像しているときに第1位置に、後に第2フレーム群に振分けられるフレームを撮像しているときには第2位置にあるから、前者の場合に撮像素子136で撮像される像光には、青の波長領域の光が含まれないが、後者の場合に撮像素子136で撮像される像光にはすべての波長の光が含まれることとなる。
結果、変形例22のビデオカメラで得られる、第1フレーム群に振分けられたフレームのデータに基いて再生される動画と、第2フレーム群に振分けられたフレームのデータに基いて再生される動画とは、第2実施形態の場合と同じ異質なものとなる。
変形例22のビデオカメラでは、第2像光透過部材303は、後に第1フレーム群に振分けられるフレームを撮像しているときに第1位置に、後に第2フレーム群に振分けられるフレームを撮像しているときには第2位置にあるから、前者の場合に撮像素子136で撮像される像光には、青の波長領域の光が含まれないが、後者の場合に撮像素子136で撮像される像光にはすべての波長の光が含まれることとなる。
結果、変形例22のビデオカメラで得られる、第1フレーム群に振分けられたフレームのデータに基いて再生される動画と、第2フレーム群に振分けられたフレームのデータに基いて再生される動画とは、第2実施形態の場合と同じ異質なものとなる。
<変形例23>
変形例23のビデオカメラは、第2実施形態で説明したビデオカメラと概ね同一に構成された、手持ちタイプの拡大観察装置である。
更に言えば、変形例23のビデオカメラは、変形例22のビデオカメラと殆ど同じものになっている。
変形例22のビデオカメラは、第2像光透過部材303の移動により、フィルタである第2像光透過部材303に像光を透過させるか否かを選択していたが、変形例23のビデオカメラでは、図37に示した複合フィルタ305の回転により、像光を変形例22の第2像光透過部材303に相当する後述のフィルタ部を透過させるか否かを選択することとしている。
複合フィルタ305は、中心角90度の扇形形状をした変形例22の第2像光透過部材303と同等の機能を有するフィルタ部305Aと、光学的に透明な板である、中心角90度の扇形形状をした透過板305Bとを互い違いに2枚ずつ組合せて円形としたものである。複合フィルタ305はその中心を貫く軸306に固定されている。軸306は、軸306を回転させるアクチュエータ307に接続されており、アクチュエータ307により回転させられる。それにより複合フィルタ305は軸306周りに例えば一方向で回転する。
変形例23のビデオカメラは、第2実施形態で説明したビデオカメラと概ね同一に構成された、手持ちタイプの拡大観察装置である。
更に言えば、変形例23のビデオカメラは、変形例22のビデオカメラと殆ど同じものになっている。
変形例22のビデオカメラは、第2像光透過部材303の移動により、フィルタである第2像光透過部材303に像光を透過させるか否かを選択していたが、変形例23のビデオカメラでは、図37に示した複合フィルタ305の回転により、像光を変形例22の第2像光透過部材303に相当する後述のフィルタ部を透過させるか否かを選択することとしている。
複合フィルタ305は、中心角90度の扇形形状をした変形例22の第2像光透過部材303と同等の機能を有するフィルタ部305Aと、光学的に透明な板である、中心角90度の扇形形状をした透過板305Bとを互い違いに2枚ずつ組合せて円形としたものである。複合フィルタ305はその中心を貫く軸306に固定されている。軸306は、軸306を回転させるアクチュエータ307に接続されており、アクチュエータ307により回転させられる。それにより複合フィルタ305は軸306周りに例えば一方向で回転する。
複合フィルタ305はビデオカメラのケース内に配置される。像光は、図37(B)のLで示された範囲を通過する。複合フィルタ305が回転すると、像光は、フィルタ部305Aか、透過板305Bの一方を透過する。この変形例23では像光は、撮像素子136が、後に第1フレーム群に振分けられるフレームを撮像しているときにはフィルタ部305Aを透過し、撮像素子136が、後に第2フレーム群に振分けられるフレームを撮像しているときには透過板305Bを透過するようになっている。そのような同期を可能とするために、複合フィルタ305を回転させるアクチュエータ307は、図示を省略の信号線により第2垂直同期信号検出部137と接続されており、第2垂直同期信号検出部137から、ビデオ信号から垂直同期信号が検出されたタイミングについての情報を受付けるようになっている。
フィルタ部305Aを透過した場合における撮像素子136で撮像される像光は、変形例22において第2像光透過部材303が第1位置にある場合において撮像素子136で撮像される像光と同じであり、透過板305Bを透過した場合における撮像素子136で撮像される像光は、変形例22において第2像光透過部材303が第2位置にある場合において撮像素子136で撮像される像光と同じである。
つまり、この実施形態で得られる2つの動画は、変形例22の場合と同じとなり互いに異質なものとなる。
フィルタ部305Aを透過した場合における撮像素子136で撮像される像光は、変形例22において第2像光透過部材303が第1位置にある場合において撮像素子136で撮像される像光と同じであり、透過板305Bを透過した場合における撮像素子136で撮像される像光は、変形例22において第2像光透過部材303が第2位置にある場合において撮像素子136で撮像される像光と同じである。
つまり、この実施形態で得られる2つの動画は、変形例22の場合と同じとなり互いに異質なものとなる。
<変形例24>
変形例24のビデオカメラは、第2実施形態で説明したビデオカメラと概ね同一に構成された、手持ちタイプの拡大観察装置である。
更に言えば、変形例24のビデオカメラは、変形例22のビデオカメラと殆ど同じものになっている。
要するに、変形例24のビデオカメラは、変形例22における第2像光透過部材303をレンズを嵌めた枠308に置き換えただけのものとなっている(図38)。この枠308は、変形例22における第2像光透過部材303同様、往復運動を行うようになっている。往復運動を実現するための仕組みやタイミングはすべて変形例22で示したものを応用可能である。
変形例24のビデオカメラでは、枠308が第1位置にある場合には像光がレンズを透過し、枠308が第2位置にある場合には像光がレンズを透過しない。例えば、レンズは拡大レンズである。
変形例24では、それが後に第1フレーム群に振分けられるフレームを撮像しているときには撮像素子136は、レンズ135及び枠308に含まれたレンズを透過した像光を、それが後に第2フレーム群に振分けられるフレームを撮像しているときには撮像素子136は、レンズ135のみを透過した像光を撮像することになる。
結果、変形例24のビデオカメラで得られる、第1フレーム群に振分けられたフレームのデータに基いて再生される動画と、第2フレーム群に振分けられたフレームのデータに基いて再生される動画とは、拡大倍率の異なる異質なものとなる。
変形例24のビデオカメラは、第2実施形態で説明したビデオカメラと概ね同一に構成された、手持ちタイプの拡大観察装置である。
更に言えば、変形例24のビデオカメラは、変形例22のビデオカメラと殆ど同じものになっている。
要するに、変形例24のビデオカメラは、変形例22における第2像光透過部材303をレンズを嵌めた枠308に置き換えただけのものとなっている(図38)。この枠308は、変形例22における第2像光透過部材303同様、往復運動を行うようになっている。往復運動を実現するための仕組みやタイミングはすべて変形例22で示したものを応用可能である。
変形例24のビデオカメラでは、枠308が第1位置にある場合には像光がレンズを透過し、枠308が第2位置にある場合には像光がレンズを透過しない。例えば、レンズは拡大レンズである。
変形例24では、それが後に第1フレーム群に振分けられるフレームを撮像しているときには撮像素子136は、レンズ135及び枠308に含まれたレンズを透過した像光を、それが後に第2フレーム群に振分けられるフレームを撮像しているときには撮像素子136は、レンズ135のみを透過した像光を撮像することになる。
結果、変形例24のビデオカメラで得られる、第1フレーム群に振分けられたフレームのデータに基いて再生される動画と、第2フレーム群に振分けられたフレームのデータに基いて再生される動画とは、拡大倍率の異なる異質なものとなる。
変形例24では、枠にレンズでなく絞りを固定することもできる。
それにより、逆でも良いが、後に第1フレーム群に振分けられるフレームを撮像している撮像素子136には、絞りを通過させた像光を、後に第2フレーム群に振分けられるフレームを撮像している撮像素子136には、絞りを通過しない像光を撮像させることができるようになる。
結果、変形例24のビデオカメラで得られる、第1フレーム群に振分けられたフレームのデータに基いて再生される動画と、第2フレーム群に振分けられたフレームのデータに基いて再生される動画とは、焦点深度又は明るさの異なる異質なものとなる。
また、変形例22の往復運動を変形例23の回転運動に置き換えたのと同様に、変形例24の枠308に固定されていたレンズ又は絞りを、変形例23の複合フィルタ305のフィルタ部305Aの部分(より詳細には、像光が通過するLの範囲に対応する部分)に固定することも可能である。
これらの場合により得られる2つの動画は、拡大倍率の異なる異質なものになるか、或いは焦点深度又は明るさの異なる異質なものとなる。
それにより、逆でも良いが、後に第1フレーム群に振分けられるフレームを撮像している撮像素子136には、絞りを通過させた像光を、後に第2フレーム群に振分けられるフレームを撮像している撮像素子136には、絞りを通過しない像光を撮像させることができるようになる。
結果、変形例24のビデオカメラで得られる、第1フレーム群に振分けられたフレームのデータに基いて再生される動画と、第2フレーム群に振分けられたフレームのデータに基いて再生される動画とは、焦点深度又は明るさの異なる異質なものとなる。
また、変形例22の往復運動を変形例23の回転運動に置き換えたのと同様に、変形例24の枠308に固定されていたレンズ又は絞りを、変形例23の複合フィルタ305のフィルタ部305Aの部分(より詳細には、像光が通過するLの範囲に対応する部分)に固定することも可能である。
これらの場合により得られる2つの動画は、拡大倍率の異なる異質なものになるか、或いは焦点深度又は明るさの異なる異質なものとなる。
≪第3実施形態≫
第1実施形態のビデオカメラは、第1フレーム群に含まれるフレームのデータに基いて再生される動画と、第2フレーム群に含まれるフレームのデータに基いて再生される動画とを異質なものとするように、ビデオ信号中のフレームが切換わるタイミングに同期させながら、第1フレーム群に含まれることになるフレームが撮像素子136で撮像されているときには第1照明光が、第2フレーム群に含まれることになるフレームが撮像素子136で撮像されているときには第1照明光とは異質な第2照明光がそれぞれ照射されるように、照明光を適切なタイミングで切換えるものとなっていた。
これに対し、第3実施形態のビデオカメラは、後述する変形例のビデオカメラも含め、第1フレーム群に含まれるフレームのデータに基いて再生される動画と、第2フレーム群に含まれるフレームのデータに基いて再生される動画とを異質なものとするように、ビデオ信号中のフレームが切換わるタイミングに同期させながら、第1フレーム群に含まれることになるフレームが撮像素子136で撮像されているときと、第2フレーム群に含まれることになるフレームが撮像素子136で撮像されているときとで、撮像素子136が像光を撮像する条件をある条件である第1条件とそれとは異なる条件である第2条件との間で変化させるものとなっている。
第1実施形態のビデオカメラは、第1フレーム群に含まれるフレームのデータに基いて再生される動画と、第2フレーム群に含まれるフレームのデータに基いて再生される動画とを異質なものとするように、ビデオ信号中のフレームが切換わるタイミングに同期させながら、第1フレーム群に含まれることになるフレームが撮像素子136で撮像されているときには第1照明光が、第2フレーム群に含まれることになるフレームが撮像素子136で撮像されているときには第1照明光とは異質な第2照明光がそれぞれ照射されるように、照明光を適切なタイミングで切換えるものとなっていた。
これに対し、第3実施形態のビデオカメラは、後述する変形例のビデオカメラも含め、第1フレーム群に含まれるフレームのデータに基いて再生される動画と、第2フレーム群に含まれるフレームのデータに基いて再生される動画とを異質なものとするように、ビデオ信号中のフレームが切換わるタイミングに同期させながら、第1フレーム群に含まれることになるフレームが撮像素子136で撮像されているときと、第2フレーム群に含まれることになるフレームが撮像素子136で撮像されているときとで、撮像素子136が像光を撮像する条件をある条件である第1条件とそれとは異なる条件である第2条件との間で変化させるものとなっている。
第3実施形態のビデオカメラは、第2実施形態で説明したビデオカメラと概ね同一に構成された、手持ちタイプの拡大観察装置である。
第3実施形態のビデオカメラが、第2実施形態で説明したビデオカメラと異なるのは、図39に示したように、第3実施形態のビデオカメラには、第1像光透過部材185及び信号線185Aがないという点である。
他方、第3実施形態のビデオカメラには、撮像素子136が像光を撮像する条件をある条件である第1条件とそれとは異なる条件である第2条件との間で変化させるという撮像素子136の制御を行う、撮像素子制御部311が設けられている。撮像素子制御部311は、信号線311Bを介して撮像素子136と接続されており、信号線311Bを介して送る後述の情報により撮像素子136を制御する。
これには限らないが、この実施形態のビデオカメラの撮像素子制御部311は、後に第1フレーム群に含まれることになるフレームを撮像素子136が撮像しているときと、後に第2フレーム群に含まれることになるフレームを撮像素子136が撮像しているときとで、撮像素子136(より詳細にはその受光面)中の撮像を行なう範囲が変化するように、撮像素子136を制御するようになっている。つまり、この実施形態における第1条件と第2条件は、撮像素子136中の撮像範囲である。後に第1フレーム群に含まれることになるフレームを撮像素子136が撮像しているときの撮像範囲が第1条件であり、後に第2フレーム群に含まれることになるフレームを撮像素子136が撮像しているときの撮像範囲が第2条件であるものとして話を進める。
第3実施形態のビデオカメラが、第2実施形態で説明したビデオカメラと異なるのは、図39に示したように、第3実施形態のビデオカメラには、第1像光透過部材185及び信号線185Aがないという点である。
他方、第3実施形態のビデオカメラには、撮像素子136が像光を撮像する条件をある条件である第1条件とそれとは異なる条件である第2条件との間で変化させるという撮像素子136の制御を行う、撮像素子制御部311が設けられている。撮像素子制御部311は、信号線311Bを介して撮像素子136と接続されており、信号線311Bを介して送る後述の情報により撮像素子136を制御する。
これには限らないが、この実施形態のビデオカメラの撮像素子制御部311は、後に第1フレーム群に含まれることになるフレームを撮像素子136が撮像しているときと、後に第2フレーム群に含まれることになるフレームを撮像素子136が撮像しているときとで、撮像素子136(より詳細にはその受光面)中の撮像を行なう範囲が変化するように、撮像素子136を制御するようになっている。つまり、この実施形態における第1条件と第2条件は、撮像素子136中の撮像範囲である。後に第1フレーム群に含まれることになるフレームを撮像素子136が撮像しているときの撮像範囲が第1条件であり、後に第2フレーム群に含まれることになるフレームを撮像素子136が撮像しているときの撮像範囲が第2条件であるものとして話を進める。
第3実施形態では、撮像素子136は、撮像素子136が、後に第1フレーム群に振分けられるフレームを撮像しているときには第1条件を、撮像素子136が、後に第2フレーム群に振分けられるフレームを撮像しているときには第2条件を取るようになっている。そのような同期を可能とするために、撮像素子制御部311は、信号線311Aにより第2垂直同期信号検出部137と接続されており、第2垂直同期信号検出部137から、ビデオ信号から垂直同期信号が検出されたタイミングについての情報を受付けるようになっている。撮像素子制御部311はその情報を用いて、撮像素子136に今のタイミングで撮像する範囲についての情報を送る。
その情報は、例えば、撮像素子136の撮像面を特定する座標の情報である。この座標の情報は、撮像素子136が撮像を行うべき範囲に存在するすべての受光素子を特定するものであっても良いし、撮像素子136が撮像を行うべき範囲が矩形である場合には、その4つの頂点か或いは、その対角の2つの頂点を指定するものであっても良い。
その情報は、例えば、撮像素子136の撮像面を特定する座標の情報である。この座標の情報は、撮像素子136が撮像を行うべき範囲に存在するすべての受光素子を特定するものであっても良いし、撮像素子136が撮像を行うべき範囲が矩形である場合には、その4つの頂点か或いは、その対角の2つの頂点を指定するものであっても良い。
撮像素子136は、その情報に基いて、第1条件と第2条件にしたがって交互に撮像を行う。
そのとき撮像される範囲は、例えば、図40に示したようなものである。
(A)に示した例は、第1条件下では、撮像素子136は、撮像素子136の撮像面一杯で撮像を行い、第2条件下では、撮像素子136の中心の撮像面と相似形の所定範囲で撮像を行うというものである。このとき、第1条件下で撮像される撮像範囲は、(XA1、YA1)と(XB1、YB1)という2つの黒丸の付された座標を指定することで特定することができる。また、第2条件下で撮像される撮像範囲は、(XA2、YA2)と(XB2、YB2)という2つの黒丸の付された座標を指定することで特定することができる。この情報を、撮像素子制御部311は、撮像素子136に送る。なお、座標の情報は、撮像素子136が後に第1フレーム群に振分けられるフレーム又は、撮像素子136が、後に第2フレーム群に振分けられるフレームを撮像する度に送られても良いし、撮像素子136が座標の情報を記録ないし保持することができるのであれば、1回のみ送っても良い。ただし、その情報を毎回送るか、一度のみ送るかによらず、撮像素子制御部311は、どのタイミングで撮像素子136が後に第1フレーム群に振分けられるフレームの撮像をするのか、また、どのタイミングで撮像素子136が後に第2フレーム群に振分けられるフレームを撮像するのか、というタイミングについての情報を撮像素子136に送る。
そのとき撮像される範囲は、例えば、図40に示したようなものである。
(A)に示した例は、第1条件下では、撮像素子136は、撮像素子136の撮像面一杯で撮像を行い、第2条件下では、撮像素子136の中心の撮像面と相似形の所定範囲で撮像を行うというものである。このとき、第1条件下で撮像される撮像範囲は、(XA1、YA1)と(XB1、YB1)という2つの黒丸の付された座標を指定することで特定することができる。また、第2条件下で撮像される撮像範囲は、(XA2、YA2)と(XB2、YB2)という2つの黒丸の付された座標を指定することで特定することができる。この情報を、撮像素子制御部311は、撮像素子136に送る。なお、座標の情報は、撮像素子136が後に第1フレーム群に振分けられるフレーム又は、撮像素子136が、後に第2フレーム群に振分けられるフレームを撮像する度に送られても良いし、撮像素子136が座標の情報を記録ないし保持することができるのであれば、1回のみ送っても良い。ただし、その情報を毎回送るか、一度のみ送るかによらず、撮像素子制御部311は、どのタイミングで撮像素子136が後に第1フレーム群に振分けられるフレームの撮像をするのか、また、どのタイミングで撮像素子136が後に第2フレーム群に振分けられるフレームを撮像するのか、というタイミングについての情報を撮像素子136に送る。
それにより、第3実施形態のビデオカメラでは、後に第1フレーム群に振分けられるフレームを撮像しているときと、後に第2フレーム群に振分けられるフレームを撮像しているときとで撮像の範囲が異なるものとなる。例えば、図40で示した(A)の例では、撮像素子136が第1条件で撮像した動画に対して撮像素子136が第2条件で撮像した動画はあたかも電子ズームを行ったかのような動画となる。また、(B)の例では、撮像素子136が第1条件で撮像した動画と、撮像素子136が第2条件で撮像した動画は、対象物の微妙に異なる場所を撮像した動画となる。
このようにして、異質な動画についての2種類のビデオ信号が作られる。
なお、撮像範囲についての第1条件と第2条件は、ユーザが指定できるようにしてももちろん良い。
このようにして、異質な動画についての2種類のビデオ信号が作られる。
なお、撮像範囲についての第1条件と第2条件は、ユーザが指定できるようにしてももちろん良い。
なお、撮像素子136か、その制御回路に垂直同期信号を生成する機能が備わっているのであれば、この実施形態では第2垂直同期信号検出部137は不要であり、撮像素子制御部311はその機能を有する回路等から垂直同期信号を受取れば良い。その場合には、撮像素子制御部311は撮像素子136と、或いは撮像素子136の制御回路と一体とするのが合理的かもしれない。
<変形例25>
変形例25のビデオカメラは、第3実施形態で説明したビデオカメラとほとんど同一である。特に、図39に示されたレベルでは、ハードウエア構成に変わりはない。異なるのは、第1条件と第2条件であり、撮像素子制御部311が撮像素子136に送る情報である。
第3実施形態の撮像素子制御部311は、後に第1フレーム群に含まれることになるフレームを撮像素子136が撮像しているときと、後に第2フレーム群に含まれることになるフレームを撮像素子136が撮像しているときとで、撮像素子136(より詳細にはその受光面)中の撮像を行なう範囲が変化するように、撮像素子136を制御するようになっていた。
これに対し、変形例25の撮像素子制御部311は、後に第1フレーム群に含まれることになるフレームを撮像素子136が撮像しているときと、後に第2フレーム群に含まれることになるフレームを撮像素子136が撮像しているときとで、撮像素子136が各フレームのデータを作るための撮像を行なっている時間(露光時間)が変化するように、撮像素子136を制御するようになっている。
つまり、この実施形態における第1条件と第2条件は、撮像素子136が撮像を行う際の露光時間である。後に第1フレーム群に含まれることになるフレームを撮像素子136が撮像しているときの露光時間が第1条件であり、後に第2フレーム群に含まれることになるフレームを撮像素子136が撮像しているときの露光時間が第2条件であるものとして話を進める。
変形例25のビデオカメラは、第3実施形態で説明したビデオカメラとほとんど同一である。特に、図39に示されたレベルでは、ハードウエア構成に変わりはない。異なるのは、第1条件と第2条件であり、撮像素子制御部311が撮像素子136に送る情報である。
第3実施形態の撮像素子制御部311は、後に第1フレーム群に含まれることになるフレームを撮像素子136が撮像しているときと、後に第2フレーム群に含まれることになるフレームを撮像素子136が撮像しているときとで、撮像素子136(より詳細にはその受光面)中の撮像を行なう範囲が変化するように、撮像素子136を制御するようになっていた。
これに対し、変形例25の撮像素子制御部311は、後に第1フレーム群に含まれることになるフレームを撮像素子136が撮像しているときと、後に第2フレーム群に含まれることになるフレームを撮像素子136が撮像しているときとで、撮像素子136が各フレームのデータを作るための撮像を行なっている時間(露光時間)が変化するように、撮像素子136を制御するようになっている。
つまり、この実施形態における第1条件と第2条件は、撮像素子136が撮像を行う際の露光時間である。後に第1フレーム群に含まれることになるフレームを撮像素子136が撮像しているときの露光時間が第1条件であり、後に第2フレーム群に含まれることになるフレームを撮像素子136が撮像しているときの露光時間が第2条件であるものとして話を進める。
変形例25では、撮像素子136は、撮像素子136が、後に第1フレーム群に振分けられるフレームを撮像しているときには第1条件を、撮像素子136が、後に第2フレーム群に振分けられるフレームを撮像しているときには第2条件を取るようになっている。そのような同期を可能とするための方法は、第3実施形態の場合と変わらない。
撮像素子136は、その情報に基いて、第1条件と第2条件にしたがって交互に撮像を行う。
そのとき撮像された画像は明るさの異なるものとなる。
このようにして、異質な動画についての2種類のビデオ信号が作られる。
なお、露光時間についての第1条件と第2条件は、ユーザが指定できるようにしてももちろん良い。
撮像素子136は、その情報に基いて、第1条件と第2条件にしたがって交互に撮像を行う。
そのとき撮像された画像は明るさの異なるものとなる。
このようにして、異質な動画についての2種類のビデオ信号が作られる。
なお、露光時間についての第1条件と第2条件は、ユーザが指定できるようにしてももちろん良い。
≪第4実施形態≫
第1実施形態のビデオカメラは、第1フレーム群に含まれるフレームのデータに基いて再生される動画と、第2フレーム群に含まれるフレームのデータに基いて再生される動画とを異質なものとするように、ビデオ信号中のフレームが切換わるタイミングに同期させながら、第1フレーム群に含まれることになるフレームが撮像素子136で撮像されているときには第1照明光が、第2フレーム群に含まれることになるフレームが撮像素子136で撮像されているときには第1照明光とは異質な第2照明光がそれぞれ照射されるように、照明光を適切なタイミングで切換えるものとなっていた。
これに対し、第4実施形態のビデオカメラは、後述する変形例のビデオカメラも含め、第1フレーム群に含まれるフレームのデータに基いて再生される動画と、第2フレーム群に含まれるフレームのデータに基いて再生される動画とを異質なものとするように、ビデオ信号中の後に第1フレーム群に含まれることになるフレームのデータと、後に第2フレーム群に含まれることになるフレームのデータの少なくとも一方にのみ画像処理を行うものとなっている。
第1実施形態のビデオカメラは、第1フレーム群に含まれるフレームのデータに基いて再生される動画と、第2フレーム群に含まれるフレームのデータに基いて再生される動画とを異質なものとするように、ビデオ信号中のフレームが切換わるタイミングに同期させながら、第1フレーム群に含まれることになるフレームが撮像素子136で撮像されているときには第1照明光が、第2フレーム群に含まれることになるフレームが撮像素子136で撮像されているときには第1照明光とは異質な第2照明光がそれぞれ照射されるように、照明光を適切なタイミングで切換えるものとなっていた。
これに対し、第4実施形態のビデオカメラは、後述する変形例のビデオカメラも含め、第1フレーム群に含まれるフレームのデータに基いて再生される動画と、第2フレーム群に含まれるフレームのデータに基いて再生される動画とを異質なものとするように、ビデオ信号中の後に第1フレーム群に含まれることになるフレームのデータと、後に第2フレーム群に含まれることになるフレームのデータの少なくとも一方にのみ画像処理を行うものとなっている。
第4実施形態のビデオカメラは、手持ちタイプの拡大観察装置であり、また、構成の大部分は変形例16の拡大観察装置と変わらない。
特にそのビデオプロセッサボックス120の構成については、第4実施形態のビデオカメラと変形例16のビデオカメラで異なるところはなく図27に示された通りとなっている。
第4実施形態のビデオカメラと変形例16のビデオカメラで異なるのはビデオプロセッサボックス120とともに拡大観察装置を構成する拡大観察装置160の構成である(図41)。
第4実施形態のビデオカメラの拡大観察装置160は、第2光源133Bを持たない。また、第1光源133Aはフィルタ165を持たず、常時点灯するようになっている。また、第4実施形態のビデオカメラは第2実施形態のビデオカメラのように像光に変化を与えたり、第3実施形態のビデオカメラのように撮像素子136での撮像条件に変化を与えたりする必要もない。したがって、拡大観察装置160の側でビデオ信号中のフレームのデータと何かのタイミングを同期させる必要がないから、第2垂直同期信号検出部137もない。また、これらを互いに接続していた信号線134A等もない。第4実施形態のビデオカメラの拡大観察装置160は、極めてシンプルな構造となっている。
特にそのビデオプロセッサボックス120の構成については、第4実施形態のビデオカメラと変形例16のビデオカメラで異なるところはなく図27に示された通りとなっている。
第4実施形態のビデオカメラと変形例16のビデオカメラで異なるのはビデオプロセッサボックス120とともに拡大観察装置を構成する拡大観察装置160の構成である(図41)。
第4実施形態のビデオカメラの拡大観察装置160は、第2光源133Bを持たない。また、第1光源133Aはフィルタ165を持たず、常時点灯するようになっている。また、第4実施形態のビデオカメラは第2実施形態のビデオカメラのように像光に変化を与えたり、第3実施形態のビデオカメラのように撮像素子136での撮像条件に変化を与えたりする必要もない。したがって、拡大観察装置160の側でビデオ信号中のフレームのデータと何かのタイミングを同期させる必要がないから、第2垂直同期信号検出部137もない。また、これらを互いに接続していた信号線134A等もない。第4実施形態のビデオカメラの拡大観察装置160は、極めてシンプルな構造となっている。
ただし、第4実施形態のビデオカメラのビデオプロセッサボックス120は、変形例16のそれと同様、画像処理部184を備えている。画像処理部184の機能、ビデオ信号の一部に対して所定の画像処理を行う点、ビデオ信号の一部に対して所定の画像処理を行う際のビデオ信号との同期の取り方はすべて、変形例16の場合と同じである。
画像処理部184が行う画像処理は、第1フレーム群に含まれるフレームのデータに基づく動画を見易くする等の、所望の目的に応じて選択することができ、公知のものであっても良い。画像処理部184が行う画像処理は、フレームのデータから、特定の波長の光のデータを除くものとされていても良い。或いは、画像処理部184は、エッジ強調、明暗反転、ホワイトバランスの調整、白飛びの補正、黒つぶれの補正、キャリブレーション、電子ズームのいずれかを行うようになっていても良い。なお、これらの例は、変形例16の画像処理部184にも適用できる。
第4実施形態で行われる画像処理は、これには限られないが、変形例16の場合と同様のものとなっている。
そうすると、後にビデオ信号中の後に第1フレーム群に含まれることになるフレームのデータと、後に第2フレーム群に含まれることになるフレームのデータの一方に画像処理が行われることになるから、第4実施形態のビデオカメラで生成される、第1フレーム群に含まれるフレームのデータに基いて再生される動画と、第2フレーム群に含まれるフレームのデータに基いて再生される動画とを異質なものとすることができることになる。
画像処理部184が行う画像処理は、第1フレーム群に含まれるフレームのデータに基づく動画を見易くする等の、所望の目的に応じて選択することができ、公知のものであっても良い。画像処理部184が行う画像処理は、フレームのデータから、特定の波長の光のデータを除くものとされていても良い。或いは、画像処理部184は、エッジ強調、明暗反転、ホワイトバランスの調整、白飛びの補正、黒つぶれの補正、キャリブレーション、電子ズームのいずれかを行うようになっていても良い。なお、これらの例は、変形例16の画像処理部184にも適用できる。
第4実施形態で行われる画像処理は、これには限られないが、変形例16の場合と同様のものとなっている。
そうすると、後にビデオ信号中の後に第1フレーム群に含まれることになるフレームのデータと、後に第2フレーム群に含まれることになるフレームのデータの一方に画像処理が行われることになるから、第4実施形態のビデオカメラで生成される、第1フレーム群に含まれるフレームのデータに基いて再生される動画と、第2フレーム群に含まれるフレームのデータに基いて再生される動画とを異質なものとすることができることになる。
なお、この実施形態では、後にビデオ信号中の第1フレーム群に含まれることになるフレームのデータと、後に第2フレーム群に含まれることになるフレームのデータの一方に画像処理を行うこととしていたが、それらの双方に異なる種類の画像処理を行うこと、或いは同種ではあるが程度を変えて画像処理を行うことも可能であり、そうすることによっても異質の動画を再生できる2種類のビデオ信号を得られる。
<変形例26>
上述したように、第4実施形態は、変形例16のビデオカメラにおける拡大観察装置160をシンプルなものにしたものであったが、変形例26のビデオカメラは、変形例17のビデオカメラにおける拡大観察装置160をシンプルなものにしたものである。
変形例26のビデオカメラの拡大観察装置160は、第4実施形態の拡大観察装置160に同じであり、変形例26のビデオカメラのビデオプロセッサボックス120は、変形例17のビデオカメラにおけるビデオプロセッサボックス120に同じである。
出力制御部123で振分けられた2つのデータ、つまり信号線123Aに振分けられた、第1フレーム群に振分けられたフレームのデータと、信号線123Bに振分けられた、第2フレーム群に振分けられたフレームのデータの一方に対して画像処理を行うだけのこの変形例26のビデオカメラによっても、第1フレーム群に含まれるフレームのデータに基いて再生される動画と、第2フレーム群に含まれるフレームのデータに基いて再生される動画とを異質なものとすることができることになる。
上述したように、第4実施形態は、変形例16のビデオカメラにおける拡大観察装置160をシンプルなものにしたものであったが、変形例26のビデオカメラは、変形例17のビデオカメラにおける拡大観察装置160をシンプルなものにしたものである。
変形例26のビデオカメラの拡大観察装置160は、第4実施形態の拡大観察装置160に同じであり、変形例26のビデオカメラのビデオプロセッサボックス120は、変形例17のビデオカメラにおけるビデオプロセッサボックス120に同じである。
出力制御部123で振分けられた2つのデータ、つまり信号線123Aに振分けられた、第1フレーム群に振分けられたフレームのデータと、信号線123Bに振分けられた、第2フレーム群に振分けられたフレームのデータの一方に対して画像処理を行うだけのこの変形例26のビデオカメラによっても、第1フレーム群に含まれるフレームのデータに基いて再生される動画と、第2フレーム群に含まれるフレームのデータに基いて再生される動画とを異質なものとすることができることになる。
なお、変形例26では、ビデオ信号中の第1フレーム群に振分けられたフレームのデータと、第2フレーム群に振分けられたフレームのデータの一方に画像処理を行うこととしていたが、それらの双方に異なる種類の画像処理を行うこと、或いは同種ではあるが程度を変えて画像処理を行うことも可能である。
110 スコープ部
120 ビデオプロセッサボックス
121 ケース
121A 第1出力端子
121B 第2出力端子
122 第1垂直同期信号検出部
123 出力制御部
123S スイッチ
124 記録部
130 撮像部
132A 第1偏光板
132B 封止板
133A 第1光源
133B 第2光源
134 照明切換部
135 レンズ
136 撮像素子
137 第2垂直同期信号検出部
151 像光伝送体
152A 第1照明光伝送体
152B 第2照明光伝送体
160 拡大観察装置
161 ケース
162 孔
164 ハーフミラー
165 フィルタ
170 カプセル
181 垂直同期信号発生部
181A 信号線
185 第1像光透過部材
301 パワー可変レンズ
302 絞り
303 第2像光透過部材
305 複合フィルタ
308 枠
311 撮像素子制御部
v ビデオ信号
vsync 垂直同期信号
120 ビデオプロセッサボックス
121 ケース
121A 第1出力端子
121B 第2出力端子
122 第1垂直同期信号検出部
123 出力制御部
123S スイッチ
124 記録部
130 撮像部
132A 第1偏光板
132B 封止板
133A 第1光源
133B 第2光源
134 照明切換部
135 レンズ
136 撮像素子
137 第2垂直同期信号検出部
151 像光伝送体
152A 第1照明光伝送体
152B 第2照明光伝送体
160 拡大観察装置
161 ケース
162 孔
164 ハーフミラー
165 フィルタ
170 カプセル
181 垂直同期信号発生部
181A 信号線
185 第1像光透過部材
301 パワー可変レンズ
302 絞り
303 第2像光透過部材
305 複合フィルタ
308 枠
311 撮像素子制御部
v ビデオ信号
vsync 垂直同期信号
Claims (61)
- 撮像の対象となる対象物からの像光を捉えて撮像し、連続した多数のフレームのデータを有するビデオ信号を出力する撮像手段と、
前記撮像手段が出力した前記ビデオ信号に含まれる多数の前記フレームについてのデータから、それに含まれるフレームを連続して見たユーザがそれを動画として認識できるようになっている、フレームの集合である第1フレーム群についてのデータと、それに含まれるフレームを連続して見たユーザがそれを動画として認識できるようになっている、前記第1フレーム群に含まれるフレームと重複しないフレームの集合である第2フレーム群についてのデータとを生成する、フレームデータ振分手段と、
前記第1フレーム群に含まれるフレームのデータを出力する第1出力手段と、
前記第2フレーム群に含まれるフレームのデータを出力する第2出力手段と、
を備えているとともに、
前記第1フレーム群に含まれるフレームのデータに基いて再生される動画と、前記第2フレーム群に含まれるフレームのデータに基いて再生される動画とは、異質なものとなるようにされてなる、
ビデオカメラ。 - 撮像の対象となる対象物からの像光を捉えて撮像し、連続した多数のフレームのデータを有するビデオ信号を出力する撮像手段と、
前記撮像手段が出力した前記ビデオ信号に含まれる多数の前記フレームについてのデータから、それに含まれるフレームを連続して見たユーザがそれを動画として認識できるようになっている、フレームの集合である第1フレーム群についてのデータと、それに含まれるフレームを連続して見たユーザがそれを動画として認識できるようになっている、前記第1フレーム群に含まれるフレームと重複しないフレームの集合である第2フレーム群についてのデータとを生成する、フレームデータ振分手段と、
前記第1フレーム群に含まれるフレームのデータによる第1動画と、前記第2フレーム群に含まれるフレームのデータによる第2動画とを、所定のディスプレイが一画面に表示できるような動画についての動画データを生成する合成手段と、
前記合成手段が生成した動画データを出力する出力手段と、
を備えているとともに、
前記第1フレーム群に含まれるフレームのデータに基いて再生される動画と、前記第2フレーム群に含まれるフレームのデータに基いて再生される動画とは、異質なものとなるようにされてなる、
ビデオカメラ。 - 前記第1フレーム群に含まれることになるフレームのデータによる動画と、前記第2フレーム群に含まれることになるフレームのデータによる動画を異質なものにするために、下記1~4のいずれか一つを変化させる変化手段を備えている、
請求項1又は2記載のビデオカメラ。
1.前記対象物に対する照明光
2.前記対象物から前記撮像手段に至るまでの像光
3.前記像光を撮像する撮像手段で撮像がなされる際の撮像の条件
4.前記撮像手段で生成されたビデオ信号に含まれるフレームのデータのうちの前記第1フレーム群に含まれることになるフレームのデータと前記第2フレーム群に含まれることになるフレームのデータの少なくとも一方、又は前記第1フレーム群のフレームのデータと前記第2フレーム群のフレームのデータの少なくとも一方 - 前記変化手段は、
性質の異なる2種類の照明光である第1照明光及び第2照明光を、前記対象物に択一的に照射する照明手段と、
前記第1フレーム群に含まれることになるフレームのデータを前記撮像手段が撮像しているときに第1照明光を、前記第2フレーム群に含まれることになるフレームのデータを前記撮像手段が撮像しているときに前記第2照明光を、それぞれ照射するように前記照明手段を制御する照明切換手段を備えている、
請求項3記載のビデオカメラ。 - 前記照明手段は、前記第1照明光を照射するときに点灯する第1照明と、前記第2照明光を照射するときに点灯する第2照明と、を備えており、
前記照明切換手段は、前記第1照明と前記第2照明が交互に点灯するように前記第1照明と前記第2照明を制御するようになっている、
請求項4記載のビデオカメラ。 - 前記照明手段は、光源と、その光源が照射した光が透過させられるものであり、それを透過した光の性質が互いに異なるものとなる第1状態と第2状態に変化させられるようにされた第1透過手段と、を備えており、
前記照明切換手段は、前記第1透過手段に前記第1状態と前記第2状態を交互に取らせるように前記第1透過手段を制御するようになっている、
請求項4記載のビデオカメラ。 - 前記照明手段は、光源と、その光源が照射した光が透過させられるものであるとともに、前記光源から照射される光の光路上にある状態とない状態をとれるようにされており、それを透過した光の性質をそれを透過しなかった光の性質と異ならせるようにされた第2透過手段と、を備えており、
前記照明切換手段は、前記第2透過手段が前記光源から照射される光の光路上にある状態とない状態を繰り返すように前記第2透過手段を制御するようになっている、
請求項4記載のビデオカメラ。 - 前記第1照明光と前記第2照明光の一方は直線偏光であり、他方は前記直線偏光の振動方向以外の振動方向の光を含む光である、
請求項4記載のビデオカメラ。 - 前記第1照明光と前記第2照明光の一方は直線偏光であり、他方は自然光である、
請求項4記載のビデオカメラ。 - 前記第1照明光と前記第2照明光の一方は、前記対象物への入射角が40°以下の光である落射光であり、他方は、前記対象物への入射角が40°より大きい光である側射光である、
請求項4記載のビデオカメラ。 - 前記第1照明光と前記第2照明光の一方は白色光であり、他方は緑色光である、
請求項4記載のビデオカメラ。 - 前記第1照明光と前記第2照明光は、波長の異なる光である、
請求項4記載のビデオカメラ。 - 前記第1照明光と前記第2照明光の一方は可視光であり、他方は赤外光である、
請求項4記載のビデオカメラ。 - 前記第1照明光と前記第2照明光の一方は可視光であり、他方は紫外光である、
請求項4記載のビデオカメラ。 - 前記対象物からの像光が前記撮像手段に到達するまでの光路上に撮像側偏光板が設けられているとともに、
前記第1照明からの照明光が前記対象物に到達するまでの光路上と、前記第2照明からの照明光が前記対象物に到達するまでの光路上の一方に、前記撮像側偏光板とその偏光の方向が直交する照明側偏光板が設けられており、前記照明側偏光板が光路上にない側の前記第1照明又は前記第2照明からの照明光には、直線偏光である前記第1照明からの照明光の振動方向以外の成分が含まれるようになっている、
請求項5記載のビデオカメラ。 - 前記対象物からの像光が前記撮像手段に到達するまでの光路上に撮像側偏光板が設けられているとともに、
前記第1透過手段は、前記第1状態と前記第2状態の一方が、前記撮像側偏光板とその偏光の方向が直交する偏光板として機能する状態であり、その他方が、それを透過する光の偏光状態に影響を与えない状態となる液晶板である、
請求項6記載のビデオカメラ。 - 前記対象物からの像光が前記撮像手段に到達するまでの光路上に撮像側偏光板が設けられているとともに、
前記第2透過手段は、前記撮像側偏光板とその偏光の方向が直交する照明側偏光板である、
請求項7記載のビデオカメラ。 - 前記第1照明からの照明光には、それらの偏光方向が直交する前記撮像側偏光板と前記照明側偏光板を透過する光の消光比が90%以上となるような波長範囲の光のみが含まれている、
請求項15記載のビデオカメラ。 - 前記変化手段は、
前記対象物から前記撮像手段に至るまでの像光を性質の異なる2種類の像光である第1像光と第2像光にする像光変質手段と、
前記第1フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときに前記像光を前記第1像光に、前記第2フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときに前記像光を前記第2像光にそれぞれするように前記像光変質手段を制御する像光切換手段と、
を含んでいる、
請求項3記載のビデオカメラ。 - 前記像光変質手段は、前記対象物から前記撮像手段に至るまでの間に前記像光が透過させられるものであり、それを透過した光の性質が互いに異なるものとなる第1状態と第2状態に変化させられるようにされた第1像光透過手段、を備えており、
前記像光切換手段は、前記第1像光透過手段に前記第1状態と前記第2状態を交互に取らせることで前記像光を前記第1像光と前記第2像光にするように前記第1像光透過手段を制御するようになっている、
請求項19記載のビデオカメラ。 - 前記第1像光透過手段は、そのパワーが可変とされたレンズであり、前記像光切換手段は、そのパワーがある値であるときに前記第1状態を、そのパワーが他の値であるときに前記第2状態を取ることで、前記像光を前記第1像光と前記第2像光にするように前記第1像光透過手段を制御するようになっている、
請求項20記載のビデオカメラ。 - 前記第1像光透過手段は、特定の波長領域の波長の光を透過させる状態と透過させない状態を選択できるフィルタであり、前記像光切換手段は、特定の波長領域の波長の光を透過させる状態と透過させない状態の一方を前記第1状態として、その他方を前記第2状態として取ることで、前記像光を前記第1像光と前記第2像光にするように前記第1像光透過手段を制御するようになっている、
請求項20記載のビデオカメラ。 - 前記像光変質手段は、前記像光の前記対象物から前記撮像手段に至るまでの光路上にある状態とない状態をとれるようにされており、それを透過した光の性質をそれを透過しなかった光の性質と異ならせるようにされた第2像光透過手段、を備えており、
前記像光切換手段は、前記第2像光透過手段が前記像光の光路上にある状態とない状態を交互に繰り返すことで前記像光を前記第1像光と前記第2像光にするように前記第2像光透過手段を制御するようになっている、
請求項19記載のビデオカメラ。 - 前記第2像光透過手段は、レンズである、
請求項23記載のビデオカメラ。 - 前記第2像光透過手段は、特定の波長領域の波長の光を透過させないフィルタである、
請求項23記載のビデオカメラ。 - 前記像光変質手段は、前記対象物から前記撮像手段に至るまでの間に存在するその径が可変とされた絞りであり、
前記像光切換手段は、前記絞りの径をある径にすることにより前記像光を第1像光に、前記絞りを他の径にすることにより前記像光を第2像光にするようになっている、
請求項19記載のビデオカメラ。 - 前記変化手段は、
前記第1フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときと、前記第2フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときとで、前記撮像手段が前記像光を撮像する条件をある条件である第1条件とそれとは異なる条件である第2条件との間で変化させるように前記撮像手段を制御する撮像手段制御手段を含んでいる、
請求項3記載のビデオカメラ。 - 前記撮像手段制御手段は、前記第1フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときと、前記第2フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときとで、撮像手段中の撮像を行なう範囲が変化するように前記撮像手段を制御するようになっている、
請求項27記載のビデオカメラ。 - 前記撮像手段制御手段は、前記第1フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときと、前記第2フレーム群に含まれることになるフレームを前記撮像手段が撮像しているときとで、撮像手段が撮像を行う際の露光時間が変化するように前記撮像手段を制御するようになっている、
請求項27記載のビデオカメラ。 - 前記変化手段は、前記撮像手段で生成されたビデオ信号に含まれるフレームのデータのうちの前記第1フレーム群に含まれることになるフレームのデータと前記第2フレーム群に含まれることになるフレームのデータの少なくとも一方に画像処理を行う画像処理手段を備えており、
前記画像処理手段は、前記フレームデータ振分手段で振分けられる前のビデオ信号に含まれるフレームのデータのうちの前記第1フレーム群に含まれることになるフレームのデータと前記第2フレーム群に含まれることになるフレームのデータの少なくとも一方に対して画像処理を行うようになっている、
請求項3記載のビデオカメラ。 - 前記変化手段は、前記撮像手段で生成されたビデオ信号を前記フレームデータ振分手段で振分けることにより生成された前記第1フレーム群のフレームのデータと前記第2フレーム群のフレームのデータの少なくとも一方に画像処理を行う画像処理手段を備えている、
請求項3記載のビデオカメラ。 - 前記画像処理手段は、前記フレームのデータから、特定の波長の光のデータを除くものとされている、
請求項30又は31記載のビデオカメラ。 - 前記画像処理手段は、エッジ強調、明暗反転、ホワイトバランスの調整、白飛びの補正、黒つぶれの補正、キャリブレーション、電子ズームのいずれかを行うようになっている、
請求項30又は31記載のビデオカメラ。 - 前記フレームデータ振分手段は、前記撮像手段が出力した前記ビデオ信号に含まれる多数の前記フレームから、一定の数置きのフレームのデータを抜き出して前記第1フレーム群のフレームのデータに振分けるとともに、前記第1フレーム群のフレームのデータに含まれないフレームのデータから一定の数置きのフレームのデータを抜き出して前記第2フレーム群のフレームのデータとするようになっている、
請求項1又は2記載のビデオカメラ。 - 前記フレームデータ振分手段は、前記撮像手段が出力した前記ビデオ信号に含まれる多数の前記フレームのデータの偶数番目のものと奇数番目のものの一方を前記第1フレーム群のフレームのデータに、他方を前記第2フレーム群のフレームのデータに振分けるようになっている、
請求項1又は2記載のビデオカメラ。 - 前記撮像手段が出力した前記ビデオ信号の垂直同期のタイミングに同期された垂直同期信号を検出する第1垂直同期信号検出手段を備えており、
前記フレームデータ振分手段は、前記第1垂直同期信号検出手段が前記垂直同期信号を検出したタイミングに基づいて、前記第1フレーム群に含まれるフレームのデータと、前記第2フレーム群に含まれるフレームのデータとを振分けるようになっている、
請求項1又は2記載のビデオカメラ。 - 前記第1垂直同期信号検出手段は、前記撮像手段が出力した前記ビデオ信号に含まれる垂直同期信号を検出するようになっている、
請求項36記載のビデオカメラ。 - 前記撮像手段が出力する前記フレームのデータをそれと同期させる垂直同期信号を前記撮像手段に送る垂直同期信号発生手段を備えているとともに、
前記第1垂直同期信号検出手段は、前記垂直同期信号発生手段から受取った前記ビデオ信号とは別の信号から垂直同期信号を検出するようになっている、
請求項36記載のビデオカメラ。 - 前記第1垂直同期信号検出手段は、前記撮像手段が出力する前記フレームのデータをそれと同期させる垂直同期信号を前記撮像手段に送る外部の垂直同期信号発生装置から受取った信号から垂直同期信号を検出するようになっている、
請求項36記載のビデオカメラ。 - 前記フレームデータ振分手段は、前記第1垂直同期信号検出手段が前記垂直同期信号を検出する毎に、前記撮像手段が出力した前記ビデオ信号に含まれる多数の前記フレームのデータを、前記第1フレーム群に含まれるフレームのデータと、前記第2フレーム群に含まれるフレームのデータとに、交互に振り分けるようになっている、
請求項36記載のビデオカメラ。 - 前記第1フレーム群に含まれるフレームのデータであって最新のものを次のフレームのデータを受取るまで保持する第1のメモリと、前記第2フレーム群に含まれるフレームのデータであって最新のものを、次のフレームのデータを受取るまで保持する第2のメモリを備えている、
請求項1又は2記載のビデオカメラ。 - 前記撮像手段が出力した前記ビデオ信号の垂直同期のタイミングに同期された垂直同期信号を検出する第2垂直同期信号検出手段を備えており、
前記照明切換手段は、前記第2垂直同期信号検出手段が前記垂直同期信号を検出したタイミングに基づいて、前記照明手段が前記第1照明光の照射と前記第2照明光の照射を交互に切り替えるように、前記照明手段を制御するようになっている、
請求項4記載のビデオカメラ。 - 前記照明切換手段は、前記第2垂直同期信号検出手段が前記垂直同期信号を検出する毎に、前記照明手段が前記第1照明光の照射と前記第2照明光の照射を交互に切り替えるように、前記照明手段を制御するようになっている、
請求項42記載のビデオカメラ。 - 前記撮像手段があるフレームの画像の撮像を行なってから一定の時間経過後に当該フレームについてのデータを出力するようになっている場合に、
前記照明切換手段は、前記第2垂直同期信号検出手段が前記垂直同期信号を検出してから前記一定の時間に相当する時間の経過後に、前記照明手段が前記第1照明光の照射と前記第2照明光の照射を交互に切り替えるように、前記照明手段を制御するようになっている、
請求項42記載のビデオカメラ。 - 前記撮像手段が出力した前記ビデオ信号の垂直同期のタイミングに同期された垂直同期信号を検出する第2垂直同期信号検出手段を備えており、
前記像光変質手段は、前記第2垂直同期信号検出手段が前記垂直同期信号を検出したタイミングに基づいて、前記第1像光と前記第2像光を切換えるタイミングを制御するようになっている、
請求項19記載のビデオカメラ。 - 前記像光変質手段は、前記第2垂直同期信号検出手段が前記垂直同期信号を検出する毎に、前記第1像光と前記第2像光とを交互に切り替えるようになっている、
請求項45記載のビデオカメラ。 - 前記撮像手段があるフレームの画像の撮像を行なってから一定の時間経過後に当該フレームについてのデータを出力するようになっている場合に、
前記像光変質手段は、前記第2垂直同期信号検出手段が前記垂直同期信号を検出してから前記一定の時間に相当する時間の経過後に、前記第1像光と前記第2像光とを交互に切り替えるようになっている、
請求項45記載のビデオカメラ。 - 前記撮像手段が出力した前記ビデオ信号の垂直同期のタイミングに同期された垂直同期信号を検出する第2垂直同期信号検出手段を備えており、
前記撮像手段制御手段は、前記第2垂直同期信号検出手段が前記垂直同期信号を検出したタイミングに基づいて、前記第1条件と前記第2条件を切換えるタイミングを制御するようになっている、
請求項27記載のビデオカメラ。 - 前記撮像手段制御手段は、前記第2垂直同期信号検出手段が前記垂直同期信号を検出する毎に、前記第1条件と前記第2条件とを交互に切り替えるようになっている、
請求項48記載のビデオカメラ。 - 前記撮像手段があるフレームの画像の撮像を行なってから一定の時間経過後に当該フレームについてのデータを出力するようになっている場合に、
前記撮像手段制御手段は、前記第2垂直同期信号検出手段が前記垂直同期信号を検出してから前記一定の時間に相当する時間の経過後に、前記第1条件と前記第2条件とを交互に切り替えるようになっている、
請求項48記載のビデオカメラ。 - 前記撮像手段が出力した前記ビデオ信号の垂直同期のタイミングに同期された垂直同期信号を検出する第2垂直同期信号検出手段を備えており、
前記画像処理手段は、前記第2垂直同期信号検出手段が前記垂直同期信号を検出したタイミングに基づいて、ビデオ信号に含まれるフレームのデータから、画像処理の対象となる前記第1フレーム群に含まれることになるフレームのデータ、又は前記第2フレーム群に含まれることになるフレームのデータを検出するようになっている、
請求項30記載のビデオカメラ。 - 前記第2垂直同期信号検出手段は、前記撮像手段が出力した前記ビデオ信号に含まれる垂直同期信号を検出するようになっている、
請求項42、45、48又は51のいずれかに記載のビデオカメラ。 - 前記撮像手段が出力する前記フレームのデータをそれと同期させる垂直同期信号を前記撮像手段に送る垂直同期信号発生手段を備えているとともに、
前記第2垂直同期信号検出手段は、前記垂直同期信号発生手段から受取った前記ビデオ信号とは別の信号から垂直同期信号を検出するようになっている、
請求項42、45、48又は51のいずれかに記載のビデオカメラ。 - 前記第2垂直同期信号検出手段は、前記撮像手段が出力する前記フレームのデータをそれと同期させる垂直同期信号を前記撮像手段に送る外部の垂直同期信号発生装置から受取った信号から垂直同期信号を検出するようになっている、
請求項42、45、48又は51のいずれかに記載のビデオカメラ。 - 前記撮像手段、前記照明手段、前記照明切換手段、を収納するケースを備えている、
請求項4記載のビデオカメラ。 - 内視鏡である、
請求項1又は2記載のビデオカメラ。 - 前記第1フレーム群に含まれることになるフレームのデータによる動画と、前記第2フレーム群に含まれることになるフレームのデータによる動画を異質なものにするために、前記対象物から前記撮像手段に至るまでの像光を変化させる変化手段を備えているとともに、
前記変化手段は、
性質の異なる2種類の照明光である第1照明光及び第2照明光を、前記対象物に択一的に照射する照明手段と、
前記第1フレーム群に含まれることになるフレームのデータを前記撮像手段が撮像しているときに第1照明光を、前記第2フレーム群に含まれることになるフレームのデータを前記撮像手段が撮像しているときに前記第2照明光を、それぞれ照射するように前記照明手段を制御する照明切換手段を備えており、
前記撮像手段と、前記照明手段と、前記照明切換手段と、を収納するケースである第1ケースと、
前記フレームデータ振分手段と、前記第1出力手段と、前記第2出力手段と、を収納する第2ケースと、
を備えている請求項1記載のビデオカメラ。 - 前記第1フレーム群に含まれることになるフレームのデータによる動画と、前記第2フレーム群に含まれることになるフレームのデータによる動画を異質なものにするために、前記対象物から前記撮像手段に至るまでの像光を変化させる変化手段を備えているとともに、
前記変化手段は、
性質の異なる2種類の照明光である第1照明光及び第2照明光を、前記対象物に択一的に照射する照明手段と、
前記第1フレーム群に含まれることになるフレームのデータを前記撮像手段が撮像しているときに第1照明光を、前記第2フレーム群に含まれることになるフレームのデータを前記撮像手段が撮像しているときに前記第2照明光を、それぞれ照射するように前記照明手段を制御する照明切換手段を備えており、
前記撮像手段と、前記照明手段と、前記照明切換手段と、を収納するケースである第1ケースと、
前記フレームデータ振分手段と、前記出力手段と、を収納する第2ケースと、
を備えている請求項2記載のビデオカメラ。 - カプセル内視鏡であり、前記第1ケースは、カプセル内視鏡のカプセルに収納されているか、カプセル内視鏡のカプセルである、
請求項57又は58記載のビデオカメラ。 - 撮像の対象となる対象物からの像光を捉えて撮像し、連続した多数のフレームのデータを有するビデオ信号を出力する撮像手段と、
制御手段と、
第1出力手段と、
第2出力手段と、
を含んでなるビデオカメラにて実行される方法であって、
前記制御手段が、
前記撮像手段が出力した前記ビデオ信号に含まれる多数の前記フレームについてのデータから、それに含まれるフレームを連続して見たユーザがそれを動画として認識できるようになっている、フレームの集合である第1フレーム群についてのデータと、それに含まれるフレームを連続して見たユーザがそれを動画として認識できるようになっている、前記第1フレーム群に含まれるフレームと重複しないフレームの集合である第2フレーム群についてのデータとを生成する過程と、
前記第1出力手段が、前記第1フレーム群に含まれるフレームのデータを出力する過程と、
前記第2出力手段が、前記第2フレーム群に含まれるフレームのデータを出力する過程と、
を含んでおり、
前記制御手段は、前記第1フレーム群に含まれるフレームのデータに基いて再生される動画と、前記第2フレーム群に含まれるフレームのデータに基いて再生される動画とは、異質なものとなるようにする、
方法。 - 撮像の対象となる対象物からの像光を捉えて撮像し、連続した多数のフレームのデータを有するビデオ信号を出力する撮像手段と、
制御手段と、
出力手段と、
を含んでなるビデオカメラにて実行される方法であって、
前記制御手段が、
前記撮像手段が出力した前記ビデオ信号に含まれる多数の前記フレームについてのデータから、それに含まれるフレームを連続して見たユーザがそれを動画として認識できるようになっている、フレームの集合である第1フレーム群についてのデータと、それに含まれるフレームを連続して見たユーザがそれを動画として認識できるようになっている、前記第1フレーム群に含まれるフレームと重複しないフレームの集合である第2フレーム群についてのデータとを生成する過程と、
前記第1フレーム群に含まれるフレームのデータによる第1動画と、前記第2フレーム群に含まれるフレームのデータによる第2動画とを、所定のディスプレイが一画面に表示できるような動画についての動画データを生成する過程と、
合成された動画データを前記出力手段に出力させる過程と、
を含んでおり、
前記制御手段は、前記第1フレーム群に含まれるフレームのデータに基いて再生される動画と、前記第2フレーム群に含まれるフレームのデータに基いて再生される動画とは、異質なものとなるようにする、
方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014504620A JP6230026B2 (ja) | 2012-03-16 | 2012-09-19 | ビデオカメラ |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012059856 | 2012-03-16 | ||
JP2012-059856 | 2012-03-16 | ||
JP2012182793 | 2012-08-21 | ||
JP2012-182793 | 2012-08-21 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2013136565A1 true WO2013136565A1 (ja) | 2013-09-19 |
Family
ID=49160520
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2012/073945 WO2013136565A1 (ja) | 2012-03-16 | 2012-09-19 | ビデオカメラ |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6230026B2 (ja) |
WO (1) | WO2013136565A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017147578A (ja) * | 2016-02-16 | 2017-08-24 | Smk株式会社 | 動画撮像装置 |
EP3367293A1 (en) * | 2017-02-28 | 2018-08-29 | NCR Corporation | Multi-camera simultaneous imaging for multiple processes |
JP2020031367A (ja) * | 2018-08-23 | 2020-02-27 | パナソニックIpマネジメント株式会社 | カメラ |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06164997A (ja) * | 1992-11-19 | 1994-06-10 | Scala Kk | 並列観察可能な拡大観察装置 |
JPH08240839A (ja) * | 1995-03-01 | 1996-09-17 | Canon Inc | 撮像装置および撮像方法 |
JPH10151104A (ja) * | 1996-11-25 | 1998-06-09 | Olympus Optical Co Ltd | 蛍光内視鏡装置 |
JP2006025310A (ja) * | 2004-07-09 | 2006-01-26 | Konica Minolta Photo Imaging Inc | 撮像装置 |
JP2006166940A (ja) * | 2004-12-10 | 2006-06-29 | Olympus Corp | 内視鏡照明装置 |
JP2009297290A (ja) * | 2008-06-13 | 2009-12-24 | Fujifilm Corp | 内視鏡装置およびその画像処理方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5259033B2 (ja) * | 2001-08-03 | 2013-08-07 | オリンパス株式会社 | 内視鏡システム |
-
2012
- 2012-09-19 WO PCT/JP2012/073945 patent/WO2013136565A1/ja active Application Filing
- 2012-09-19 JP JP2014504620A patent/JP6230026B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06164997A (ja) * | 1992-11-19 | 1994-06-10 | Scala Kk | 並列観察可能な拡大観察装置 |
JPH08240839A (ja) * | 1995-03-01 | 1996-09-17 | Canon Inc | 撮像装置および撮像方法 |
JPH10151104A (ja) * | 1996-11-25 | 1998-06-09 | Olympus Optical Co Ltd | 蛍光内視鏡装置 |
JP2006025310A (ja) * | 2004-07-09 | 2006-01-26 | Konica Minolta Photo Imaging Inc | 撮像装置 |
JP2006166940A (ja) * | 2004-12-10 | 2006-06-29 | Olympus Corp | 内視鏡照明装置 |
JP2009297290A (ja) * | 2008-06-13 | 2009-12-24 | Fujifilm Corp | 内視鏡装置およびその画像処理方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017147578A (ja) * | 2016-02-16 | 2017-08-24 | Smk株式会社 | 動画撮像装置 |
EP3367293A1 (en) * | 2017-02-28 | 2018-08-29 | NCR Corporation | Multi-camera simultaneous imaging for multiple processes |
US11775952B2 (en) | 2017-02-28 | 2023-10-03 | Ncr Corporation | Multi-camera simultaneous imaging for multiple processes |
JP2020031367A (ja) * | 2018-08-23 | 2020-02-27 | パナソニックIpマネジメント株式会社 | カメラ |
JP7162241B2 (ja) | 2018-08-23 | 2022-10-28 | パナソニックIpマネジメント株式会社 | カメラ |
Also Published As
Publication number | Publication date |
---|---|
JPWO2013136565A1 (ja) | 2015-08-03 |
JP6230026B2 (ja) | 2017-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6041340B2 (ja) | カメラ | |
US7116352B2 (en) | Capsule | |
US12004722B2 (en) | Microscope system and medical light source apparatus | |
CN102036599B (zh) | 用于组合的全色反射和近红外成像的成像系统 | |
US20030174208A1 (en) | Device, system and method for capturing in-vivo images with three-dimensional aspects | |
US20210295502A1 (en) | Medical image processing device and medical observation system | |
US7154527B1 (en) | Optical device | |
US8248457B2 (en) | Optical device | |
WO2020179485A1 (ja) | 撮像装置、およびスイッチ | |
US11571109B2 (en) | Medical observation device | |
JP7095693B2 (ja) | 医療用観察システム | |
JPWO2010109726A1 (ja) | 画像処理システム、外部装置およびその画像処理方法 | |
JP7544034B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP6230026B2 (ja) | ビデオカメラ | |
JP2010113312A (ja) | 内視鏡装置および内視鏡プロセッサ | |
CN110945399B (zh) | 信号处理设备、成像设备、信号处理方法和存储器 | |
WO2019198553A1 (en) | Microscope system and medical light source apparatus | |
KR20200012314A (ko) | 내시경용 헤드, 의료용 내시경 및 의료용 현미경 | |
JPH08248326A (ja) | 立体視内視鏡 | |
JP2014531613A (ja) | 三次元画像情報を生成するために光学系の視野を照明する方法および装置 | |
JPH0815616A (ja) | 立体内視鏡撮像装置 | |
WO2018168578A1 (ja) | 撮像装置、映像信号処理装置および映像信号処理方法 | |
JP2004029236A (ja) | 画像表示装置 | |
Yaron et al. | Blur spot limitations in distal endoscope sensors | |
JP2005305046A (ja) | 手術用観察システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 12871471 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2014504620 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 12871471 Country of ref document: EP Kind code of ref document: A1 |