WO2020195246A1 - 撮像装置、撮像方法、及びプログラム - Google Patents

撮像装置、撮像方法、及びプログラム Download PDF

Info

Publication number
WO2020195246A1
WO2020195246A1 PCT/JP2020/005088 JP2020005088W WO2020195246A1 WO 2020195246 A1 WO2020195246 A1 WO 2020195246A1 JP 2020005088 W JP2020005088 W JP 2020005088W WO 2020195246 A1 WO2020195246 A1 WO 2020195246A1
Authority
WO
WIPO (PCT)
Prior art keywords
color
image
edge
edge portion
imaging device
Prior art date
Application number
PCT/JP2020/005088
Other languages
English (en)
French (fr)
Inventor
川上 洋生
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2021508209A priority Critical patent/JP7444163B2/ja
Priority to US17/440,779 priority patent/US11729493B2/en
Priority to CN202080022492.8A priority patent/CN113574858A/zh
Priority to EP20777693.1A priority patent/EP3934234A4/en
Publication of WO2020195246A1 publication Critical patent/WO2020195246A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • G03B13/30Focusing aids indicating depth of field
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00039Operational features of endoscopes provided with input arrangements for the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/14Special procedures for taking photographs; Apparatus therefor for taking photographs during medical operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals

Definitions

  • This technology relates to an imaging device, an imaging method, and a program for imaging a subject.
  • Patent Document 1 describes a video signal processing device that emphasizes the contour portion of an image by using a contour enhancement signal extracted from the video signal.
  • a contour enhancement signal whose level becomes higher as it gets closer to just focus is generated.
  • the contour enhancement signal is added to the color difference signal according to its level. For this reason, the outline color becomes darker when the focus is closer to just focus from the out-of-focus state. This makes it possible to visually grasp the change in the focus state (paragraphs [0020] [0045] [0068] [0081] FIGS. 1 and 8 of Patent Document 1).
  • an object of the present technology is to provide an imaging device, an imaging method, and a program capable of improving the visibility of highlighting of an edge portion.
  • the image pickup apparatus includes an image generation unit, an edge detection unit, and a color control unit.
  • the image generation unit generates an captured image of the subject.
  • the edge detection unit detects an edge portion included in the generated captured image.
  • the color control unit controls the highlighting color for emphasizing the edge portion for each detected edge portion, based on the color information regarding the edge portion in the captured image.
  • a captured image of the subject is generated, and an edge portion included in the captured image is detected. Further, for each detected edge portion, the highlighting color for emphasizing the edge portion is controlled by using the color information regarding the edge portion in the captured image. This makes it possible to improve the visibility of highlighting the edge portion.
  • the color control unit may control the color of the highlighting so that the color difference between the edge color represented by the color information about the edge portion and the color of the highlighting becomes large.
  • the color control unit may control the highlighting color so that the edge color and the highlighting color are separated from each other in the hue plane or the luminance direction.
  • the color control unit may set the highlighting color from a plurality of color candidates.
  • the plurality of color candidates may include chromatic color candidates.
  • the color control unit may set the color candidate having the hue farthest from the hue of the edge color among the plurality of color candidates as the highlighting color.
  • the plurality of color candidates may include a first color candidate and a second color candidate having a hue different from that of the first color candidate.
  • the first and second color candidates may be set to complement each other.
  • the plurality of color candidates may include achromatic color candidates.
  • the color control unit may set the color candidate having the brightness farthest from the brightness of the edge color among the plurality of color candidates as the highlighting color.
  • the plurality of color candidates may include black and white.
  • the color control unit sets the highlighting color to black when the brightness of the edge color is larger than a predetermined threshold, and the highlighting when the brightness of the edge color is smaller than the predetermined threshold.
  • the color of may be set to the white color.
  • the plurality of color candidates may be set by the user.
  • the plurality of color candidates may be set according to the subject.
  • the edge detection unit may detect the pixel position of the edge portion.
  • the color control unit may set the highlighting color for each of the detected pixel positions.
  • the color information regarding the edge portion may include pixel information of the reference pixel included in a predetermined pixel region surrounding the pixel position of the edge portion.
  • the color control unit may calculate the hue of the edge color or the brightness of the edge color based on the pixel information of the reference pixel.
  • the color control unit may calculate the average hue of the reference pixel as the hue of the edge color.
  • the predetermined pixel area may be set according to the subject.
  • the color control unit may generate a peaking image in which the edge portion of the captured image is emphasized with the highlighting color.
  • the color of the portion different from the edge portion may be set to the same color as the captured image.
  • the color control unit may control the color of the highlighting so that the display of the edge portion of the peaking image changes dynamically.
  • the imaging method is an imaging method executed by a computer system and includes generating an captured image of a subject.
  • the edge portion included in the generated captured image is detected.
  • the highlighting color that emphasizes the edge portion is controlled based on the color information regarding the edge portion in the captured image.
  • a program causes a computer system to perform the following steps.
  • This is an example of a peaking image in which the edge portion of the subject is emphasized.
  • It is a schematic diagram for demonstrating the color wheel.
  • It is a flowchart which shows an example of the peaking display using the superimposition color of a color.
  • It is an image of the color wheel given as an example of the original image.
  • It is a schematic diagram which shows an example of the average hue of the edge part shown in FIG.
  • FIG. 1 It is a schematic diagram for demonstrating the application example of a peaking display. It is a figure which shows an example of the schematic structure of the endoscopic surgery system. It is a block diagram which shows an example of the functional structure of the camera head and CCU shown in FIG. It is a figure which shows the whole structure of the operating room system roughly. It is a figure which shows the display example of the operation screen in a centralized operation panel. It is a figure which shows an example of the state of the operation which applied the operating room system. It is a block diagram which shows an example of the functional structure of the camera head and CCU shown in FIG. It is a figure which shows an example of the schematic structure of the microscopic surgery system. It is a figure which shows the state of the operation using the microscopic operation system shown in FIG.
  • FIG. 1 is a schematic diagram showing a configuration example of an imaging device according to an embodiment of the present technology.
  • the image pickup device 100 is a camera device (camera system) that captures a subject.
  • the image pickup apparatus 100 is configured as, for example, a video camera, a digital still camera, or the like.
  • the image pickup device 100 includes an image pickup optical system 10, an image sensor 11, a camera controller 12, a video processing unit 13, a recording unit 14, a display device 15, and a user operation unit 16.
  • the recording unit 14 and the display device 15 may be provided outside the image pickup device 100.
  • the imaging optical system 10 has a lens unit 21 and a lens control unit 22.
  • the lens unit 21 is, for example, an optical system composed of a plurality of lenses arranged in a lens barrel, and collects light incident on the lens barrel on a light receiving surface of an image sensor 11 described later.
  • the specific configuration of the lens unit 21 is not limited, and for example, a lens may be appropriately used according to the type of subject, the application of the image pickup apparatus 100, and the like.
  • the lens control unit 22 is an operation mechanism for adjusting the optical characteristics (focus, magnification, aperture, etc.) of the lens unit 21.
  • the lens control unit 22 is configured to correspond to, for example, manual focus. By operating the lens control unit 22, for example, the positions of a plurality of lenses are changed, and an operation of adjusting the focus (focus operation) becomes possible.
  • the specific configuration of the lens control unit 22 is not limited, and for example, a mechanism for electronically adjusting the lens position or the like may be used.
  • the image sensor 11 is an image sensor that receives light incident on the light receiving surface.
  • the image sensor 11 is arranged with the light receiving surface facing the lens unit 21, receives the subject light 23 that has passed through the lens unit 21, and generates image data.
  • Image data is sequentially generated, for example, at a predetermined frame rate.
  • an image sensor such as a CCD (Charge Coupled Device) sensor or a CMOS (Complementary Metal-Oxide Semiconductor) sensor is used.
  • the image data is data that constitutes an captured image of the subject.
  • generating the image data constituting the captured image corresponds to generating the captured image.
  • the image data includes pixel data for representing a plurality of pixels constituting the captured image. These pixel data are transmitted as, for example, digital signals (pixel signals). Therefore, it can be said that the image data is generated as a set (image signal) of a plurality of pixel signals.
  • the pixel data corresponds to the pixel information.
  • Each pixel data includes, for example, RGB data indicating the intensities of red light, green light, and blue light contained in the subject light 23.
  • RGB data can be uniquely converted into YCrCb data or the like representing a color by, for example, brightness Y, red color difference Cr, and blue color difference Cb.
  • YCrCb data representing a color by, for example, brightness Y, red color difference Cr, and blue color difference Cb.
  • the format and type of image data are not limited.
  • the camera controller 12 is an arithmetic unit that controls the operation of each part of the image pickup apparatus 100, and has a configuration necessary for a computer such as a CPU and a memory (RAM, ROM).
  • the camera controller 12 controls the operation of the image sensor 11 and the image processing unit 13 based on, for example, parameters input via the user operation unit 16 described later.
  • electronic control of the lens control unit 22 and operation control of the display device 15 may be performed.
  • the video processing unit 13 is a calculation unit that performs various processes on image data (video data) generated by the image sensor 11 at a predetermined frame rate.
  • the video processing unit 13 has, for example, a register (memory) for recording settings for performing various arithmetic processes. By rewriting this register and implementing a predetermined program, it is possible to execute desired digital signal processing.
  • the video processing unit 13 is configured by using an IC (Integrated Circuit) for video processing such as an imaging processor.
  • the camera controller 12 described above may be configured on the imaging processor together with the video processing unit 13. For example, by installing and executing the program according to the present embodiment in the RAM of the camera controller 12 and the registers of the video processing unit 13, each part of the image pickup apparatus 100 executes the image pickup method according to the present embodiment.
  • the image processing unit 13 includes a camera signal processing unit 30, a peaking detection unit 31, a superimposing color setting unit 32, a superimposing color selection unit 33, and a compositing unit 34.
  • Each of these blocks is constructed, for example, in an imaging processor. Further, each block may be configured by using a PLD (Programmable Logic Device) such as FPGA (Field Programmable Gate Array) or another dedicated device such as ASIC (Application Specific Integrated Circuit).
  • PLD Programmable Logic Device
  • FPGA Field Programmable Gate Array
  • ASIC Application Specific Integrated Circuit
  • the camera signal processing unit 30 executes correction processing, conversion processing, and the like on the image data generated by the image sensor 11. That is, it can be said that the camera signal processing unit 30 generates image data (captured image) subjected to various processing.
  • imaging system correction such as brightness correction (shading correction), gain correction of each pixel data (pixel signal), gamma correction for corresponding to monitor gamma, and signal level changed by each correction.
  • Correction processing such as standardization correction (knee correction) is executed. These correction processes are sequentially executed, for example, so that the captured image is properly generated.
  • the camera signal processing unit 30 may execute a conversion process or the like for converting RGB data into YCrCb data or the like.
  • the type of each process for the image data is not limited.
  • the image sensor 11 and the camera signal processing unit 30 generate an captured image of the subject.
  • the image sensor 11 and the camera signal processing unit 30 function as an image generation unit.
  • the image data processed by the camera signal processing unit 30 is output to the main line of the imaging device 100 as data recorded in the recording unit or used for broadcasting or the like, for example. Further, as shown in FIG. 1, in the image pickup apparatus 100, processing of each other unit of the image processing unit 13 is executed based on the image data output by the camera signal processing unit 30.
  • the image data output from the camera signal processing unit 30 will be referred to as the original image data
  • the image composed of the captured image data will be referred to as the original image.
  • the peaking detection unit 31 detects a portion of the original image that is the target of the peaking display.
  • the peaking display is a highlighting display that colors a focused portion in an image.
  • the peaking detection unit 31 detects an edge portion included in the original image (captured image) generated by the image sensor 11 and the camera signal processing unit 30.
  • the peaking detection unit 31 corresponds to the edge detection unit.
  • high-pass filter processing is applied to each pixel included in the original image to extract components in the high frequency band. More specifically, the original image data (pixel signal) is input to the high-pass filter, and edge detection data representing the positions of pixels including high-frequency components is generated. Pixels containing this high frequency component are detected as edge portions. In this way, the peaking detection unit detects the pixel position of the edge portion. This makes it possible to specify each position of the edge portion with high accuracy.
  • the method for detecting the edge portion is not limited, and any edge detection process may be used.
  • the superimposed color setting unit 32 controls the highlighting color for emphasizing the edge portion for each edge portion detected by the peaking detection unit 31 based on the color information regarding the edge portion in the original image. That is, the superimposed color setting unit 32 sets the highlighting color (superimposed color with respect to the original image) of each edge portion in consideration of the original image.
  • the highlighting color may be referred to as a superimposed color.
  • the color information about the edge part is the information indicating the color of the edge part in the original image and the color around the edge part.
  • information included in the pixel data of the original image is typically used. For example, information representing the intensity of RGB (RGB data or the like) or information representing the brightness and color difference (YCrCb data or the like) of each pixel of the original image becomes color information.
  • the superimposed color is set for each pixel position detected as the edge portion.
  • a superimposed color is set for each pixel of the edge portion designated by the edge detection data, and edge enhancement data representing the superimposed color and the pixel position is generated.
  • the edge enhancement data constitutes a superimposed image superimposed on the original image in the peaking display.
  • the superimposed color setting unit 32 sets the superimposed color (highlighted color) from a plurality of color candidates. That is, each edge portion is emphasized by using any one of a plurality of color candidates. In this way, by setting a plurality of color candidates in advance, the process of setting the superimposed color is the process of selecting the color candidate. This makes it possible to easily set the superimposed color of each edge portion.
  • a plurality of color candidates are set by the user.
  • a plurality of color candidates are set by the user, and information on each color candidate is held by the superimposed color selection unit 33 described below.
  • the superimposed color of each edge portion is set based on the color candidate set by this user.
  • Each color candidate is set via the user operation unit 16. For example, a plurality of colors are displayed on the display device 15, and a candidate color is selected from the plurality of colors. Further, for example, another candidate color may be automatically set by the user selecting one basic color.
  • the method of setting a plurality of candidate colors is not limited.
  • the superimposed color selection unit 33 accepts the selection of a plurality of color candidates by the user. For example, information on color candidates set by the user by operating the user operation unit 16 described later is input to the superimposed color selection unit 33 via the camera controller 12.
  • the superimposed color selection unit 33 holds the input color candidate information and outputs it to the superimposed color setting unit 32 as appropriate.
  • a default candidate may be set as a plurality of color candidates and stored in the superimposed color selection unit 33.
  • the synthesizing unit 34 synthesizes an image in which the superimposed image (edge enhancement data) generated by the superimposed color setting unit 32 is superimposed on the original image (original image data) generated by the camera signal processing unit 30. Therefore, the image synthesized by the compositing unit 34 is a peaking image in which the focused portion (edge portion) of the original image is displayed in the superimposed color. In this way, the compositing unit generates a peaking image in which the edge portion of the original image is emphasized by the superimposed color.
  • image data in which the pixel data of the pixels corresponding to the edge portion of the original image data is replaced with the pixel data representing the superimposed color is generated as a peaking image.
  • the method of synthesizing the original image and the superimposed image is not limited, and for example, a circuit or the like capable of superimposing another display or the like on the image may be appropriately used.
  • the color of the edge portion is set as the superimposed color, and the color of the portion different from the edge portion is set to the same color as the original image. That is, the peaking display is limited to the edge portion, and the normal image (original image) is used as it is except for the edge portion. As a result, the user can use the peaking display without discomfort.
  • the peaking image 40 generated by the compositing unit 34 is output to the display device 15.
  • the superimposed color setting unit 32, the superimposed color selection unit 33, and the composite unit 34 function as a color control unit.
  • the recording unit 14 is a non-volatile recording device.
  • the recording unit 14 is connected to the main line of the image pickup apparatus 100 and records the original image (original image data) output by the camera signal processing unit 30.
  • the recording unit 14 for example, a magnetic tape, an optical disk, an HDD (Hard Disk Drive), an SSD (Solid State Drive), or the like is used.
  • the specific configuration of the recording unit 14 is not limited.
  • the display device 15 is a display device that displays a peaking image.
  • a view finder (VF: ViewFinder) of a video camera (imaging device 100) is used.
  • an external display using a liquid crystal, an organic EL, or the like may be used as the display device 15.
  • the external display may be a sub-display of the main body of the image pickup device 100, or may be a display provided separately from the image pickup device 100.
  • a user who is a photographer operates the lens control unit 22 and the like while viewing the peaking image displayed on the display device 15, and operates the focus of the image pickup device 100.
  • the peaking image the in-focus portion is highlighted by the superimposed color.
  • the user can shoot the subject while confirming the in-focus position on the screen.
  • the resolution of the display device 15 and the resolution of the image sensor 11 may differ.
  • the image sensor 11 may have a 4K resolution (horizontal 3840 pixels, vertical 2160 pixels), and the display device 15 may have an HD resolution (horizontal 1920 pixels, vertical 1080 pixels).
  • this technique can be applied even when other configurations are used.
  • the resolution of a small display device 15 such as a viewfinder may be lower than that of the image sensor 11.
  • the camera signal processing unit 30 may generate an original image (original image data) down-converted according to the resolution of the display device 15. Processing of the peaking detection unit 31, the superimposed color setting unit 32, the composition unit 34, and the like is appropriately executed on the down-converted original image, and a peaking image matching the resolution of the display device 15 is generated.
  • the peaking image output from the compositing unit 34 may be down-converted.
  • the user operation unit 16 receives the user's operation on the image pickup device 100. For example, the color candidates of the superimposed colors described above are set via the user operation unit 16.
  • the user operation unit 16 includes various switches such as buttons and levers, sliders, rotary knobs, and the like. Further, for example, the display device 15 that functions as a touch screen may be configured as the user operation unit 16. In addition, the specific configuration of the user operation unit 16 is not limited.
  • FIG. 2 is an example of a peaking image in which the edge portion of the subject is emphasized.
  • the basic operation of the image pickup apparatus 100 will be described with reference to the peaking image 40 and the like shown in FIG.
  • FIG. 2 as the subject 1, the table 1a, the left side plate 1b and the right side plate 1c arranged on the table 1a, and the chair 1d placed in the back of the table 1a are schematically shown by using gray lines. Is illustrated in. It is assumed that the image pickup apparatus 100 is in focus on a part of the plate 1b on the left side and a part of the plate 1c on the right side.
  • the black line in the figure represents the highlighting 42 of the edge portion 41.
  • the highlighting 42 is displayed superimposed on a part (edge portion 41) of the subject 1.
  • two types of color candidates are used as the colors (superimposed colors) of the highlighting 42.
  • the two types of color candidates are described as the first color candidate 43a and the second color candidate 43b.
  • the highlighting 42 in which the first and second color candidates 43a and 43b are set as superimposed colors is represented by a solid black line and a dotted black line.
  • the peaking image 40 is typically a color image.
  • the light from the subject 1 enters the image sensor 11 through the lens unit 21, and the image of the subject 1 is captured.
  • the image data generated by the image sensor 11 is processed by the camera signal processing unit 30 and recorded in the recording unit 14 as the original image data (original image).
  • the original image data is processed for peaking display and displayed on the display device 15 as a peaking image 40.
  • the user can operate the lens control unit 22 while looking at the peaking image 40 displayed on the display device 15.
  • the peaking detection unit 31 detects the edge portion 41 of the original image. This edge portion 41 is the in-focus position in focus.
  • the superimposed color setting unit 32 sets the superimposed color of the edge portion 41 in consideration of the color in the original image. Specifically, from a plurality of color candidates 43 (for example, first and second color candidates 43a and 43b) set by the user and held in the superimposed color selection unit 33, the superimposed colors are generated according to the colors in the original image. Be selected.
  • the overlay color setting is executed based on the edge color of the edge portion 41 in the original image.
  • the edge color is a color represented by color information regarding the edge portion 41. For example, suppose a pixel is detected as an edge portion 41. The color represented by the color information of the pixels serving as the edge portion 41, that is, the color of the pixels in the original image is used as the edge color. In this case, the edge color is the color of the edge portion 41 itself.
  • a color represented by color information including pixels around the edge portion 41 may be used as the edge color.
  • the average of the colors of each pixel is calculated based on the color information of the pixels included in the periphery and used as the edge color.
  • the edge color is an average color including the peripheral portion of the edge portion.
  • the superimposed color is set so that the edge color and the superimposed color are separated from each other.
  • the colors that are separated from each other are, for example, colors that are separated from each other on the hue plane or colors that are separated from each other in brightness. It can be said that there is a large difference in color between colors that are far from each other. Therefore, the superimposed color is set to a color whose hue and brightness are not similar to those of the edge color (color having a large difference). That is, a color candidate that does not resemble the edge color is selected as the superimposed color.
  • the first color candidate 43a is set to red and the second color candidate is set to light blue.
  • the plate 1b on the left side is blue and the plate c on the right side is orange.
  • the edge color of the edge portion 41 detected in the dish 1b on the left side is a color having a large amount of blue component.
  • the edge color of the edge portion 41 detected in the dish 1c on the right side is a color having a large amount of red component and yellow component.
  • the first color candidate 43a red
  • a second color candidate 43b light blue
  • the first color candidate 43a is set to white and the second color candidate 43b is set to black.
  • the first color candidate 43a having high brightness is set as the superimposed color.
  • the second color candidate 43b having low brightness is set as the superimposed color.
  • each edge portion 41 is not simply determined by the color and brightness of the subject 1.
  • the edge color is calculated using the color information in the original image, and color candidates distant from the edge color are appropriately selected.
  • the superimposed color is controlled so that the color difference between the edge color represented by the color information regarding the edge portion 41 and the superimposed color becomes large.
  • the highlighting 42 in the peaking image 40 can be sufficiently conspicuous, and the position of the edge portion 41 can be clearly represented.
  • the visibility of the highlighting display 42 is improved, and the focus operation can be sufficiently supported.
  • FIG. 3 is a schematic diagram for explaining the color wheel.
  • the hue ring 50 is a ring-shaped arrangement of hues. Although the color wheel 50 is schematically shown in FIG. 3 using gray scale, the color wheel 50 is actually represented in color.
  • the hue of each chromatic color can be calculated based on an RGB value, a color difference value, or the like.
  • FIG. 3 shows the colors at each position (angle) of the color wheel 50.
  • purple (V), blue (B), light blue (LB), green (G), and yellow (Y) are located at each position rotated clockwise by 60 ° with respect to red (R). Is placed (black circle in the figure).
  • a surface formed by arranging hues in a ring shape will be referred to as a hue surface.
  • the color farthest from red R in terms of hue is light blue LB.
  • the red R and the light blue LB are complementary colors arranged at opposite positions on the hue circle 50.
  • green G and purple V are complementary colors
  • blue B and yellow Y are complementary colors.
  • the plurality of color candidates include chromatic color candidates.
  • Color candidates for chromatic colors are set from, for example, the same hue circle 50 (colors in which brightness and saturation are set to be equal). Further, a plurality of color candidates are set so as to have different hues from each other.
  • the plurality of color candidates are set to include the first color candidate 43a and the second color candidate 43b having a hue different from that of the first color candidate 43a.
  • the edge portion 41 is displayed using two colors. This makes it possible to realize a simple highlighting with high visibility. Further, by suppressing the number of colors of the highlight display 42, the user can concentrate on only two colors and perform the focus operation, and it is possible to exhibit excellent operability.
  • the first and second color candidates 43a and 43b are set to complement each other. That is, the first and second color candidates 43a and 43b are set so as to have hues rotated by 180 ° in the hue circle 50.
  • the user may set two colors that complement each other.
  • a color selected by the user may be used as the first color candidate 43a, and a second color candidate 43b as a complementary color thereof may be automatically set.
  • the edge portion 41 (highlighted 42) is represented by using the color (complementary color) whose hue is the farthest from each other, so that each edge portion 41 can be sufficiently conspicuous.
  • the superimposed color setting unit 32 controls the superimposed color so that the edge color 44 and the superimposed color are separated from each other in the hue plane.
  • the hue of the edge color 44 is schematically illustrated by white circles.
  • the first color candidate 43a is set to red R and the second color candidate 43b is set to light blue LB.
  • a second color candidate 43b (light blue), which is a color distant from the edge color 44a on the hue plane, is selected as a superimposed color.
  • the first color candidate 43a red
  • the superimposed color is selected as the superimposed color. Will be done.
  • the second color candidate 43b is set as the superimposed color, and ⁇ 90 ° from the second color candidate 43b.
  • the first color candidate 43a is set as the superimposed color.
  • two color candidates 43 (first and second color candidates 43a and 43b) that are not complementary colors may be set. Even in this case, the color candidate 43 away from the edge color 44 in the hue circle 50 is set as the superimposed color. As a result, the user can perform peaking display using any two colors, and it is possible to realize highlighting 42 with a high degree of freedom.
  • color candidates 43 it is also possible to set two or more color candidates 43.
  • three color candidates 43 may be set.
  • the three color candidates 43 are set so as to be at the most distant angles (120 °) from each other in the color wheel 50.
  • the edge color 44 and the superimposed color are superimposed from among the plurality of color candidates 43 so as to be different colors in the hue plane. The color is selected. This makes it possible to sufficiently emphasize the visibility of the highlighting display 42 regardless of the hue of the edge portion 41.
  • FIG. 4 is a flowchart showing an example of peaking display using superimposed colors of colors.
  • FIG. 5 is an image of the hue circle 50 given as an example of the original image.
  • the peaking display process using the superimposed color of the color will be described with reference to FIG. 4 by taking the original image 25 shown in FIG. 5 as an example.
  • FIG. 5 shows an image (original image 25) in which the hue circle 50 is captured as an example of the subject 1.
  • the periphery (background) of the color wheel 50 is black.
  • the hue circle 50 shown in FIG. 5 has the same angular arrangement as the hue circle 50 described in FIG. Further, in the original image 25 shown in FIG. 5, the focus of the image pickup apparatus 100 is focused on the entire color wheel 50.
  • the process shown in FIG. 4 is, for example, a process performed on one original image 25.
  • the process shown in FIG. 4 is executed, and the peaking display for each original image 25 is executed.
  • the hue components of the two color candidates 43 (first and second color candidates 43a and 43b) set by the user are calculated (step 101).
  • the hue component is a hue value H that represents hue, and can be represented by, for example, an angle on the hue circle 50.
  • the hue value H is calculated for each of the color candidates 43a and 43b.
  • the hue value H is calculated by, for example, the superimposed color selection unit 33.
  • the hue value H is calculated based on each intensity of RGB.
  • the hue value H is calculated based on the red color difference Cr and the blue color difference Cb.
  • the hue value H may be appropriately calculated according to the format of the color candidate data.
  • the first color candidate 43a is set to red R and the second color candidate 43b is set to light blue LB
  • the hue component of the first color candidate 43a the angle on the hue circle corresponding to the position of red R is calculated as the hue value H.
  • the hue component of the second color candidate 43b the angle on the hue circle 50 corresponding to the position of the light blue LB is calculated as the hue value H. Since the color candidates 43a and 43b are complementary colors, the hue values H of the color candidates 43a and 43b are offset by 180 ° from each other.
  • the loop processing shown in steps 102 to 108 is executed. These loop processes are sequentially performed for each pixel included in the original image 25, for example. Alternatively, processing may be executed in parallel for a plurality of pixels included in one column (horizontal line or vertical line).
  • the superimposed color setting unit 32 acquires the position of the pixel to be peaked (step 102). Specifically, the pixel positions of the pixels corresponding to the edge portion 41 are appropriately read based on the detection result (edge detection data) of the edge portion 41 detected from the original image 25 by the peaking detection unit 31.
  • FIG. 6 is an image showing an edge portion 41 detected from the original image 25 shown in FIG.
  • the pixels (edge pixels 45) corresponding to the edge portion 41 of the original image 25 including the hue circle 50 are shown in white.
  • the outer edge portion of the hue circle 50 is detected as the edge portion 41. Therefore, as shown in FIG. 6, the edge pixels 45 of the hue circle 50 are distributed in a circle.
  • the superimposed color setting unit 32 sequentially acquires the pixel positions of these edge pixels 45.
  • the superimposed color setting unit 32 acquires pixel data around the pixel position (edge pixel 45) acquired in step 102 (step 103).
  • the peripheral pixel data is pixel data of pixels included in a predetermined pixel area surrounding the edge pixel 45. In the following, pixels included in a predetermined pixel area will be referred to as reference pixels.
  • FIG. 7 is a schematic diagram showing an example of pixel arrangement around the edge pixel 45.
  • the pixel arrangement shown in FIG. 7 is the pixel arrangement of the original image 25 centered on the edge pixel 45.
  • Each pixel is represented by using squares arranged vertically and horizontally adjacent to each other in a matrix.
  • the black pixel is the edge pixel 45.
  • the predetermined pixel area 51 is illustrated using a thick black line.
  • the predetermined pixel area 51 includes an edge pixel 45 and peripheral pixels 46 arranged around the edge pixel 45. These edge pixels 45 and peripheral pixels 46 serve as reference pixels 47. In the example shown in FIG. 7, a 3 ⁇ 3 pixel area centered on the edge pixel 45 is set as the predetermined pixel area 51. In this case, the eight pixels arranged around the edge pixel 45 are the peripheral pixels 46.
  • the size, shape, position, etc. of the predetermined pixel area 51 are not limited. For example, a 5 ⁇ 5 or 7 ⁇ 7 pixel region centered on the edge pixel 45 may be set. Further, a pixel area such as 2 ⁇ 2 or 4 ⁇ 4 or a pixel area such as 2 ⁇ 3 or 5 ⁇ 4 may be set. Further, the edge pixel 45 may be deviated from the center of the pixel area. In addition, an arbitrary region including the edge pixel 45 may be set as a predetermined pixel region 51.
  • the pixel position of the edge pixel 45 is read, the pixel position of another pixel (peripheral pixel 46) included in the predetermined pixel area 51 is calculated. Then, the pixel data of the reference pixel 47 (edge pixel 45 and peripheral pixel 46) is read from the original image 25 based on each pixel position.
  • the pixel data of the reference pixel 47 includes information representing the color of each pixel in the predetermined pixel area 51. Therefore, the pixel data of the reference pixel 47 includes the color information around the edge pixel 45 (edge portion 41). In the color peaking display, these pixel data are used as color information regarding the edge portion 41. As described above, the color information regarding the edge portion 41 includes the pixel data of the reference pixel 47 included in the predetermined pixel region 51 surrounding the pixel position of the edge portion 41. Further, the color represented by the pixel data of the reference pixel 47 is the edge color 44.
  • the superimposed color setting unit 32 calculates the average hue from the peripheral pixel data (pixel data of the reference pixel 47) (step 104). That is, the average of the hue values of the predetermined pixel region 51 around the edge portion 41 is calculated.
  • the process of calculating one hue value from the pixel data of the reference pixel 47 corresponds to the process of calculating the hue of the edge color 44 represented by the pixel data of the reference pixel 47.
  • the superimposed color setting unit 32 calculates the hue of the edge color 44 based on the pixel data of the reference pixel 47. As a result, it is possible to set the superimposed color according to the tendency of the hue around the edge portion, and it is possible to make the superimposed color sufficiently conspicuous.
  • the average hue of the reference pixel 47 is calculated as the hue of the edge color 44.
  • the hue values of each reference pixel 47 are calculated based on the pixel data read in step 103.
  • the average hue is calculated by averaging these hue values.
  • FIG. 8 is a schematic diagram showing an example of the average hue of the edge portion 41 shown in FIG.
  • the region corresponding to the edge portion 41 shown in FIG. 6 is schematically illustrated by using a wide annular region. Further, the average hue calculated at each pixel position (edge pixel 45) of the edge portion 41 is represented using a gray scale.
  • the average hue calculated by each edge pixel 45 is a hue that reflects the hue of the hue circle 50 which is the original image 25.
  • the edge pixel 45 of red R calculates an average hue close to red R
  • the edge pixel 45 of light blue LB calculates an average hue close to light blue LB.
  • various average hues are calculated for each edge pixel 45 according to the color of the subject and the background.
  • the method of calculating the hue (average hue) of the edge color 44 is not limited.
  • the original image 25 may be subjected to filter processing such as an averaging filter or a Gaussian filter, and the pixel data after applying the filter may be acquired for each edge pixel 45 to calculate the hue.
  • the filtering process is performed for each target pixel area 51, for example. As a result, the influence of noise and the like can be reduced, and the hue value of the edge color representing the color of each edge pixel 45 can be stably calculated.
  • the predetermined pixel area 51 may be set according to the subject 1. For example, the type of the subject 1 and the state of the surface of the subject 1 are detected based on a technique such as image recognition, and the size of the pixel area 51 and the like are set based on the detection result.
  • the pixel area 51 is set small. As a result, the influence of colors other than the edge portion 41 is reduced, and the edge color 44 can be calculated accurately.
  • the pixel area 51 is set large. This makes it possible to properly calculate the edge color 44 in consideration of the color around the edge portion 41.
  • the superimposed color setting unit 32 determines whether or not the average hue of the edge pixels 45 is close to the first color candidate 43a (step 105). Whether or not the average hue is close to the first color candidate 43a is determined by whether the average hue is the first color candidate 43a (red R) or the second color candidate 43b (light blue LB) on the hue circle 50. It is executed by determining whether it is close. Based on this determination, the superimposed color of the edge pixel 45 is set.
  • FIG. 9 is a schematic diagram showing an example of peaking display by superimposing colors.
  • FIG. 9A is an example of the superimposed image 60 in which the edge portion 41 is displayed in the superimposed color.
  • FIG. 9B is an example of a peaking image 40 in which the original image 25 and the superimposed image 60 are combined.
  • the average hue of the edge pixel 45 is far from the first color candidate 43a and close to the second color candidate 43b (No in step 105)
  • the superimposed color of the edge pixel 45 is the first color candidate 43a. Is set to (step 106).
  • the average hue outside the range of ⁇ 90 ° with respect to the first color candidate 43a (red R), that is, the average hue included in the range of ⁇ 90 ° with reference to the second color candidate 43b (light blue LB) is calculated.
  • the superimposed color of the edge pixel 45 is set to the first color candidate 43a (see FIG. 3). Therefore, as shown in FIG. 9A, the red R highlighting 42 is set for the edge pixel 45 for which the edge color 44 (average hue) close to the light blue LB is calculated.
  • the superimposed color of the edge pixel 45 is the second color candidate. It is set to 43b (step 107).
  • the average hue included outside the range of ⁇ 90 ° with respect to the first color candidate 43a (red R), that is, the range of ⁇ 90 ° with respect to the second color candidate 43b (light blue LB) is calculated.
  • the superimposed color of the edge pixel 45 is set to the second color candidate 43b (see FIG. 3). Therefore, as shown in FIG. 9B, the highlight display 42 of the light blue LB is set to the edge pixel 45 for which the edge color 44 (average hue) close to the red R is calculated.
  • the superimposed color of the edge pixel 45 is set to the second hue candidate 43b having a complementary color relationship when the hue value of the average hue is close to the hue value of the first hue candidate 43a, and conversely when it is far away. Is set as the first color candidate 43a. That is, the superimposed color setting unit 32 sets the color candidate 43 having the hue farthest from the hue of the edge color 44 among the plurality of color candidates as the superimposed color.
  • FIG. 9B schematically shows a peaking image 40 in which the edge portion 41 of the hue circle 50 included in the original image 25 is emphasized.
  • the superimposed color is red R (first color candidate 43a). Therefore, the light blue portion of the color wheel 50 and the highlighting 42 (red) of the edge portion 41 can be easily distinguished.
  • the superimposed color is light blue LB (second color candidate 43b). This makes it possible to easily distinguish between the red portion of the color wheel 50 and the highlighting 42 (light blue) of the edge portion 41.
  • step 108 it is determined whether or not all the pixels of the original image 25 have been processed.
  • the unprocessed pixels remain (No in step 108)
  • the processes after step 102 are repeated.
  • the processing on the original image 25 is completed. After that, the peaking display process for the next original image 25 is started.
  • FIG. 10 is a schematic diagram showing an example of a peaking display given as a comparative example.
  • the left and right views of FIG. 10A are a superimposed image 60a and a peaking image 40a when a single superimposed color (red R) is used.
  • red R a superimposed color
  • FIG. 10A when the superimposed color is represented only by red R, the hue difference between the red edge portion 41 in the hue circle 50 is small, so that the highlighting 42 (peaking) portion and the subject 1 (hue circle) It becomes difficult to distinguish from the part of 50).
  • FIG. 10B The figures on the left and right sides of FIG. 10B are a superimposed image 60b and a peaking image 40b when a color close to the hue of the edge color 44 is used as the superimposed color among the red R and the light blue LB.
  • the superimposed color of light blue LB is set at the light blue edge portion 41
  • the superimposed color of red R is set at the red edge portion 41. Therefore, the hue difference is small in both the red and light blue edge portions 41, and the visibility of the highlight display 42 is reduced.
  • the superimposed color is set so that the hue difference with respect to the edge color 44 becomes large. Therefore, the visibility of the peaking display (highlighted display 42) is improved for any edge portion 41 regardless of the hue. As a result, it is possible to easily determine where the focus is in the photographing range, and it is possible to sufficiently support the focus operation of the image pickup apparatus 100.
  • the plurality of color candidates 43 include the achromatic color candidates 43.
  • the achromatic color candidate 43 is set from a color such as white, black, or gray represented by a predetermined brightness.
  • Each color candidate 43 is set so as to have different brightness from each other.
  • black and white are used as the achromatic color candidates 43 will be described. That is, the plurality of color candidates 43 include black and white.
  • the brightness (luminance) of the two color candidates is different from the edge color 44 as the superimposed color of the edge portion 41.
  • the color is set. That is, the superimposed color is controlled so that the edge color 44 and the superimposed color are separated from each other in the luminance direction.
  • the edge color 44 is a color represented by color information (pixel data or the like) related to the edge portion 41 of the original image 25, and is typically a chromatic color. Therefore, in the black-and-white peaking display, the superimposed color is controlled based on the brightness (luminance) of the edge color 44 of the color.
  • edge color 44 when the edge color 44 is brighter than a predetermined threshold value, black with low brightness is set as the superimposed color of the edge portion 41. Further, for example, when the edge color 44 is darker than a predetermined threshold value, white having high brightness is set as the superimposed color of the edge portion 41. As a result, each edge portion 41 is displayed in a superimposed color whose brightness is different from that of the edge color 44, so that the visibility of the highlight display 42 of the edge portion 41 can be significantly improved.
  • FIG. 11 is a flowchart showing an example of peaking display using black and white superimposed colors.
  • FIG. 12 is an image of the stripe pattern 55 as an example of the original image. In the following, the peaking display process using black and white superimposed colors will be described with reference to FIG. 11 by taking the original image 25 shown in FIG. 12 as an example.
  • FIG. 12 shows an image (original image 25) in which the stripe pattern 55 is captured as an example of the subject 1.
  • the stripe pattern 55 is a pattern in which strip-shaped rectangular regions are continuously arranged in the horizontal direction in the drawing. Each rectangular area is filled with a gradual gradation from white to black in order from the left side. That is, the stripe pattern 55 is a grayscale gradation pattern.
  • the superimposed color setting unit 32 acquires the positions of the pixels to be peaked (step 201). Specifically, the pixel position of the edge pixel 45 corresponding to the edge portion 41 is read.
  • FIG. 13 is an image showing an edge portion 41 detected from the original image 25 shown in FIG.
  • the pixels (edge pixels 45) corresponding to the edge portion 41 of the original image 25 including the stripe pattern 55 are shown in white. From the stripe pattern 55, the boundary of each rectangular region is detected as the edge portion 41. Therefore, as shown in FIG. 13, the edge pixels 45 of the stripe pattern 55 are distributed along the vertical line corresponding to the boundary of each rectangular region.
  • the pixel data of the pixel position acquired in step 201 is acquired (step 202). That is, the pixel data (color information) of the edge pixels 45 is read from the original image 25. Then, the superimposed color setting unit 32 calculates the brightness of the pixel data of the edge pixel 45 (step 203). As described above, in the process shown in FIG. 11, the pixel data of the edge pixel 45 becomes the color information regarding the edge portion 41, and the color of the edge pixel 45 becomes the edge color 44. The brightness of the edge color 44 is calculated as appropriate.
  • the gradation value of the pixel data is calculated as the brightness of the edge pixel 45.
  • the pixel data is RGB data
  • the brightness is calculated based on each intensity value of RGB.
  • FIG. 14 is a schematic diagram showing an example of the brightness of the edge portion 41 shown in FIG. 13 in the original image 25.
  • FIG. 14 for example, at the boundary of a white rectangular region (the leftmost edge portion 41 in the figure), bright brightness is calculated.
  • the brightness calculated at each boundary (edge portion 41) becomes darker as it is closer to the right side.
  • the brightness display of the edge portion 41 on the right side of the figure is not visible, but in reality, the brightness close to black is calculated at the position indicated by the arrow.
  • the brightness of the pixel (edge pixel 45) corresponding to the edge portion 41 was calculated as it is, but the brightness is not limited to this.
  • a predetermined pixel region 51 described with reference to FIG. 7 may be set.
  • the (reference pixel 47) pixel data of the edge pixels 45 and the peripheral pixels 46 included in the pixel area 51 is acquired, and the average brightness and the like in the pixel area 51 are calculated. That is, the brightness of the edge color 44 may be calculated based on the pixel data of the reference pixel 47. This makes it possible to set the superimposed color according to the brightness of the surroundings.
  • the superimposed color setting unit 32 determines whether or not the brightness of the edge pixel 45 is close to black (step 204). This determination is performed by determining whether the luminance of the edge pixel 45 (luminance of the edge color 44) is closer to black or white in the luminance direction.
  • the superimposed color setting unit 32 sets the superimposed color to black when the brightness of the edge color 44 is larger than a predetermined threshold value, and sets the superimposed color to black when the brightness of the edge color 44 is smaller than the predetermined threshold value. Is set to white. Based on this determination, the superimposed color of the edge pixel 45 is set.
  • the predetermined threshold value is set to, for example, an intermediate value between black and white. For example, when the brightness of each color is represented by 256 gradations (when the brightness of black is 1 and the brightness of white is 256), a predetermined threshold value is set to 128. When the brightness of each color is represented by 128 gradations, the predetermined brightness is set to 64. Not limited to this, a predetermined threshold value may be appropriately set according to, for example, the brightness of the screen.
  • FIG. 15 is a schematic diagram showing an example of peaking display using black and white superimposed colors.
  • 15A and 15B are examples of a superposed image 60 in which the edge portion 41 is displayed in black and white superposed colors.
  • FIG. 15C is an example of a peaking image 40 in which the original image 25 and the superimposed image 60 are combined.
  • the superimposed color of the edge pixel 45 is set to black (step 205).
  • the brightness close to white is calculated (see FIG. 14). Therefore, as shown in FIG. 15A, a black highlighting 42 is set for the edge pixel 45 (the edge pixel 45 on the left side of the stripe pattern 55) for which the brightness close to white is calculated.
  • the superimposed color of the edge pixel 45 is set to white (step 206).
  • the edge pixel 45 on the right side of the stripe pattern 55 the brightness close to black is calculated (see FIG. 14). Therefore, as shown in FIG. 15B, the edge pixel 45 (the edge pixel 45 on the left side of the stripe pattern 55) for which the brightness close to black is calculated is highlighted with white 42.
  • both the edge pixel 45 close to white and the edge pixel 45 close to black are detected.
  • a black superimposed color is set for the edge pixel 45 brighter than a predetermined threshold value, and a white superimposed color is set for the dark edge pixel 45.
  • the superimposed color of the edge pixel 45 is set to white when its brightness is close to black, and conversely set to black when its brightness is close to white. That is, the superimposed color setting unit 32 sets the color candidate 43 having the brightness farthest from the brightness of the edge color 44 among the plurality of color candidates 43 (black and white) as the superimposed color.
  • FIG. 15C schematically shows a peaking image 40 in which the edge portion 41 of the stripe pattern 55 included in the original image 25 is emphasized.
  • the superimposed color is black at the right boundary (edge portion 41) close to white. Further, at the right boundary (edge portion 41) close to black, the superimposed color is white.
  • FIG. 15C it is possible to sufficiently improve the visibility of the peaking display from the portion having high brightness to the portion having low brightness.
  • step 208 it is determined whether or not all the pixels of the original image 25 have been processed.
  • the unprocessed pixels remain (No in step 208)
  • the processes after step 201 are repeated.
  • the processing on the original image 25 is completed.
  • the black-and-white superimposition pattern is determined for each pixel of the peaking display shown in FIG. 15C. After that, the peaking display process for the next original image 25 is started.
  • FIG. 16 is a peaking image 40c given as a comparative example.
  • a single superimposed color (white) is used.
  • the highlighting 42 can be visually recognized at the right edge portion 41 having low brightness, but the highlighting 42 and the subject (striped pattern 55) are distinguished from each other at the left edge portion 41 having high brightness. Becomes difficult.
  • the superimposed color is set so that the brightness difference from the edge color 44 becomes large. Therefore, the visibility of the peaking display (highlighted display 42) is improved for any edge portion 41 regardless of the brightness of the edge portion 41. As a result, it is possible to easily determine where the focus is in the photographing range, and it is possible to sufficiently support the focus operation of the image pickup apparatus 100.
  • the captured image (original image 25) of the subject 1 is generated, and the edge portion 41 included in the original image 25 is detected. Further, for each of the detected edge portions 41, the color of the highlighting 42 that emphasizes the edge portion 41 is controlled by using the color information regarding the edge portion 41 in the original image 25. This makes it possible to improve the visibility of the highlighting 42 of the edge portion 41.
  • a method of emphasizing the edge of the subject As a method of emphasizing the edge of the subject, a method of darkening the edge color, a method of superimposing a single color, etc. can be considered. In this case, it may be difficult to identify the emphasized edge portion depending on the color and background around the edge.
  • the color of the highlighting 42 that emphasizes the edge portion 41 is set to be a color different from the color related to the edge portion 41 (edge color 44) in the original image 25.
  • the superimposed color stand out regardless of the color of the edge portion 41 itself in the original image 25, the color around the edge portion 41, and the like. This makes it possible to improve the visibility of the highlighting display 42.
  • the color peaking display for example, two complementary colors (first and second color candidates 43a and 43b) are set as superimposed colors.
  • the superimposed color is automatically selected according to the hue of the edge portion 41 (the hue of the edge color 44) so as to be a color that is easy for the user to see. In this way, since the peaking display is performed with the color having the larger hue difference according to the color around the peaking position, the user can easily recognize the peaking portion for any hue color.
  • black and white superimposed colors are automatically selected so as to be colors that are easy for the user to see according to the brightness of the edge portion 41 (the brightness of the edge color 44). This makes it possible to improve the visibility of the peaking display regardless of the brightness of the edge portion 41 or the like.
  • the superimposed color used for the highlighting 42 also changes according to the color change of the peaking position (edge portion 41). This makes it possible to maintain the visibility of the highlighting 42 even when, for example, the composition of the original image 25, the subject, or the like constantly changes. As a result, the focus position can always be displayed in a color that is easy to see, and high usability can be exhibited.
  • the image pickup apparatus 100 It is also possible to perform peaking display by superimposing colors (plural color candidates 43) selected by the user.
  • the superimposed color corresponding to the color of the edge portion 41 is automatically set by using the color candidate 43 selected by the user. This makes it possible to easily recognize the highlighting 42 of the edge portion 41.
  • the image pickup apparatus 100 generates a peaking image 40 in which only the edge portion 41 of the original image 25 is modified. That is, the peaking display is limited to the edge portion 41, and the others are the same as the normal image. As a result, it is possible to realize a shooting state in which the user does not feel uncomfortable without deteriorating the visibility of the peaking display. As a result, a natural focus operation becomes possible, and excellent operability can be exhibited.
  • the color of highlighting 42 may be set to switch at a fixed time. For example, when two color candidates 43 are used, the color candidates 43 set as each highlighting 42 are switched to become other color candidates 43 at preset time intervals. As a result, the color (superimposed color) of the highlighting 42 is constantly switched and displayed, so that the edge portion 41 can be easily detected.
  • the highlighting 42 so as to blink at regular time intervals.
  • the state in which the highlighting 42 is displayed and the state in which the highlighting 42 is not displayed are alternately repeated.
  • the edge portion 41 can be easily detected.
  • any method for dynamically changing the display of the edge portion 41 may be used.
  • FIG. 17 is a schematic diagram for explaining an application example of the peaking display.
  • FIG. 17A schematically illustrates a state of surgery using an imaging device.
  • 17B and 17C are schematic views showing an example of a peaking display applied to an image of the surgical field. Note that in FIGS. 17B and 17C, the highlighting 42 is schematically illustrated with a dotted line.
  • an imaging device for photographing the affected area in the body is used.
  • an imaging device that magnifies and photographs the affected area is used.
  • the present technology can be suitably applied to such an imaging device.
  • the scopist 2 who manually focuses the endoscope camera 200 in the operation performs the focus operation of the endoscope camera 200 while looking at the monitor 215b different from the monitor 215a seen by the doctor 3 performing the operation. It shows how it is.
  • the peaking display using the present technique is performed only on the image displayed on the monitor 215b viewed by the scopist 2, and the peaking display is not performed on the image (monitor 215a) viewed by the doctor 3 performing the operation. This makes it possible for the scopist 2 to easily focus the endoscopic camera 200 on the affected area without affecting the doctor 3 who performs the operation.
  • FIG. 17B is an example of a peaking image 240 in which a peaking display is applied to an image (intraoperative image) taken by the endoscope camera 200.
  • FIG. 17B shows a state in which a part of the organs 5a is grasped by the forceps 4 operated by the doctor 3.
  • the organ 5a grasped by the forceps 4 is connected to the organ 5b covered with the fat 6. Further, another organ 5c is present on the organ 5b covered with fat 6.
  • organ 5 and fat 6 included in the intraoperative image are detected by using image recognition processing or the like.
  • the fat 6 is set as the subject of interest.
  • a color (blue) that complements the color of fat 6 (yellow) is set as one color candidate 43.
  • the edge portion 41 is displayed by the blue highlighting 42a, and the focus position can be easily visually recognized.
  • the forceps 4 in the intraoperative image may be detected by using an image recognition process or the like.
  • an organ or the like (organ 5a) near the forceps 4 is set as the subject of interest.
  • a color that is a complementary color of the organ 5a that is the subject of interest is set as the color candidate 43.
  • the contour of the organ 5a to be operated on can be displayed by the highlighting 42b in which the complementary color of the color of the organ 5a is set. This makes it possible to easily perform the focus operation on the subject of interest.
  • FIG. 17C is an example of a peaking image 240 in which a peaking display is applied to an image (intraoperative image) in which the tumor portion is photographed.
  • a part of the brain 7 exposed by craniotomy and the tumor 8 are schematically illustrated.
  • tumor 8 is detected by using image recognition processing or the like.
  • the tumor 8 can be detected by using, for example, a color difference from the normal brain 7.
  • the color of the highlighting 42 (color candidate 43) is set so as to complement the color of the tumor 8. This makes it possible to emphasize the edge portion 41 detected in the tumor 8 with an easily identifiable color.
  • the method of setting the color candidate 43 according to the subject 1 is not limited.
  • the technology according to the present disclosure can be applied to various products.
  • the techniques according to the present disclosure may be applied to endoscopic surgery systems.
  • FIG. 18 is a diagram showing an example of a schematic configuration of an endoscopic surgery system 5000 to which the technique according to the present disclosure can be applied.
  • FIG. 18 shows a surgeon (doctor) 5067 performing surgery on patient 5071 on patient bed 5069 using the endoscopic surgery system 5000.
  • the endoscopic surgery system 5000 includes an endoscope 5001, other surgical tools 5017, a support arm device 5027 for supporting the endoscope 5001, and various devices for endoscopic surgery. It is composed of a cart 5037 on which the
  • troccas 5025a to 5025d are punctured into the abdominal wall.
  • the lens barrel 5003 of the endoscope 5001 and other surgical tools 5017 are inserted into the body cavity of the patient 5071.
  • other surgical tools 5017 a pneumoperitoneum tube 5019, an energy treatment tool 5021 and forceps 5023 are inserted into the body cavity of patient 5071.
  • the energy treatment tool 5021 is a treatment tool that cuts and peels tissue, seals a blood vessel, or the like by using a high-frequency current or ultrasonic vibration.
  • the surgical tool 5017 shown in the figure is only an example, and as the surgical tool 5017, various surgical tools generally used in endoscopic surgery such as a sword and a retractor may be used.
  • the image of the surgical site in the body cavity of the patient 5071 taken by the endoscope 5001 is displayed on the display device 5041.
  • the surgeon 5067 performs a procedure such as excising the affected area by using the energy treatment tool 5021 or the forceps 5023 while viewing the image of the surgical site displayed on the display device 5041 in real time.
  • the pneumoperitoneum tube 5019, the energy treatment tool 5021, and the forceps 5023 are supported by the operator 5067, an assistant, or the like during the operation.
  • the support arm device 5027 includes an arm portion 5031 extending from the base portion 5029.
  • the arm portion 5031 is composed of joint portions 5033a, 5033b, 5033c, and links 5035a, 5035b, and is driven by control from the arm control device 5045.
  • the endoscope 5001 is supported by the arm portion 5031, and its position and posture are controlled. As a result, the stable position of the endoscope 5001 can be fixed.
  • the endoscope 5001 is composed of a lens barrel 5003 in which a region having a predetermined length from the tip is inserted into the body cavity of the patient 5071, and a camera head 5005 connected to the base end of the lens barrel 5003.
  • the endoscope 5001 configured as a so-called rigid mirror having a rigid barrel 5003 is illustrated, but the endoscope 5001 is configured as a so-called flexible mirror having a flexible barrel 5003. May be good.
  • the tip of the lens barrel 5003 is provided with an opening in which an objective lens is fitted.
  • a light source device 5043 is connected to the endoscope 5001, and the light generated by the light source device 5043 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 5003, and is an objective. It is irradiated toward the observation target in the body cavity of the patient 5071 through the lens.
  • the endoscope 5001 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image sensor are provided inside the camera head 5005, and the reflected light (observation light) from the observation target is focused on the image sensor by the optical system.
  • the observation light is photoelectrically converted by the image sensor, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted as RAW data to the camera control unit (CCU: Camera Control Unit) 5039.
  • the camera head 5005 is equipped with a function of adjusting the magnification and the focal length by appropriately driving the optical system thereof.
  • the camera head 5005 may be provided with a plurality of image pickup elements.
  • a plurality of relay optical systems are provided inside the lens barrel 5003 in order to guide the observation light to each of the plurality of image pickup elements.
  • the CCU 5039 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and comprehensively controls the operations of the endoscope 5001 and the display device 5041. Specifically, the CCU 5039 performs various image processing for displaying an image based on the image signal, such as development processing (demosaic processing), on the image signal received from the camera head 5005. The CCU 5039 provides the image signal subjected to the image processing to the display device 5041. Further, the CCU 5039 transmits a control signal to the camera head 5005 and controls the driving thereof.
  • the control signal may include information about imaging conditions such as magnification and focal length.
  • the display device 5041 displays an image based on the image signal processed by the CCU 5039 under the control of the CCU 5039.
  • the endoscope 5001 is compatible with high-resolution shooting such as 4K (3840 horizontal pixels x 2160 vertical pixels) or 8K (7680 horizontal pixels x 4320 vertical pixels), and / or 3D display.
  • the display device 5041 a device capable of displaying a high resolution and / or a device capable of displaying in 3D can be used corresponding to each of the above.
  • a more immersive feeling can be obtained by using a display device 5041 having a size of 55 inches or more.
  • a plurality of display devices 5041 having different resolutions and sizes may be provided depending on the application.
  • the light source device 5043 is composed of, for example, a light source such as an LED (light emission diode), and supplies irradiation light for photographing the surgical site to the endoscope 5001.
  • a light source such as an LED (light emission diode)
  • the arm control device 5045 is configured by a processor such as a CPU, and operates according to a predetermined program to control the drive of the arm portion 5031 of the support arm device 5027 according to a predetermined control method.
  • the input device 5047 is an input interface for the endoscopic surgery system 5000.
  • the user can input various information and input instructions to the endoscopic surgery system 5000 via the input device 5047.
  • the user inputs various information related to the surgery, such as physical information of the patient and information about the surgical procedure, via the input device 5047.
  • the user gives an instruction to drive the arm portion 5031 via the input device 5047, or an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 5001.
  • An instruction to drive the energy treatment tool 5021, etc. is input.
  • the type of input device 5047 is not limited, and the input device 5047 may be various known input devices.
  • the input device 5047 for example, a mouse, a keyboard, a touch panel, a switch, a foot switch 5057 and / or a lever and the like can be applied.
  • the touch panel may be provided on the display surface of the display device 5041.
  • the input device 5047 is a device worn by the user, such as a glasses-type wearable device or an HMD (Head Mounted Display), and various inputs are made according to the user's gesture and line of sight detected by these devices. Is done. Further, the input device 5047 includes a camera capable of detecting the movement of the user, and various inputs are performed according to the gesture and the line of sight of the user detected from the image captured by the camera. Further, the input device 5047 includes a microphone capable of picking up the user's voice, and various inputs are performed by voice through the microphone.
  • a glasses-type wearable device or an HMD Head Mounted Display
  • the input device 5047 By configuring the input device 5047 to be able to input various information in a non-contact manner in this way, a user belonging to a clean area (for example, an operator 5067) can operate a device belonging to a dirty area in a non-contact manner. Is possible. In addition, since the user can operate the device without taking his / her hand off the surgical tool he / she has, the convenience of the user is improved.
  • the treatment tool control device 5049 controls the drive of the energy treatment tool 5021 for ablation of tissue, incision, sealing of blood vessels, and the like.
  • the pneumoperitoneum device 5051 gas in the pneumoperitoneum tube 5019 in order to inflate the body cavity of the patient 5071 for the purpose of securing the field of view by the endoscope 5001 and securing the work space of the operator.
  • Recorder 5053 is a device capable of recording various information related to surgery.
  • the printer 5055 is a device capable of printing various information related to surgery in various formats such as text, images, and graphs.
  • the support arm device 5027 includes a base portion 5029 which is a base, and an arm portion 5031 extending from the base portion 5029.
  • the arm portion 5031 is composed of a plurality of joint portions 5033a, 5033b, 5033c and a plurality of links 5035a, 5035b connected by the joint portions 5033b, but in FIG. 18, for simplicity.
  • the configuration of the arm portion 5031 is shown in a simplified manner. Actually, the shapes, numbers and arrangements of the joint portions 5033a to 5033c and the links 5035a and 5035b, and the direction of the rotation axis of the joint portions 5033a to 5033c are appropriately set so that the arm portion 5031 has a desired degree of freedom. obtain.
  • the arm portion 5031 can be preferably configured to have at least 6 degrees of freedom.
  • the endoscope 5001 can be freely moved within the movable range of the arm portion 5031, so that the lens barrel 5003 of the endoscope 5001 can be inserted into the body cavity of the patient 5071 from a desired direction. It will be possible.
  • Actuators are provided in the joint portions 5033a to 5033c, and the joint portions 5033a to 5033c are configured to be rotatable around a predetermined rotation axis by driving the actuator.
  • the arm control device 5045 By controlling the drive of the actuator by the arm control device 5045, the rotation angles of the joint portions 5033a to 5033c are controlled, and the drive of the arm portion 5031 is controlled.
  • the arm control device 5045 can control the drive of the arm unit 5031 by various known control methods such as force control or position control.
  • the arm control device 5045 appropriately controls the drive of the arm unit 5031 in response to the operation input.
  • the position and orientation of the endoscope 5001 may be controlled.
  • the endoscope 5001 at the tip of the arm portion 5031 can be moved from an arbitrary position to an arbitrary position, and then fixedly supported at the moved position.
  • the arm portion 5031 may be operated by a so-called master slave method. In this case, the arm portion 5031 can be remotely controlled by the user via an input device 5047 installed at a location away from the operating room.
  • the arm control device 5045 When force control is applied, the arm control device 5045 receives an external force from the user and moves the actuators of the joint portions 5033a to 5033c smoothly so that the arm portion 5031 moves smoothly according to the external force. So-called power assist control for driving may be performed.
  • the arm portion 5031 when the user moves the arm portion 5031 while directly touching the arm portion 5031, the arm portion 5031 can be moved with a relatively light force. Therefore, the endoscope 5001 can be moved more intuitively and with a simpler operation, and the convenience of the user can be improved.
  • the endoscope 5001 was supported by a doctor called a scopist.
  • the position of the endoscope 5001 can be fixed more reliably without human intervention, so that an image of the surgical site can be stably obtained. , It becomes possible to perform surgery smoothly.
  • the arm control device 5045 does not necessarily have to be provided on the cart 5037. Further, the arm control device 5045 does not necessarily have to be one device. For example, the arm control device 5045 may be provided at each joint portion 5033a to 5033c of the arm portion 5031 of the support arm device 5027, and the arm portion 5031 is driven by the plurality of arm control devices 5045 cooperating with each other. Control may be realized.
  • the light source device 5043 supplies the endoscope 5001 with the irradiation light for photographing the surgical site.
  • the light source device 5043 is composed of, for example, an LED, a laser light source, or a white light source composed of a combination thereof.
  • a white light source is configured by combining RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Therefore, the white balance of the captured image in the light source device 5043 can be controlled. Can be adjusted.
  • the laser light from each of the RGB laser light sources is irradiated to the observation target in a time-division manner, and the drive of the image sensor of the camera head 5005 is controlled in synchronization with the irradiation timing to support each of RGB. It is also possible to capture the image in a time-division manner. According to this method, a color image can be obtained without providing a color filter on the image sensor.
  • the drive of the light source device 5043 may be controlled so as to change the intensity of the output light at predetermined time intervals.
  • the drive of the image sensor of the camera head 5005 in synchronization with the timing of changing the light intensity to acquire an image in a time-division manner and synthesizing the image, so-called high dynamic without blackout and overexposure. Range images can be generated.
  • the light source device 5043 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue to irradiate light in a narrow band as compared with the irradiation light (that is, white light) in normal observation, the mucosal surface layer.
  • narrow band imaging in which a predetermined tissue such as a blood vessel is photographed with high contrast, is performed.
  • fluorescence observation in which an image is obtained by fluorescence generated by irradiating with excitation light may be performed.
  • the body tissue is irradiated with excitation light to observe the fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is injected.
  • An excitation light corresponding to the fluorescence wavelength of the reagent may be irradiated to obtain a fluorescence image.
  • the light source device 5043 may be configured to be capable of supplying narrow band light and / or excitation light corresponding to such special light observation.
  • FIG. 19 is a block diagram showing an example of the functional configuration of the camera head 5005 and CCU5039 shown in FIG.
  • the camera head 5005 has a lens unit 5007, an imaging unit 5009, a driving unit 5011, a communication unit 5013, and a camera head control unit 5015 as its functions.
  • the CCU 5039 has a communication unit 5059, an image processing unit 5061, and a control unit 5063 as its functions.
  • the camera head 5005 and the CCU 5039 are bidirectionally communicatively connected by a transmission cable 5065.
  • the lens unit 5007 is an optical system provided at a connection portion with the lens barrel 5003.
  • the observation light taken in from the tip of the lens barrel 5003 is guided to the camera head 5005 and incident on the lens unit 5007.
  • the lens unit 5007 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the optical characteristics of the lens unit 5007 are adjusted so as to collect the observation light on the light receiving surface of the image sensor of the image pickup unit 5009.
  • the zoom lens and the focus lens are configured so that their positions on the optical axis can be moved in order to adjust the magnification and the focus of the captured image.
  • the image pickup unit 5009 is composed of an image pickup element and is arranged after the lens unit 5007.
  • the observation light that has passed through the lens unit 5007 is focused on the light receiving surface of the image sensor, and an image signal corresponding to the observation image is generated by photoelectric conversion.
  • the image signal generated by the imaging unit 5009 is provided to the communication unit 5013.
  • CMOS Complementary Metal Oxide Semiconductor
  • image pickup device for example, an image sensor capable of capturing a high resolution image of 4K or higher may be used.
  • the image pickup elements constituting the image pickup unit 5009 are configured to have a pair of image pickup elements for acquiring image signals for the right eye and the left eye corresponding to 3D display, respectively.
  • the 3D display enables the operator 5067 to more accurately grasp the depth of the living tissue in the surgical site.
  • the image pickup unit 5009 is composed of a multi-plate type, a plurality of lens units 5007 are also provided corresponding to each image pickup element.
  • the imaging unit 5009 does not necessarily have to be provided on the camera head 5005.
  • the imaging unit 5009 may be provided inside the lens barrel 5003 immediately after the objective lens.
  • the drive unit 5011 is composed of an actuator, and the zoom lens and focus lens of the lens unit 5007 are moved by a predetermined distance along the optical axis under the control of the camera head control unit 5015. As a result, the magnification and focus of the image captured by the imaging unit 5009 can be adjusted as appropriate.
  • the communication unit 5013 is composed of a communication device for transmitting and receiving various information to and from the CCU 5039.
  • the communication unit 5013 transmits the image signal obtained from the image pickup unit 5009 as RAW data to the CCU 5039 via the transmission cable 5065.
  • the image signal is transmitted by optical communication.
  • the surgeon 5067 performs the surgery while observing the condition of the affected area with the captured image, so for safer and more reliable surgery, the moving image of the surgical site is displayed in real time as much as possible. This is because it is required.
  • the communication unit 5013 is provided with a photoelectric conversion module that converts an electric signal into an optical signal.
  • the image signal is converted into an optical signal by the photoelectric conversion module and then transmitted to the CCU 5039 via the transmission cable 5065.
  • the communication unit 5013 receives a control signal for controlling the drive of the camera head 5005 from the CCU 5039.
  • the control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and / or information to specify the magnification and focus of the captured image. Contains information about the condition.
  • the communication unit 5013 provides the received control signal to the camera head control unit 5015.
  • the control signal from CCU5039 may also be transmitted by optical communication.
  • the communication unit 5013 is provided with a photoelectric conversion module that converts an optical signal into an electric signal, and the control signal is converted into an electric signal by the photoelectric conversion module and then provided to the camera head control unit 5015.
  • the imaging conditions such as the frame rate, exposure value, magnification, and focus are automatically set by the control unit 5063 of the CCU 5039 based on the acquired image signal. That is, the so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function are mounted on the endoscope 5001.
  • the camera head control unit 5015 controls the drive of the camera head 5005 based on the control signal from the CCU 5039 received via the communication unit 5013. For example, the camera head control unit 5015 controls the drive of the image sensor of the image pickup unit 5009 based on the information to specify the frame rate of the captured image and / or the information to specify the exposure at the time of imaging. Further, for example, the camera head control unit 5015 appropriately moves the zoom lens and the focus lens of the lens unit 5007 via the drive unit 5011 based on the information that the magnification and the focus of the captured image are specified.
  • the camera head control unit 5015 may further have a function of storing information for identifying the lens barrel 5003 and the camera head 5005.
  • the camera head 5005 can be made resistant to autoclave sterilization.
  • the communication unit 5059 is composed of a communication device for transmitting and receiving various information to and from the camera head 5005.
  • the communication unit 5059 receives an image signal transmitted from the camera head 5005 via the transmission cable 5065.
  • the image signal can be suitably transmitted by optical communication.
  • the communication unit 5059 is provided with a photoelectric conversion module that converts an optical signal into an electric signal.
  • the communication unit 5059 provides the image processing unit 5061 with an image signal converted into an electric signal.
  • the communication unit 5059 transmits a control signal for controlling the drive of the camera head 5005 to the camera head 5005.
  • the control signal may also be transmitted by optical communication.
  • the image processing unit 5061 performs various image processing on the image signal which is the RAW data transmitted from the camera head 5005.
  • the image processing includes, for example, development processing, high image quality processing (band enhancement processing, super-resolution processing, NR (Noise reduction) processing and / or camera shake correction processing, etc.), and / or enlargement processing (electronic zoom processing). Etc., various known signal processing is included.
  • the image processing unit 5061 performs detection processing on the image signal for performing AE, AF, and AWB.
  • the image processing unit 5061 is composed of a processor such as a CPU or GPU, and when the processor operates according to a predetermined program, the above-mentioned image processing and detection processing can be performed.
  • the image processing unit 5061 is composed of a plurality of GPUs, the image processing unit 5061 appropriately divides the information related to the image signal and performs image processing in parallel by the plurality of GPUs.
  • the control unit 5063 performs various controls related to imaging the surgical site with the endoscope 5001 and displaying the captured image. For example, the control unit 5063 generates a control signal for controlling the drive of the camera head 5005. At this time, when the imaging condition is input by the user, the control unit 5063 generates a control signal based on the input by the user. Alternatively, when the endoscope 5001 is equipped with the AE function, the AF function, and the AWB function, the control unit 5063 sets the optimum exposure value, focal length, and the optimum exposure value, depending on the result of the detection process by the image processing unit 5061. The white balance is calculated appropriately and a control signal is generated.
  • control unit 5063 causes the display device 5041 to display the image of the surgical unit based on the image signal that has been image-processed by the image processing unit 5061.
  • the control unit 5063 recognizes various objects in the surgical site image by using various image recognition techniques.
  • the control unit 5063 detects a surgical tool such as forceps, a specific biological part, bleeding, a mist when using the energy treatment tool 5021, etc. by detecting the shape and color of the edge of the object included in the surgical site image. Can be recognized.
  • the control unit 5063 uses the recognition result to superimpose and display various surgical support information on the image of the surgical site. By superimposing the surgical support information and presenting it to the surgeon 5067, it becomes possible to proceed with the surgery more safely and surely.
  • the transmission cable 5065 that connects the camera head 5005 and the CCU 5039 is an electric signal cable that supports electric signal communication, an optical fiber that supports optical communication, or a composite cable thereof.
  • the communication is performed by wire using the transmission cable 5065, but the communication between the camera head 5005 and the CCU 5039 may be performed wirelessly.
  • the communication between the two is performed wirelessly, it is not necessary to lay the transmission cable 5065 in the operating room, so that the situation where the movement of the medical staff in the operating room is hindered by the transmission cable 5065 can be solved.
  • the example of the endoscopic surgery system 5000 to which the technique according to the present disclosure can be applied has been described above. Although the endoscopic surgery system 5000 has been described here as an example, the system to which the technique according to the present disclosure can be applied is not limited to such an example. For example, the techniques according to the present disclosure may be applied to examination flexible endoscopic systems and microsurgery systems.
  • the technique according to the present disclosure is suitably applied to the endoscope 5001, CCU5039, the display device 5041, and the like among the configurations described above.
  • the image sensor mounted on the endoscope 5001 functions as the image sensor 11 described with reference to FIG.
  • the image processing unit 5061 of the CCU 5039 functions as the video processing unit 13 described with reference to FIG.
  • the display device 5041 becomes the display device 15 described with reference to FIG.
  • the technique according to the present disclosure may be applied to an operating room system.
  • FIG. 20 is a diagram schematically showing the overall configuration of the operating room system 5100 to which the technique according to the present disclosure can be applied.
  • the operating room system 5100 is configured by connecting a group of devices installed in the operating room in a coordinated manner via an audiovisual controller (AV Controller) 5107 and an operating room control device 5109.
  • AV Controller audiovisual controller
  • FIG. 20 various devices can be installed in the operating room.
  • various device groups 5101 for endoscopic surgery a ceiling camera 5187 provided on the ceiling of the operating room to image the operator's hand, and an operating room provided on the ceiling of the operating room.
  • An operating room camera 5189 that captures the entire state, a plurality of display devices 5103A to 5103D, a recorder 5105, a patient bed 5183, and an illumination 5191 are illustrated.
  • the device group 5101 belongs to the endoscopic surgery system 5113 described later, and includes an endoscope, a display device that displays an image captured by the endoscope, and the like.
  • Each device belonging to the endoscopic surgery system 5113 is also referred to as a medical device.
  • the display devices 5103A to 5103D, the recorder 5105, the patient bed 5183 and the lighting 5191 are devices provided in the operating room, for example, separately from the endoscopic surgery system 5113.
  • Each of these devices that does not belong to the endoscopic surgery system 5113 is also referred to as a non-medical device.
  • the audiovisual controller 5107 and / or the operating room controller 5109 controls the operations of these medical devices and non-medical devices in cooperation with each other.
  • the audiovisual controller 5107 comprehensively controls processing related to image display in medical devices and non-medical devices.
  • the device group 5101, the sealing camera 5187, and the operating room camera 5189 have a function of transmitting information to be displayed during the operation (hereinafter, also referred to as display information).
  • It can be a device (hereinafter, also referred to as a source device).
  • the display devices 5103A to 5103D may be devices for outputting display information (hereinafter, also referred to as output destination devices).
  • the recorder 5105 may be a device corresponding to both the source device and the output destination device.
  • the audiovisual controller 5107 controls the operation of the source device and the output destination device, acquires display information from the source device, and transmits the display information to the output destination device for display or recording.
  • the displayed information includes various images captured during the operation, various information related to the operation (for example, physical information of the patient, past test results, information on the surgical procedure, etc.).
  • the audiovisual controller 5107 can be transmitted from the device group 5101 as display information about an image of the surgical site in the body cavity of the patient captured by the endoscope.
  • the sealing camera 5187 may transmit information about the image at the operator's hand captured by the sealing camera 5187 as display information.
  • the operating room camera 5189 may transmit as display information information about an image showing the state of the entire operating room captured by the operating room camera 5189.
  • the audiovisual controller 5107 acquires information about the image captured by the other device from the other device as display information. You may.
  • the recorder 5105 records information about these images captured in the past by the audiovisual controller 5107.
  • the audiovisual controller 5107 can acquire information about the previously captured image from the recorder 5105 as display information.
  • various information about the operation may be recorded in advance in the recorder 5105.
  • the audiovisual controller 5107 causes at least one of the display devices 5103A to 5103D, which is the output destination device, to display the acquired display information (that is, an image taken during the operation and various information related to the operation).
  • the display device 5103A is a display device suspended from the ceiling of the operating room
  • the display device 5103B is a display device installed on the wall surface of the operating room
  • the display device 5103C is in the operating room. It is a display device installed on a desk
  • the display device 5103D is a mobile device having a display function (for example, a tablet PC (Personal Computer)).
  • the operating room system 5100 may include a device outside the operating room.
  • the device outside the operating room may be, for example, a server connected to a network constructed inside or outside the hospital, a PC used by medical staff, a projector installed in a conference room of the hospital, or the like.
  • the audiovisual controller 5107 can also display display information on a display device of another hospital via a video conferencing system or the like for remote medical care.
  • the operating room control device 5109 comprehensively controls processing other than processing related to image display in non-medical equipment.
  • the operating room control device 5109 controls the drive of the patient bed 5183, the sealing camera 5187, the operating room camera 5189, and the lighting 5191.
  • the operating room system 5100 is provided with a centralized operation panel 5111, and the user gives an instruction regarding image display to the audiovisual controller 5107 or gives an instruction to the operating room control device 5109 via the centralized operation panel 5111. On the other hand, instructions on the operation of non-medical devices can be given.
  • the centralized operation panel 5111 is configured by providing a touch panel on the display surface of the display device.
  • FIG. 21 is a diagram showing a display example of an operation screen on the centralized operation panel 5111.
  • FIG. 21 shows, as an example, an operation screen corresponding to a case where the operating room system 5100 is provided with two display devices as output destination devices.
  • the operation screen 5193 is provided with a source selection area 5195, a preview area 5197, and a control area 5201.
  • the source device provided in the operating room system 5100 and the thumbnail screen showing the display information possessed by the source device are linked and displayed.
  • the user can select the display information to be displayed on the display device from any of the source devices displayed in the source selection area 5195.
  • a preview of the screen displayed on the two display devices which are the output destination devices, is displayed.
  • four images are displayed in PinP on one display device.
  • the four images correspond to the display information transmitted from the source device selected in the source selection area 5195.
  • one is displayed relatively large as the main image and the remaining three are displayed relatively small as the sub-image.
  • the user can switch the main image and the sub image by appropriately selecting the area in which the four images are displayed.
  • a status display area 5199 is provided below the area where the four images are displayed, and the status related to the surgery (for example, the elapsed time of the surgery, the physical information of the patient, etc.) is appropriately displayed in the area. obtain.
  • a source operation area 5203 in which GUI (Graphical User Interface) parts for operating the source device are displayed, and a GUI component for operating the output destination device.
  • GUI Graphic User Interface
  • the source operation area 5203 is provided with GUI components for performing various operations (pan, tilt, zoom) on the camera in the source device having an imaging function. The user can operate the operation of the camera in the source device by appropriately selecting these GUI components.
  • the source device selected in the source selection area 5195 is a recorder (that is, in the preview area 5197, an image recorded in the past is displayed on the recorder.
  • the source operation area 5203 may be provided with a GUI component for performing operations such as playing, stopping, rewinding, and fast-forwarding the image.
  • GUI parts for performing various operations for the display on the display device which is the output destination device are provided. It is provided. The user can operate the display on the display device by appropriately selecting these GUI components.
  • the operation screen displayed on the centralized operation panel 5111 is not limited to the illustrated example, and the user can use the audiovisual controller 5107 and the operating room control device 5109 provided in the operating room system 5100 via the centralized operation panel 5111. Operational inputs to each device that can be controlled may be possible.
  • FIG. 22 is a diagram showing an example of an operation in which the operating room system described above is applied.
  • the ceiling camera 5187 and the operating room camera 5189 are provided on the ceiling of the operating room, and can photograph the state of the operator (doctor) 5181 and the entire operating room that treat the affected part of the patient 5185 on the patient bed 5183. Is.
  • the sealing camera 5187 and the operating field camera 5189 may be provided with a magnification adjusting function, a focal length adjusting function, a shooting direction adjusting function, and the like.
  • the illumination 5191 is provided on the ceiling of the operating room and illuminates at least the hands of the surgeon 5181.
  • the illumination 5191 may be capable of appropriately adjusting the amount of irradiation light, the wavelength (color) of the irradiation light, the irradiation direction of the light, and the like.
  • the endoscopic surgery system 5113, patient bed 5183, sealing camera 5187, operating room camera 5189 and lighting 5191 are via an audiovisual controller 5107 and an operating room control device 5109 (not shown in FIG. 22), as shown in FIG. Are connected so that they can cooperate with each other.
  • a centralized operation panel 5111 is provided in the operating room, and as described above, the user can appropriately operate these devices existing in the operating room through the centralized operation panel 5111.
  • the endoscopic surgery system 5113 includes an endoscope 5115, other surgical tools 5131, a support arm device 5141 that supports the endoscope 5115, and various devices for endoscopic surgery. It is composed of a cart 5151 on which the
  • troccas 5139a to 5139d are punctured into the abdominal wall.
  • the lens barrel 5117 of the endoscope 5115 and other surgical tools 5131 are inserted into the body cavity of the patient 5185 from the troccers 5139a to 5139d.
  • a pneumoperitoneum tube 5133, an energy treatment tool 5135, and forceps 5137 are inserted into the body cavity of patient 5185.
  • the energy treatment tool 5135 is a treatment tool that cuts and peels tissue, seals a blood vessel, or the like by using a high-frequency current or ultrasonic vibration.
  • the surgical tool 5131 shown is only an example, and as the surgical tool 5131, various surgical tools generally used in endoscopic surgery such as a sword and a retractor may be used.
  • the image of the surgical site in the body cavity of the patient 5185 taken by the endoscope 5115 is displayed on the display device 5155. While viewing the image of the surgical site displayed on the display device 5155 in real time, the surgeon 5181 uses the energy treatment tool 5135 and forceps 5137 to perform a procedure such as excising the affected area. Although not shown, the pneumoperitoneum tube 5133, the energy treatment tool 5135, and the forceps 5137 are supported by the surgeon 5181 or an assistant during the operation.
  • the support arm device 5141 includes an arm portion 5145 extending from the base portion 5143.
  • the arm portion 5145 is composed of joint portions 5147a, 5147b, 5147c, and links 5149a, 5149b, and is driven by control from the arm control device 5159.
  • the endoscope 5115 is supported by the arm portion 5145, and its position and posture are controlled. As a result, the stable position of the endoscope 5115 can be fixed.
  • the endoscope 5115 is composed of a lens barrel 5117 in which a region having a predetermined length from the tip is inserted into the body cavity of the patient 5185, and a camera head 5119 connected to the base end of the lens barrel 5117.
  • the endoscope 5115 configured as a so-called rigid mirror having a rigid barrel 5117 is illustrated, but the endoscope 5115 is configured as a so-called flexible mirror having a flexible barrel 5117. May be good.
  • the tip of the lens barrel 5117 is provided with an opening in which the objective lens is fitted.
  • a light source device 5157 is connected to the endoscope 5115, and the light generated by the light source device 5157 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 5117, and is an objective. It is irradiated toward the observation target in the body cavity of the patient 5185 through the lens.
  • the endoscope 5115 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image sensor are provided inside the camera head 5119, and the reflected light (observation light) from the observation target is focused on the image sensor by the optical system.
  • the observation light is photoelectrically converted by the image sensor, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted as RAW data to the camera control unit (CCU: Camera Control Unit) 5153.
  • the camera head 5119 is equipped with a function of adjusting the magnification and the focal length by appropriately driving the optical system.
  • the camera head 5119 may be provided with a plurality of image pickup elements in order to support stereoscopic viewing (3D display) and the like.
  • a plurality of relay optical systems are provided inside the lens barrel 5117 in order to guide the observation light to each of the plurality of image pickup elements.
  • the CCU 5153 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and comprehensively controls the operations of the endoscope 5115 and the display device 5155. Specifically, the CCU 5153 performs various image processing for displaying an image based on the image signal, such as development processing (demosaic processing), on the image signal received from the camera head 5119. CCU5153 provides the image signal subjected to the image processing to the display device 5155. Further, the audiovisual controller 5107 shown in FIG. 20 is connected to the CCU 5153. CCU5153 also provides the image processed image signal to the audiovisual controller 5107.
  • the CCU 5153 transmits a control signal to the camera head 5119 and controls the driving thereof.
  • the control signal may include information about imaging conditions such as magnification and focal length.
  • the information regarding the imaging condition may be input via the input device 5161 or may be input via the centralized operation panel 5111 described above.
  • the display device 5155 displays an image based on the image signal processed by the CCU 5153 under the control of the CCU 5153.
  • the endoscope 5115 is compatible with high-resolution shooting such as 4K (3840 horizontal pixels x 2160 vertical pixels) or 8K (7680 horizontal pixels x 4320 vertical pixels), and / or 3D display.
  • the display device 5155 a device capable of displaying a high resolution and / or a device capable of displaying in 3D can be used corresponding to each of the above.
  • a display device 5155 having a size of 55 inches or more is used for high-resolution shooting such as 4K or 8K, a further immersive feeling can be obtained.
  • a plurality of display devices 5155 having different resolutions and sizes may be provided depending on the application.
  • the light source device 5157 is composed of, for example, a light source such as an LED (light emission diode), and supplies the irradiation light for photographing the surgical site to the endoscope 5115.
  • a light source such as an LED (light emission diode)
  • the arm control device 5159 is composed of a processor such as a CPU, and operates according to a predetermined program to control the drive of the arm portion 5145 of the support arm device 5141 according to a predetermined control method.
  • the input device 5161 is an input interface for the endoscopic surgery system 5113.
  • the user can input various information and input instructions to the endoscopic surgery system 5113 via the input device 5161.
  • the user inputs various information related to the surgery, such as physical information of the patient and information about the surgical procedure, via the input device 5161.
  • the user gives an instruction to drive the arm portion 5145 via the input device 5161 and an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 5115.
  • Input an instruction to drive the energy treatment tool 5135, and the like.
  • the type of the input device 5161 is not limited, and the input device 5161 may be various known input devices.
  • the input device 5161 for example, a mouse, a keyboard, a touch panel, a switch, a foot switch 5171 and / or a lever and the like can be applied.
  • the touch panel may be provided on the display surface of the display device 5155.
  • the input device 5161 is a device worn by the user, such as a glasses-type wearable device or an HMD (Head Mounted Display), and various inputs are made according to the user's gesture and line of sight detected by these devices. Is done. Further, the input device 5161 includes a camera capable of detecting the movement of the user, and various inputs are performed according to the gesture and the line of sight of the user detected from the image captured by the camera. Further, the input device 5161 includes a microphone capable of picking up the user's voice, and various inputs are performed by voice through the microphone.
  • a glasses-type wearable device or an HMD Head Mounted Display
  • the input device 5161 By configuring the input device 5161 to be able to input various information in a non-contact manner in this way, a user belonging to a clean area (for example, an operator 5181) can operate a device belonging to a dirty area in a non-contact manner. Is possible. In addition, since the user can operate the device without taking his / her hand off the surgical tool he / she has, the convenience of the user is improved.
  • the treatment tool control device 5163 controls the drive of the energy treatment tool 5135 for ablation of tissue, incision, sealing of blood vessels, and the like.
  • the pneumoperitoneum device 5165 gas in the pneumoperitoneum tube 5133 to inflate the body cavity of the patient 5185 for the purpose of securing the field of view by the endoscope 5115 and securing the operator's work space.
  • the recorder 5167 is a device capable of recording various information related to surgery.
  • the printer 5169 is a device capable of printing various information related to surgery in various formats such as text, images, and graphs.
  • the support arm device 5141 includes a base portion 5143 that is a base, and an arm portion 5145 that extends from the base portion 5143.
  • the arm portion 5145 is composed of a plurality of joint portions 5147a, 5147b, 5147c and a plurality of links 5149a, 5149b connected by the joint portions 5147b, but in FIG. 22, for simplicity.
  • the configuration of the arm portion 5145 is shown in a simplified manner. Actually, the shapes, numbers and arrangements of the joint portions 5147a to 5147c and the links 5149a and 5149b, and the direction of the rotation axis of the joint portions 5147a to 5147c are appropriately set so that the arm portion 5145 has a desired degree of freedom. obtain.
  • the arm portion 5145 can be preferably configured to have at least 6 degrees of freedom.
  • the endoscope 5115 can be freely moved within the movable range of the arm portion 5145, so that the lens barrel 5117 of the endoscope 5115 can be inserted into the body cavity of the patient 5185 from a desired direction. It will be possible.
  • Actuators are provided in the joint portions 5147a to 5147c, and the joint portions 5147a to 5147c are configured to be rotatable around a predetermined rotation axis by driving the actuator.
  • the arm control device 5159 By controlling the drive of the actuator by the arm control device 5159, the rotation angles of the joint portions 5147a to 5147c are controlled, and the drive of the arm portion 5145 is controlled. Thereby, control of the position and orientation of the endoscope 5115 can be realized.
  • the arm control device 5159 can control the drive of the arm unit 5145 by various known control methods such as force control or position control.
  • the arm control device 5159 appropriately controls the drive of the arm portion 5145 in response to the operation input.
  • the position and orientation of the endoscope 5115 may be controlled.
  • the endoscope 5115 at the tip of the arm portion 5145 can be moved from an arbitrary position to an arbitrary position, and then fixedly supported at the moved position.
  • the arm portion 5145 may be operated by a so-called master slave method. In this case, the arm portion 5145 can be remotely controlled by the user via an input device 5161 installed at a location away from the operating room.
  • the arm control device 5159 When force control is applied, the arm control device 5159 receives an external force from the user and moves the actuators of the joint portions 5147a to 5147c so that the arm portion 5145 moves smoothly according to the external force. So-called power assist control for driving may be performed. As a result, when the user moves the arm portion 5145 while directly touching the arm portion 5145, the arm portion 5145 can be moved with a relatively light force. Therefore, the endoscope 5115 can be moved more intuitively and with a simpler operation, and the convenience of the user can be improved.
  • the endoscope 5115 was supported by a doctor called a scopist.
  • the position of the endoscope 5115 can be fixed more reliably without human intervention, so that an image of the surgical site can be stably obtained. , It becomes possible to perform surgery smoothly.
  • the arm control device 5159 does not necessarily have to be provided on the cart 5151. Further, the arm control device 5159 does not necessarily have to be one device. For example, the arm control device 5159 may be provided at each joint portion 5147a to 5147c of the arm portion 5145 of the support arm device 5141, and a plurality of arm control devices 5159 cooperate with each other to drive the arm portion 5145. Control may be realized.
  • the light source device 5157 supplies the endoscope 5115 with the irradiation light for photographing the surgical site.
  • the light source device 5157 is composed of, for example, an LED, a laser light source, or a white light source composed of a combination thereof.
  • a white light source is configured by combining RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Therefore, the light source device 5157 white balances the captured image. Can be adjusted.
  • the laser light from each of the RGB laser light sources is irradiated to the observation target in a time-division manner, and the drive of the image sensor of the camera head 5119 is controlled in synchronization with the irradiation timing to support each of RGB. It is also possible to capture the image in a time-division manner. According to this method, a color image can be obtained without providing a color filter on the image sensor.
  • the drive of the light source device 5157 may be controlled so as to change the intensity of the output light at predetermined time intervals.
  • the drive of the image sensor of the camera head 5119 in synchronization with the timing of changing the light intensity to acquire an image in a time-division manner and synthesizing the image, so-called high dynamic without blackout and overexposure Range images can be generated.
  • the light source device 5157 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue to irradiate light in a narrow band as compared with the irradiation light (that is, white light) in normal observation, the mucosal surface layer.
  • narrow band imaging in which a predetermined tissue such as a blood vessel is photographed with high contrast, is performed.
  • fluorescence observation in which an image is obtained by fluorescence generated by irradiating with excitation light may be performed.
  • the body tissue is irradiated with excitation light to observe the fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is injected.
  • An excitation light corresponding to the fluorescence wavelength of the reagent may be irradiated to obtain a fluorescence image.
  • the light source device 5157 may be configured to be capable of supplying narrow band light and / or excitation light corresponding to such special light observation.
  • FIG. 23 is a block diagram showing an example of the functional configuration of the camera head 5119 and the CCU 5153 shown in FIG.
  • the camera head 5119 has a lens unit 5121, an imaging unit 5123, a driving unit 5125, a communication unit 5127, and a camera head control unit 5129 as its functions.
  • the CCU 5153 has a communication unit 5173, an image processing unit 5175, and a control unit 5177 as its functions.
  • the camera head 5119 and the CCU 5153 are bidirectionally communicatively connected by a transmission cable 5179.
  • the lens unit 5121 is an optical system provided at a connection portion with the lens barrel 5117.
  • the observation light taken in from the tip of the lens barrel 5117 is guided to the camera head 5119 and incident on the lens unit 5121.
  • the lens unit 5121 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the optical characteristics of the lens unit 5121 are adjusted so as to collect the observation light on the light receiving surface of the image sensor of the image pickup unit 5123.
  • the zoom lens and the focus lens are configured so that their positions on the optical axis can be moved in order to adjust the magnification and the focus of the captured image.
  • the image pickup unit 5123 is composed of an image pickup element and is arranged after the lens unit 5121.
  • the observation light that has passed through the lens unit 5121 is focused on the light receiving surface of the image sensor, and an image signal corresponding to the observation image is generated by photoelectric conversion.
  • the image signal generated by the imaging unit 5123 is provided to the communication unit 5127.
  • CMOS Complementary Metal Oxide Semiconductor
  • image pickup device for example, an image sensor capable of capturing a high resolution image of 4K or higher may be used.
  • the image pickup elements constituting the image pickup unit 5123 are configured to have a pair of image pickup elements for acquiring image signals for the right eye and the left eye corresponding to 3D display, respectively.
  • the 3D display enables the operator 5181 to more accurately grasp the depth of the living tissue in the surgical site.
  • the image pickup unit 5123 is composed of a multi-plate type, a plurality of lens units 5121 are also provided corresponding to each image pickup element.
  • the imaging unit 5123 does not necessarily have to be provided on the camera head 5119.
  • the imaging unit 5123 may be provided inside the lens barrel 5117 immediately after the objective lens.
  • the drive unit 5125 is composed of an actuator, and the zoom lens and focus lens of the lens unit 5121 are moved by a predetermined distance along the optical axis under the control of the camera head control unit 5129. As a result, the magnification and focus of the image captured by the imaging unit 5123 can be adjusted as appropriate.
  • the communication unit 5127 is composed of a communication device for transmitting and receiving various information to and from the CCU 5153.
  • the communication unit 5127 transmits the image signal obtained from the image pickup unit 5123 as RAW data to the CCU 5153 via the transmission cable 5179.
  • the image signal is transmitted by optical communication.
  • the surgeon 5181 performs the surgery while observing the condition of the affected area with the captured image, so for safer and more reliable surgery, the moving image of the surgical site is displayed in real time as much as possible. This is because it is required.
  • the communication unit 5127 is provided with a photoelectric conversion module that converts an electric signal into an optical signal.
  • the image signal is converted into an optical signal by the photoelectric conversion module and then transmitted to the CCU 5153 via the transmission cable 5179.
  • the communication unit 5127 receives a control signal for controlling the drive of the camera head 5119 from the CCU 5153.
  • the control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and / or information to specify the magnification and focus of the captured image. Contains information about the condition.
  • the communication unit 5127 provides the received control signal to the camera head control unit 5129.
  • the control signal from CCU5153 may also be transmitted by optical communication.
  • the communication unit 5127 is provided with a photoelectric conversion module that converts an optical signal into an electric signal, and the control signal is converted into an electric signal by the photoelectric conversion module and then provided to the camera head control unit 5129.
  • imaging conditions such as frame rate, exposure value, magnification, focus, etc. are automatically set by the control unit 5177 of CCU5153 based on the acquired image signal. That is, the so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function are mounted on the endoscope 5115.
  • AE Auto Exposure
  • AF Automatic Focus
  • AWB Automatic White Balance
  • the camera head control unit 5129 controls the drive of the camera head 5119 based on the control signal from the CCU 5153 received via the communication unit 5127. For example, the camera head control unit 5129 controls the drive of the image sensor of the image pickup unit 5123 based on the information to specify the frame rate of the captured image and / or the information to specify the exposure at the time of imaging. Further, for example, the camera head control unit 5129 appropriately moves the zoom lens and the focus lens of the lens unit 5121 via the drive unit 5125 based on the information that the magnification and the focus of the captured image are specified.
  • the camera head control unit 5129 may further have a function of storing information for identifying the lens barrel 5117 and the camera head 5119.
  • the camera head 5119 can be made resistant to autoclave sterilization.
  • the communication unit 5173 is composed of a communication device for transmitting and receiving various information to and from the camera head 5119.
  • the communication unit 5173 receives an image signal transmitted from the camera head 5119 via the transmission cable 5179.
  • the image signal can be suitably transmitted by optical communication.
  • the communication unit 5173 is provided with a photoelectric conversion module that converts an optical signal into an electric signal.
  • the communication unit 5173 provides the image processing unit 5175 with an image signal converted into an electric signal.
  • the communication unit 5173 transmits a control signal for controlling the drive of the camera head 5119 to the camera head 5119.
  • the control signal may also be transmitted by optical communication.
  • the image processing unit 5175 performs various image processing on the image signal which is the RAW data transmitted from the camera head 5119.
  • the image processing includes, for example, development processing, high image quality processing (band enhancement processing, super-resolution processing, NR (Noise reduction) processing and / or camera shake correction processing, etc.), and / or enlargement processing (electronic zoom processing). Etc., various known signal processing is included.
  • the image processing unit 5175 performs detection processing on the image signal for performing AE, AF, and AWB.
  • the image processing unit 5175 is composed of a processor such as a CPU or GPU, and the above-mentioned image processing and detection processing can be performed by operating the processor according to a predetermined program.
  • the image processing unit 5175 is composed of a plurality of GPUs, the image processing unit 5175 appropriately divides the information related to the image signal and performs image processing in parallel by the plurality of GPUs.
  • the control unit 5177 performs various controls related to the imaging of the surgical site by the endoscope 5115 and the display of the captured image. For example, the control unit 5177 generates a control signal for controlling the drive of the camera head 5119. At this time, when the imaging condition is input by the user, the control unit 5177 generates a control signal based on the input by the user. Alternatively, when the endoscope 5115 is equipped with the AE function, the AF function, and the AWB function, the control unit 5177 determines the optimum exposure value, focal length, and the optimum exposure value, depending on the result of the detection processing by the image processing unit 5175. The white balance is calculated appropriately and a control signal is generated.
  • control unit 5177 causes the display device 5155 to display the image of the surgical unit based on the image signal that has been image-processed by the image processing unit 5175.
  • the control unit 5177 recognizes various objects in the surgical site image by using various image recognition techniques. For example, the control unit 5177 detects the shape, color, etc. of the edge of the object included in the surgical site image to detect surgical tools such as forceps, a specific biological part, bleeding, mist when using the energy treatment tool 5135, and the like. Can be recognized.
  • the control unit 5177 uses the recognition result to superimpose and display various surgical support information on the image of the surgical site. By superimposing the operation support information and presenting it to the operator 5181, it becomes possible to proceed with the operation more safely and surely.
  • the transmission cable 5179 that connects the camera head 5119 and the CCU 5153 is an electric signal cable that supports electric signal communication, an optical fiber that supports optical communication, or a composite cable thereof.
  • the communication is performed by wire using the transmission cable 5179, but the communication between the camera head 5119 and the CCU 5153 may be performed wirelessly.
  • the communication between the two is performed wirelessly, it is not necessary to lay the transmission cable 5179 in the operating room, so that the situation where the movement of the medical staff in the operating room is hindered by the transmission cable 5179 can be solved.
  • the example of the operating room system 5100 to which the technology according to the present disclosure can be applied has been described above.
  • the medical system to which the operating room system 5100 is applied is the endoscopic surgery system 5113
  • the configuration of the operating room system 5100 is not limited to such an example.
  • the operating room system 5100 may be applied to an examination flexible endoscopic system or a microsurgery system instead of the endoscopic surgery system 5113.
  • the technique according to the present disclosure is suitably applied to the endoscope 5115, the CCU 5153, the display device 5155, and the like among the configurations described above.
  • the image sensor mounted on the endoscope 5115 functions as the image sensor 11 described with reference to FIG.
  • the image processing unit 5175 of the CCU 5153 functions as the video processing unit 13 described with reference to FIG.
  • the display device 5155 becomes the display device 15 described with reference to FIG.
  • the technique according to the present disclosure may be applied to a microsurgery system used for so-called microsurgery, which is performed while magnifying and observing a minute part of a patient.
  • FIG. 24 is a diagram showing an example of a schematic configuration of a microscopic surgery system 5300 to which the technique according to the present disclosure can be applied.
  • the microsurgery system 5300 is composed of a microscope device 5301, a control device 5317, and a display device 5319.
  • the “user” means an operator, an assistant, or any other medical staff who uses the microsurgery system 5300.
  • the microscope device 5301 includes a microscope unit 5303 for magnifying and observing an observation target (patient's surgical part), an arm part 5309 that supports the microscope part 5303 at the tip, and a base part 5315 that supports the base end of the arm part 5309. , Have.
  • the microscope unit 5303 includes a substantially cylindrical tubular portion 5305, an imaging unit (not shown) provided inside the tubular portion 5305, and an operation unit 5307 provided in a part of the outer periphery of the tubular portion 5305. And consists of.
  • the microscope unit 5303 is an electronic imaging type microscope unit (so-called video type microscope unit) that electronically captures an captured image by the imaging unit.
  • a cover glass is provided on the opening surface at the lower end of the tubular portion 5305 to protect the internal imaging portion.
  • the light from the observation target (hereinafter, also referred to as observation light) passes through the cover glass and is incident on the image pickup portion inside the tubular portion 5305.
  • a light source made of, for example, an LED (Light Emitting Diode) may be provided inside the tubular portion 5305, and at the time of imaging, light is emitted from the light source to the observation target through the cover glass. You may.
  • the image pickup unit is composed of an optical system that collects the observation light and an image sensor that receives the observation light collected by the optical system.
  • the optical system is configured by combining a plurality of lenses including a zoom lens and a focus lens, and its optical characteristics are adjusted so as to form an image of observation light on a light receiving surface of an image sensor.
  • the image sensor receives the observation light and performs photoelectric conversion to generate a signal corresponding to the observation light, that is, an image signal corresponding to the observation image.
  • the image pickup device for example, an image pickup device having a Bayer array and capable of color photographing is used.
  • the image sensor may be various known image sensors such as a CMOS (Complementary Metal Oxide Semiconductor) image sensor or a CCD (Charge Coupled Device) image sensor.
  • the image signal generated by the image sensor is transmitted to the control device 5317 as RAW data.
  • the transmission of this image signal may be preferably performed by optical communication.
  • the surgeon performs the surgery while observing the condition of the affected area with the captured image, so for safer and more reliable surgery, it is required that the moving image of the surgical site be displayed in real time as much as possible. Because it is done.
  • By transmitting the image signal by optical communication it is possible to display the captured image with low latency.
  • the imaging unit may have a drive mechanism for moving the zoom lens and the focus lens of the optical system along the optical axis. By appropriately moving the zoom lens and the focus lens by the drive mechanism, the magnification of the captured image and the focal length at the time of imaging can be adjusted. Further, the imaging unit may be equipped with various functions that can be generally provided in an electronic imaging type microscope unit, such as an AE (Auto Exposure) function and an AF (Auto Focus) function.
  • AE Auto Exposure
  • AF Auto Focus
  • the image pickup unit may be configured as a so-called single-plate type image pickup unit having one image pickup element, or may be configured as a so-called multi-plate type image pickup unit having a plurality of image pickup elements.
  • each image pickup element may generate an image signal corresponding to each of RGB, and a color image may be obtained by synthesizing them.
  • the image pickup unit may be configured to have a pair of image pickup elements for acquiring image signals for the right eye and the left eye corresponding to stereoscopic vision (3D display), respectively.
  • the 3D display enables the operator to more accurately grasp the depth of the living tissue in the surgical site.
  • a plurality of optical systems may be provided corresponding to each image pickup element.
  • the operation unit 5307 is composed of, for example, a cross lever or a switch, and is an input means for receiving a user's operation input.
  • the user can input an instruction to change the magnification of the observation image and the focal length to the observation target via the operation unit 5307.
  • the magnification and focal length can be adjusted by appropriately moving the zoom lens and the focus lens by the drive mechanism of the imaging unit according to the instruction.
  • the user can input an instruction to switch the operation mode (all-free mode and fixed mode described later) of the arm unit 5309 via the operation unit 5307.
  • the operation mode all-free mode and fixed mode described later
  • the operation unit 5307 may be provided at a position where the user can easily operate the tubular portion 5305 with a finger while holding the tubular portion 5305 so that the operation unit 5307 can be operated even while the user is moving the tubular portion 5305. preferable.
  • the arm portion 5309 is configured by connecting a plurality of links (first link 5313a to sixth link 5313f) rotatably to each other by a plurality of joint portions (first joint portion 5311a to sixth joint portion 5311f). Will be done.
  • the first joint portion 5311a has a substantially cylindrical shape, and at the tip (lower end) thereof, the upper end of the tubular portion 5305 of the microscope portion 5303 is a rotation axis (first axis) parallel to the central axis of the tubular portion 5305. O1) Support it so that it can rotate around.
  • the first joint portion 5311a may be configured such that the first axis O1 coincides with the optical axis of the imaging portion of the microscope unit 5303. This makes it possible to change the field of view so as to rotate the captured image by rotating the microscope unit 5303 around the first axis O1.
  • the first link 5313a fixedly supports the first joint portion 5311a at the tip.
  • the first link 5313a is a rod-shaped member having a substantially L-shape, and one side of the tip side extends in a direction orthogonal to the first axis O1, and the end of the one side is the first joint. It is connected to the first joint portion 5311a so as to abut the upper end portion of the outer periphery of the portion 5311a.
  • the second joint portion 5311b is connected to the other end of the first link 5313a on the base end side of the substantially L-shape.
  • the second joint portion 5311b has a substantially cylindrical shape, and its tip rotatably supports the base end of the first link 5313a around a rotation axis (second axis O2) orthogonal to the first axis O1. ..
  • the tip of the second link 5313b is fixedly connected to the base end of the second joint portion 5311b.
  • the second link 5313b is a rod-shaped member having a substantially L-shape, and one side of the tip side extends in a direction orthogonal to the second axis O2, and the end of the one side is the base of the second joint portion 5311b. Fixedly connected to the end.
  • the third joint portion 5311c is connected to the other side of the second link 5313b on the base end side of the substantially L-shape.
  • the third joint portion 5311c has a substantially cylindrical shape, and at its tip, the base end of the second link 5313b is placed around a rotation axis (third axis O3) orthogonal to the first axis O1 and the second axis O2. Supports rotatably.
  • the tip of the third link 5313c is fixedly connected to the base end of the third joint portion 5311c.
  • the third link 5313c is configured so that its tip side has a substantially cylindrical shape, and the base end of the third joint portion 5311c has substantially the same central axis at the tip of the cylindrical shape. It is fixedly connected.
  • the base end side of the third link 5313c has a prismatic shape, and the fourth joint portion 5311d is connected to the end portion thereof.
  • the fourth joint portion 5311d has a substantially cylindrical shape, and at its tip, the base end of the third link 5313c is rotatably supported around a rotation axis (fourth axis O4) orthogonal to the third axis O3. ..
  • the tip of the fourth link 5313d is fixedly connected to the base end of the fourth joint portion 5311d.
  • the fourth link 5313d is a rod-shaped member that extends substantially linearly, and while extending so as to be orthogonal to the fourth axis O4, the end of the tip thereof hits the side surface of the fourth joint portion 5311d in a substantially cylindrical shape. It is fixedly connected to the fourth joint portion 5311d so as to be in contact with it. A fifth joint portion 5311e is connected to the base end of the fourth link 5313d.
  • the fifth joint portion 5311e has a substantially cylindrical shape, and the base end of the fourth link 5313d is rotatably supported around a rotation axis (fifth axis O5) parallel to the fourth axis O4 on the tip end side thereof. To do.
  • the tip of the fifth link 5313e is fixedly connected to the base end of the fifth joint portion 5311e.
  • the fourth axis O4 and the fifth axis O5 are rotation axes capable of moving the microscope unit 5303 in the vertical direction.
  • the height of the microscope unit 5303 that is, the distance between the microscope unit 5303 and the observation target can be adjusted by rotating the configuration on the tip side including the microscope unit 5303 around the fourth axis O4 and the fifth axis O5. ..
  • the fifth link 5313e has a first member having a substantially L-shape in which one side extends in the vertical direction and the other side extends in the horizontal direction, and the first member extends vertically downward from a portion extending in the horizontal direction. It is configured by combining with a rod-shaped second member to be stretched.
  • the base end of the fifth joint portion 5311e is fixedly connected to the vicinity of the upper end of the portion extending in the vertical direction of the first member of the fifth link 5313e.
  • the sixth joint portion 5311f is connected to the base end (lower end) of the second member of the fifth link 5313e.
  • the sixth joint portion 5311f has a substantially cylindrical shape, and on the tip end side thereof, the base end of the fifth link 5313e is rotatably supported around a rotation axis (sixth axis O6) parallel to the vertical direction.
  • the tip of the sixth link 5313f is fixedly connected to the base end of the sixth joint portion 5311f.
  • the sixth link 5313f is a rod-shaped member extending in the vertical direction, and its base end is fixedly connected to the upper surface of the base portion 5315.
  • the rotatable range of the first joint portion 5311a to the sixth joint portion 5311f is appropriately set so that the microscope unit 5303 can perform a desired movement.
  • the arm unit 5309 having the configuration described above a total of 6 degrees of freedom of translation 3 degrees of freedom and rotation 3 degrees of freedom can be realized with respect to the movement of the microscope unit 5303.
  • the position and posture of the microscope unit 5303 can be freely controlled within the movable range of the arm unit 5309. It will be possible. Therefore, the surgical site can be observed from all angles, and the surgery can be performed more smoothly.
  • the configuration of the arm portion 5309 shown in the figure is merely an example, and the number and shape (length) of the links constituting the arm portion 5309, the number of joints, the arrangement position, the direction of the rotation axis, and the like are freely desired. It may be appropriately designed so that the degree can be realized.
  • the arm unit 5309 in order to move the microscope unit 5303 freely, the arm unit 5309 is preferably configured to have 6 degrees of freedom, but the arm unit 5309 has a larger degree of freedom (ie, redundant freedom). It may be configured to have degrees of freedom.
  • the arm portion 5309 can change the posture of the arm portion 5309 while the position and posture of the microscope unit 5303 are fixed. Therefore, more convenient control for the operator can be realized, for example, by controlling the posture of the arm portion 5309 so that the arm portion 5309 does not interfere with the field of view of the operator looking at the display device 5319.
  • the first joint portion 5311a to the sixth joint portion 5311f may be provided with an actuator equipped with a drive mechanism such as a motor and an encoder or the like for detecting the rotation angle at each joint portion.
  • the posture of the arm portion 5309 that is, the position and posture of the microscope portion 5303 can be controlled by appropriately controlling the drive of each actuator provided in the first joint portion 5311a to the sixth joint portion 5311f by the control device 5317. ..
  • the control device 5317 grasps the current posture of the arm portion 5309 and the current position and posture of the microscope portion 5303 based on the information about the rotation angle of each joint portion detected by the encoder. Can be done.
  • the control device 5317 uses the grasped information to calculate a control value (for example, rotation angle or generated torque) for each joint that realizes the movement of the microscope unit 5303 in response to an operation input from the user. Then, the drive mechanism of each joint is driven according to the control value.
  • a control value for example, rotation angle or generated torque
  • the control method of the arm unit 5309 by the control device 5317 is not limited, and various known control methods such as force control or position control may be applied.
  • the control device 5317 appropriately controls the drive of the arm unit 5309 according to the operation input, and controls the position and posture of the microscope unit 5303. May be done.
  • the microscope unit 5303 can be moved from an arbitrary position to an arbitrary position, and then fixedly supported at the moved position.
  • an input device such as a foot switch that can be operated even if the operator holds the surgical tool in his hand.
  • the operation input may be performed in a non-contact manner based on the gesture detection or the line-of-sight detection using a wearable device or a camera provided in the operating room.
  • the arm portion 5309 may be operated by a so-called master slave method.
  • the arm portion 5309 can be remotely controlled by the user via an input device installed at a location away from the operating room.
  • the actuators of the first joint portion 5311a to the sixth joint portion 5311f are driven so as to receive an external force from the user and smoothly move the arm portion 5309 according to the external force.
  • So-called power assist control may be performed.
  • the drive of the arm portion 5309 may be controlled so as to perform a pivot operation.
  • the pivot operation is an operation of moving the microscope unit 5303 so that the optical axis of the microscope unit 5303 always faces a predetermined point in space (hereinafter, referred to as a pivot point). According to the pivot operation, the same observation position can be observed from various directions, so that the affected part can be observed in more detail.
  • the microscope unit 5303 is configured so that its focal length cannot be adjusted, it is preferable that the pivot operation is performed with the distance between the microscope unit 5303 and the pivot point fixed. In this case, the distance between the microscope unit 5303 and the pivot point may be adjusted to a fixed focal length of the microscope unit 5303.
  • the microscope unit 5303 moves on a hemisphere (schematically illustrated in FIG. 24) having a radius corresponding to the focal length centered on the pivot point, and is clear even if the observation direction is changed. An captured image will be obtained.
  • the pivot operation may be performed in a state where the distance between the microscope unit 5303 and the pivot point is variable.
  • the control device 5317 calculates the distance between the microscope unit 5303 and the pivot point based on the information about the rotation angle of each joint portion detected by the encoder, and the microscope is based on the calculation result.
  • the focal length of unit 5303 may be automatically adjusted.
  • the microscope unit 5303 is provided with an AF function, the focal length may be automatically adjusted by the AF function each time the distance between the microscope unit 5303 and the pivot point changes due to the pivot operation. ..
  • first joint portion 5311a to the sixth joint portion 5311f may be provided with a brake for restraining the rotation thereof.
  • the operation of the brake can be controlled by the control device 5317.
  • the control device 5317 activates the brake of each joint portion.
  • the posture of the arm portion 5309 that is, the position and posture of the microscope portion 5303 can be fixed without driving the actuator, so that the power consumption can be reduced.
  • the control device 5317 may release the brake of each joint unit and drive the actuator according to a predetermined control method.
  • Such a brake operation can be performed in response to an operation input by the user via the operation unit 5307 described above.
  • the operation unit 5307 When the user wants to move the position and posture of the microscope unit 5303, he / she operates the operation unit 5307 to release the brake of each joint portion.
  • the operation mode of the arm portion 5309 shifts to a mode in which rotation in each joint portion can be freely performed (all-free mode).
  • the operation mode of the arm portion 5309 shifts to the mode in which the rotation of each joint portion is restricted (fixed mode).
  • the control device 5317 comprehensively controls the operation of the microscope surgery system 5300 by controlling the operations of the microscope device 5301 and the display device 5319.
  • the control device 5317 controls the drive of the arm portion 5309 by operating the actuators of the first joint portion 5311a to the sixth joint portion 5311f according to a predetermined control method.
  • the control device 5317 changes the operation mode of the arm portion 5309 by controlling the operation of the brakes of the first joint portion 5311a to the sixth joint portion 5311f.
  • the control device 5317 generates image data for display by performing various signal processing on the image signal acquired by the imaging unit of the microscope unit 5303 of the microscope device 5301, and displays the image data. Displayed on the device 5319.
  • the signal processing for example, development processing (demosaic processing), high image quality processing (band enhancement processing, super-resolution processing, NR (Noise reduction) processing and / or camera shake correction processing, etc.) and / or enlargement processing (that is, Various known signal processing such as electronic zoom processing) may be performed.
  • the communication between the control device 5317 and the microscope unit 5303 and the communication between the control device 5317 and the first joint portion 5311a to the sixth joint portion 5311f may be wired communication or wireless communication.
  • wired communication communication by an electric signal may be performed, or optical communication may be performed.
  • the transmission cable used for the wired communication may be configured as an electric signal cable, an optical fiber, or a composite cable thereof depending on the communication method.
  • wireless communication since it is not necessary to lay a transmission cable in the operating room, it is possible to eliminate the situation where the transmission cable hinders the movement of the medical staff in the operating room.
  • the control device 5317 may be a processor such as a CPU (Central Processing Unit) or GPU (Graphics Processing Unit), or a microcomputer or a control board on which a processor and a storage element such as a memory are mixedly mounted.
  • the various functions described above can be realized by operating the processor of the control device 5317 according to a predetermined program.
  • the control device 5317 is provided as a device separate from the microscope device 5301, but the control device 5317 is installed inside the base portion 5315 of the microscope device 5301 and is integrated with the microscope device 5301. It may be configured in.
  • the control device 5317 may be composed of a plurality of devices.
  • a microcomputer and a control board are arranged in the microscope unit 5303 and the first joint portion 5311a to the sixth joint portion 5311f of the arm portion 5309, respectively, and these are connected to each other so as to be communicable with the control device 5317. Similar functionality may be realized.
  • the display device 5319 is provided in the operating room and displays an image corresponding to the image data generated by the control device 5317 under the control of the control device 5317. That is, the display device 5319 displays an image of the surgical site taken by the microscope unit 5303.
  • the display device 5319 may display various information related to the surgery, such as physical information of the patient and information about the surgical procedure, in place of the image of the surgical site or together with the image of the surgical site. In this case, the display of the display device 5319 may be appropriately switched by an operation by the user.
  • a plurality of display devices 5319 may be provided, and each of the plurality of display devices 5319 may display an image of the surgical site and various information related to the surgery.
  • various known display devices such as a liquid crystal display device or an EL (Electro Luminescence) display device may be applied.
  • FIG. 25 is a diagram showing a state of surgery using the microscopic surgery system 5300 shown in FIG. 24.
  • FIG. 25 schematically shows a surgeon 5321 performing surgery on a patient 5325 on a patient bed 5323 using the microsurgery system 5300.
  • the control device 5317 is not shown in the configuration of the microscope surgery system 5300, and the microscope device 5301 is shown in a simplified manner.
  • the image of the surgical site taken by the microscope device 5301 is enlarged and displayed on the display device 5319 installed on the wall surface of the operating room by using the microscope surgery system 5300.
  • the display device 5319 is installed at a position facing the operator 5321, and the operator 5321 observes the state of the operation site by the image projected on the display device 5319, for example, excision of the affected area, etc.
  • Various measures are taken against.
  • the microscopic surgery system 5300 to which the technique according to the present disclosure can be applied has been described above.
  • the microscope device 5301 can also function as a support arm device that supports another observation device or other surgical instrument at its tip instead of the microscope unit 5303.
  • an endoscope can be applied.
  • forceps, a forceps, a pneumoperitoneum tube for pneumoperitoneum, an energy treatment tool for incising a tissue or sealing a blood vessel by ablation, or the like can be applied.
  • the technique according to the present disclosure may be applied to a support arm device that supports a configuration other than such a microscope unit.
  • the technique according to the present disclosure is suitably applied to the microscope unit 5303, the control device 5317, the display device 5319, and the like among the configurations described above.
  • the image sensor mounted on the microscope unit 5303 functions as the image sensor 11 described with reference to FIG.
  • the control device 5317 functions as the video processing unit 13 described with reference to FIG.
  • the display device 5319 becomes the display device 15 described with reference to FIG.
  • An image generation unit that generates an captured image of a subject and An edge detection unit that detects an edge portion included in the generated captured image, An imaging device including a color control unit that controls a highlighting color that emphasizes the edge portion based on color information about the edge portion in the captured image for each detected edge portion.
  • the imaging device according to (1) The imaging device that controls the highlighting color so that the color difference between the edge color represented by the color information about the edge portion and the highlighting color becomes large.
  • the color control unit is an imaging device that controls the highlighting color so that the edge color and the highlighting color are separated from each other in the hue plane or the luminance direction.
  • the color control unit is an imaging device that sets the highlighting color from a plurality of color candidates.
  • the plurality of color candidates include chromatic color candidates.
  • the color control unit is an imaging device that sets a color candidate having a hue farthest from the hue of the edge color among the plurality of color candidates as the highlighting color.
  • the plurality of color candidates are an image pickup apparatus including a first color candidate and a second color candidate having a hue different from that of the first color candidate.
  • the imaging device according to (6). An imaging device in which the first and second color candidates are set to complement each other.
  • the plurality of color candidates include achromatic color candidates.
  • the color control unit is an imaging device that sets a color candidate having a brightness farthest from the brightness of the edge color among the plurality of color candidates as the highlighting color.
  • the plurality of color candidates include black and white.
  • the color control unit sets the highlighting color to black when the brightness of the edge color is larger than a predetermined threshold, and the highlighting when the brightness of the edge color is smaller than the predetermined threshold.
  • An image pickup device that sets the color of the image to the white color.
  • the plurality of color candidates are image pickup devices set by the user.
  • the plurality of color candidates are image pickup devices set according to the subject.
  • the imaging device according to any one of (2) to (11).
  • the edge detection unit detects the pixel position of the edge portion and
  • the color control unit is an imaging device that sets the highlighting color for each of the detected pixel positions.
  • the color information regarding the edge portion includes the pixel information of the reference pixel included in the predetermined pixel region surrounding the pixel position of the edge portion.
  • the color control unit is an imaging device that calculates the hue of the edge color or the brightness of the edge color based on the pixel information of the reference pixel.
  • the color control unit is an imaging device that calculates the average hue of the reference pixel as the hue of the edge color.
  • the predetermined pixel region is an imaging device set according to the subject.
  • the color control unit is an imaging device that generates a peaking image in which the edge portion of the captured image is highlighted with the highlighting color.
  • the peaking image is an imaging device in which the color of a portion different from the edge portion is set to the same color as the captured image.
  • the color control unit is an imaging device that controls the color of the highlighting so that the display of the edge portion of the peaking image changes dynamically.

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Surgery (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

本技術の一形態に係る撮像装置は、画像生成部と、エッジ検出部と、色制御部とを具備する。前記画像生成部は、被写体を撮像した撮像画像を生成する。前記エッジ検出部は、前記生成された撮像画像に含まれるエッジ部分を検出する。前記色制御部は、前記検出されたエッジ部分ごとに、前記撮像画像における前記エッジ部分に関する色情報に基づいて、前記エッジ部分を強調する強調表示の色を制御する。

Description

撮像装置、撮像方法、及びプログラム
 本技術は、被写体を撮像する撮像装置、撮像方法、及びプログラムに関する。
 従来、被写体を撮像する際のフォーカス操作を支援する技術が開発されている。例えば、フォーカスが合っている部分では、像が鮮明になり被写体の輪郭(エッジ)を検出することが可能である。このような検出結果を用いて、フォーカス状態を表す画像等が生成される。
 特許文献1には、映像信号から抽出された輪郭強調信号を用いて、画像の輪郭部分を強調する映像信号処理装置が記載されている。この映像信号処理装置では、ジャストフォーカスに近くなるほどレベルが高くなる輪郭強調信号が生成される。例えば輪郭強調信号は、そのレベルに応じて色差信号に加算される。このため、ピントが合っていない状態からジャストフォーカスに近くなると、輪郭の色が濃くなる。これにより、フォーカス状態の変化を視覚的に把握することが可能となっている(特許文献1の明細書段落[0020][0045][0068][0081]図1、8等)。
特開2010-135865号公報
 フォーカスが合っているエッジ部分を視覚的に強調して表示することで、フォーカス操作をスムーズに行うことが可能であり、このような強調表示の視認性を向上することが可能な技術が求められている。
 以上のような事情に鑑み、本技術の目的は、エッジ部分の強調表示の視認性を向上することが可能な撮像装置、撮像方法、及びプログラムを提供することにある。
 上記目的を達成するため、本技術の一形態に係る撮像装置は、画像生成部と、エッジ検出部と、色制御部とを具備する。
 前記画像生成部は、被写体を撮像した撮像画像を生成する。
 前記エッジ検出部は、前記生成された撮像画像に含まれるエッジ部分を検出する。
 前記色制御部は、前記検出されたエッジ部分ごとに、前記撮像画像における前記エッジ部分に関する色情報に基づいて、前記エッジ部分を強調する強調表示の色を制御する。
 この撮像装置では、被写体の撮像画像が生成され、撮像画像に含まれるエッジ部分が検出される。また検出されたエッジ部分ごとに、撮像画像でのエッジ部分に関する色情報を用いて、エッジ部分を強調する強調表示の色が制御される。これにより、エッジ部分の強調表示の視認性を向上することが可能となる。
 前記色制御部は、前記エッジ部分に関する色情報により表されるエッジ色と、前記強調表示の色との色の差が大きくなるように、前記強調表示の色を制御してもよい。
 前記色制御部は、前記エッジ色と、前記強調表示の色とが、色相面又は輝度方向において離れた色となるように、前記強調表示の色を制御してもよい。
 前記色制御部は、前記強調表示の色を複数の色候補から設定してもよい。
 前記複数の色候補は、有彩色の色候補を含んでもよい。この場合、前記色制御部は、前記複数の色候補のうち、前記エッジ色の色相から最も離れた色相を有する色候補を前記強調表示の色に設定してもよい。
 前記複数の色候補は、第1の色候補と、前記第1の色候補とは色相の異なる第2の色候補とを含んでもよい。
 前記第1及び前記第2の色候補は、互いに補色となるように設定されてもよい。
 前記複数の色候補は、無彩色の色候補を含んでもよい。この場合、前記色制御部は、前記複数の色候補のうち、前記エッジ色の輝度から最も離れた輝度を有する色候補を前記強調表示の色に設定してもよい。
 前記複数の色候補は、黒色と白色とを含んでもよい。前記色制御部は、前記エッジ色の輝度が所定の閾値よりも大きい場合に前記強調表示の色を前記黒色に設定し、前記エッジ色の輝度が前記所定の閾値よりも小さい場合に前記強調表示の色を前記白色に設定してもよい。
 前記複数の色候補は、ユーザにより設定されてもよい。
 前記複数の色候補は、前記被写体に応じて設定されてもよい。
 前記エッジ検出部は、前記エッジ部分の画素位置を検出てもよい。この場合、前記色制御部は、前記検出された画素位置ごとに前記強調表示の色を設定してもよい。
 前記エッジ部分に関する色情報は、前記エッジ部分の画素位置を囲む所定の画素領域に含まれる参照画素の画素情報を含んでもよい。
 前記色制御部は、前記参照画素の画素情報に基づいて、前記エッジ色の色相又は前記エッジ色の輝度を算出してもよい。
 前記色制御部は、前記エッジ色の色相として、前記参照画素の平均色相を算出してもよい。
 前記所定の画素領域は、前記被写体に応じて設定されてもよい。
 前記色制御部は、前記撮像画像の前記エッジ部分が前記強調表示の色で強調されたピーキング画像を生成してもよい。
 前記ピーキング画像は、前記エッジ部分とは異なる部分の色が、前記撮像画像と同じ色に設定されてもよい。
 前記色制御部は、前記ピーキング画像の前記エッジ部分の表示が動的に変化するように、前記強調表示の色を制御してもよい。
 本技術の一形態に係る撮像方法は、コンピュータシステムにより実行される撮像方法であって、被写体を撮像した撮像画像を生成することを含む。
 前記生成された撮像画像に含まれるエッジ部分が検出される。
 前記検出されたエッジ部分ごとに、前記撮像画像における前記エッジ部分に関する色情報に基づいて、前記エッジ部分を強調する強調表示の色が制御される。
 本技術の一形態に係るプログラムは、コンピュータシステムに以下のステップを実行させる。
 被写体を撮像した撮像画像を生成するステップ。
 前記生成された撮像画像に含まれるエッジ部分を検出するステップ。
 前記検出されたエッジ部分ごとに、前記撮像画像における前記エッジ部分に関する色情報に基づいて、前記エッジ部分を強調する強調表示の色を制御するステップ。
本技術の一実施形態に係る撮像装置の構成例を示す模式図である。 被写体のエッジ部分が強調されたピーキング画像の一例である。 色相環を説明するための模式図である。 カラーの重畳色を用いたピーキング表示の一例を示すフローチャートである。 元画像の一例として挙げる色相環の画像である。 図5に示す元画像から検出されたエッジ部分を示す画像である。 エッジ画素の周辺の画素配置の一例を示す模式図である。 図6に示すエッジ部分の平均色相の一例を示す模式図である。 カラーの重畳色によるピーキング表示の一例を示す模式図である。 比較例として挙げるピーキング表示の一例を示す模式図である。 白黒の重畳色を用いたピーキング表示の一例を示すフローチャートである。 元画像の一例として挙げるストライプパターンの画像である。 図12に示す元画像から検出されたエッジ部分を示す画像である。 図13に示すエッジ部分の元画像における輝度の一例を示す模式図である。 白黒の重畳色によるピーキング表示の一例を示す模式図である。 比較例として挙げるピーキング画像である。 ピーキング表示の適用例について説明するための模式図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 図18に示すカメラヘッド及びCCUの機能構成の一例を示すブロック図である。 手術室システムの全体構成を概略的に示す図である。 集中操作パネルにおける操作画面の表示例を示す図である。 手術室システムが適用された手術の様子の一例を示す図である。 図22に示すカメラヘッド及びCCUの機能構成の一例を示すブロック図である。 顕微鏡手術システムの概略的な構成の一例を示す図である。 図24に示す顕微鏡手術システムを用いた手術の様子を示す図である。
 以下、本技術に係る実施形態を、図面を参照しながら説明する。
 [撮像装置の構成]
 図1は、本技術の一実施形態に係る撮像装置の構成例を示す模式図である。撮像装置100は、被写体を撮像するカメラ装置(カメラシステム)である。撮像装置100は、例えばビデオカメラやデジタルスチルカメラ等として構成される。
 撮像装置100は、撮像光学系10と、イメージセンサ11と、カメラコントローラ12と、映像処理部13と、記録部14と、表示装置15と、ユーザ操作部16とを有する。なお、記録部14及び表示装置15は、撮像装置100の外部に設けられてもよい。
 撮像光学系10は、レンズ部21と、レンズ制御部22とを有する。レンズ部21は、例えば鏡筒内に配置された複数のレンズで構成された光学系であり、鏡筒に入射する光を後述するイメージセンサ11の受光面に集光する。レンズ部21の具体的な構成は限定されず、例えば被写体の種類や撮像装置100の用途等に応じたレンズが適宜用いられてよい。
 レンズ制御部22は、レンズ部21の光学特性(フォーカス、倍率、絞り等)を調整するための操作機構である。レンズ制御部22は、例えばマニュアルフォーカスに対応するように構成される。レンズ制御部22を操作することで、例えば複数のレンズの位置が変更され、フォーカスを調整する操作(フォーカス操作)が可能となる。レンズ制御部22の具体的な構成は限定されず、例えばレンズ位置等を電子制御により調整する機構等が用いられてもよい。
 イメージセンサ11は、受光面に入射した光を受光する撮像素子である。イメージセンサ11は、受光面をレンズ部21に向けて配置され、レンズ部21を通過した被写体光23を受光して画像データを生成する。画像データは、例えば所定のフレームレートで順次生成される。イメージセンサ11としては、例えばCCD(Charge Coupled Device)センサやCMOS(Complementary Metal-Oxide Semiconductor)センサ等の撮像素子が用いられる。
 画像データは、被写体を撮像した撮像画像を構成するデータである。本開示において、撮像画像を構成する画像データを生成することは、撮像画像を生成することに相当する。画像データは、撮像画像を構成する複数の画素を表すための画素データを含む。これらの画素データは、例えばデジタル信号(画素信号)として伝送される。従って、画像データは、複数の画素信号の集合(画像信号)として生成されるとも言える。本実施形態では、画素データは、画素情報に相当する。
 各画素データには、例えば、被写体光23に含まれる赤色光、緑色光、青色光の強度を示すRGBデータが含まれる。なおRGBデータは、例えば輝度Yと、赤色色差Crと、青色色差Cbとで色を表すYCrCbデータ等に一意に変換することが可能である。このように輝度及び色差により色を表す画像データを生成する構成等が用いられてもよい。この他、画像データの形式や種類等は限定されない。
 カメラコントローラ12は、撮像装置100の各部の動作を制御する演算ユニットであり、例えばCPUやメモリ(RAM、ROM)等のコンピュータに必要な構成を有する。カメラコントローラ12は、例えば、後述するユーザ操作部16を介して入力されたパラメータ等に基づいて、イメージセンサ11や映像処理部13の動作を制御する。この他、レンズ制御部22の電子制御や、表示装置15の動作制御等が行われてもよい。
 映像処理部13は、イメージセンサ11により所定のフレームレートで生成される画像データ(映像データ)に対して各種の処理を施す演算ユニットである。映像処理部13は、例えば各種の演算処理を行うための設定を記録するレジスタ(メモリ)等を有する。このレジスタを書き変えて所定のプログラムを実装することで、所望のデジタル信号処理を実行することが可能となる。
 映像処理部13は、例えばイメージングプロセッサ等の映像処理用のIC(Integrated Circuit)を用いて構成される。なお、上記したカメラコントローラ12は、映像処理部13とともにイメージングプロッセサ上に構成されてもよい。例えば、本実施形態に係るプログラムを、カメラコントローラ12のRAM及び映像処理部13のレジスタにインストールして実行することで、撮像装置100の各部により、本実施形態に係る撮像方法が実行される。
 図1に示すように、映像処理部13は、カメラ信号処理部30と、ピーキング検出部31と、重畳色設定部32と、重畳色選択部33と、合成部34とを有する。これらの各ブロックは、例えばイメージングプロッセサ内に構成される。また、各ブロックがFPGA(Field Programmable Gate Array)等のPLD(Programmable Logic Device)や、その他ASIC(Application Specific Integrated Circuit)等の専用デバイスを用いて構成されてもよい。
 カメラ信号処理部30は、イメージセンサ11により生成された画像データに対して補正処理や変換処理等を実行する。すなわち、カメラ信号処理部30は、各種の処理が施された画像データ(撮像画像)を生成するとも言える。
 カメラ信号処理部30では、例えば明るさ補正(シェーディング補正)等の撮像系補正、各画素データ(画素信号)のゲイン補正、モニタガンマに対応させるためのガンマ補正、各補正により変更された信号レベルを規格化する規格化補正(ニー補正)等の補正処理が実行される。これらの補正処理は、例えば撮像画像が適正に生成されるように、順次実行される。またカメラ信号処理部30により、RGBデータをYCrCbデータ等に変換する変換処理等が実行されてもよい。この他、画像データに対する各処理の種類等は限定されない。
 このように、撮像装置100では、イメージセンサ11及びカメラ信号処理部30により、被写体を撮像した撮像画像が生成される。本実施形態では、イメージセンサ11及びカメラ信号処理部30は、画像生成部として機能する。
 カメラ信号処理部30により、各処理が施された画像データは、例えば記録部に記録されるデータ、あるいは放送等に用いられるデータとして、撮像装置100の本線に出力される。また、図1に示すように、撮像装置100では、カメラ信号処理部30により出力された画像データを元に、映像処理部13の他の各部の処理が実行される。以下では、カメラ信号処理部30から出力される画像データを元画像データと記載し、撮像画像データにより構成される画像を元画像と記載する。
 ピーキング検出部31は、元画像においてピーキング表示の対象となる部分を検出する。ピーキング表示とは、画像内のフォーカスが合った部分を着色する強調表示である。具体的には、ピーキング検出部31は、イメージセンサ11及びカメラ信号処理部30により生成された元画像(撮像画像)に含まれるエッジ部分を検出する。本実施形態では、ピーキング検出部31は、エッジ検出部に相当する。
 例えば元画像に含まれる画素ごとに、ハイパスフィルタ処理を施し、高い周波数帯の成分を抽出する。より詳しくは、元画像データ(画素信号)がハイパスフィルタに入力され、高周波成分を含む画素の位置を表すエッジ検出データが生成される。この高周波成分を含む画素が、エッジ部分として検出される。このようにピーキング検出部は、エッジ部分の画素位置を検出する。これにより、エッジ部分の各位置を高精度に指定することが可能となる。なお、エッジ部分を検出する方法は限定されず、任意のエッジ検出処理が用いられてよい。
 重畳色設定部32は、ピーキング検出部31により検出されたエッジ部分ごとに、元画像におけるエッジ部分に関する色情報に基づいて、エッジ部分を強調する強調表示の色を制御する。すなわち、重畳色設定部32は、元画像も加味して各エッジ部分の強調表示の色(元画像に対する重畳色)を設定する。以下では強調表示の色を、重畳色と記載する場合がある。
 エッジ部分に関する色情報とは、元画像でのエッジ部分の色や、そのエッジ部分の周辺の色を表す情報である。色情報としては、典型的には元画像の画素データに含まれる情報が用いられる。例えば元画像の各画素の、RGBの強度を表す情報(RGBデータ等)や、輝度及び色差を表す情報(YCrCbデータ等)が色情報となる。
 重畳色の設定は、エッジ部分ごとに実行される。従って、元画像に含まれる各エッジ部分は、単一の色で強調されるとは限らず、重畳色はエッジ部分ごとに異なる場合がある。これにより、例えば元画像における各エッジ部分の色に係らず、各エッジ部分を十分に強調することが可能となる。
 本実施形態では、エッジ部分として検出された画素位置ごとに重畳色が設定される。例えば、エッジ検出データにより指定されるエッジ部分の画素ごとに重畳色が設定され、重畳色と画素位置とを表すエッジ強調データが生成される。このエッジ強調データにより、ピーキング表示において、元画像に重畳される重畳画像が構成される。
 また重畳色設定部32は、重畳色(強調表示の色)を複数の色候補から設定する。すなわち、各エッジ部分は、複数の色候補のうちのいずれかを用いて強調されることになる。このように、複数の色候補を予め設定しておくことで、重畳色を設定する処理は、色候補を選択する処理となる。これにより、各エッジ部分の重畳色を容易に設定することが可能となる。
 本実施形態では、複数の色候補は、ユーザにより設定される。例えばユーザにより複数の色候補が設定され、各色候補の情報が以下で説明する重畳色選択部33により保持される。このユーザが設定した色候補に基づいて、各エッジ部分の重畳色が設定される。
 各色候補は、ユーザ操作部16を介して設定される。例えば、表示装置15に複数の色が表示され、その中から候補色が選択される。また例えば、ユーザが基本となる1色を選択することで、自動的に他の候補色が設定されてもよい。この他、複数の候補色を設定する方法は限定されない。
 このように、ユーザ自身が、重畳色の候補を設定可能であるため、強調されたエッジ部分を容易に視認することが可能となる。重畳色(強調表示の色)を設定する方法や、候補色の種類については、後に詳しく説明する。
 重畳色選択部33は、ユーザによる複数の色候補の選択を受け付ける。例えば、ユーザが後述するユーザ操作部16を操作して設定した色候補の情報が、カメラコントローラ12を介して重畳色選択部33に入力される。重畳色選択部33は、入力された色候補の情報を保持し、重畳色設定部32に対して適宜出力する。なお複数の色候補として、デフォルトの候補が設定され、重畳色選択部33に記憶されてもよい。
 合成部34は、カメラ信号処理部30により生成された元画像(元画像データ)に、重畳色設定部32により生成された重畳画像(エッジ強調データ)が重畳された画像を合成する。従って、合成部34により合成された画像は、元画像においてフォーカスが合った部分(エッジ部分)が重畳色で表示されたピーキング画像となる。このように合成部は、元画像のエッジ部分が重畳色で強調されたピーキング画像を生成する。
 例えば、元画像データのエッジ部分に対応する画素の画素データが、重畳色を表す画素データに置換された画像データが、ピーキング画像として生成される。元画像及び重畳画像を合成する方法は限定されず、例えば画像上に他の表示等を重畳することが可能な回路等が適宜用いられてよい。
 このように、ピーキング画像は、エッジ部分の色が重畳色に設定され、エッジ部分とは異なる部分の色が、元画像と同じ色に設定された画像となる。すなわち、ピーキング表示は、エッジ部分に限定しており、エッジ部分以外は、通常の画像(元画像)がそのまま用いられる。これにより、ユーザは違和感なくピーキング表示を利用することが可能となる。
 合成部34により生成されたピーキング画像40は、表示装置15に出力される。本実施形態では、重畳色設定部32、重畳色選択部33、及び合成部34は、色制御部として機能する。
 記録部14は、不揮発性の記録デバイスである。記録部14は、撮像装置100の本線に接続され、カメラ信号処理部30により出力された元画像(元画像データ)を記録する。記録部14としては、例えば磁気テープ、光ディスク、HDD(Hard Disk Drive)、SSD(Solid State Drive)等が用いられる。記録部14の具体的な構成は限定されない。
 表示装置15は、ピーキング画像を表示する表示デバイスである。表示装置15としては、例えばビデオカメラ(撮像装置100)のビューファインダ(VF:View Finder)が用いられる。また例えば、液晶や有機EL等を用いた外部ディスプレイが表示装置15として用いられてもよい。外部ディスプレイは撮像装置100本体のサブディスプレイであってもよいし、撮像装置100とは別に設けられたディスプレイであってもよい。
 例えば撮影者であるユーザ(カメラマン)は、表示装置15に表示されたピーキング画像を見ながら、レンズ制御部22等を操作して、撮像装置100のフォーカスを操作する。ピーキング画像では、フォーカスが合っている部分が重畳色により強調表示されている。これにより、ユーザは、画面内のフォーカスが合っている位置を確認しながら、被写体を撮影することが可能となる。
 なお表示装置15の解像度と、イメージセンサ11の解像度とが異なる場合が考えられる。例えばイメージセンサ11が4K解像度(水平3840画素、垂直2160画素)であり、表示装置15がHD解像度(水平1920画素、垂直1080画素)であるといった構成があり得る。もちろんこれ以外の構成が用いられる場合であっても本技術は適用可能である。
 例えばビューファインダのような小型の表示装置15の解像度は、イメージセンサ11よりも低くなることがあり得る。この場合、例えばカメラ信号処理部30により、表示装置15の解像度に合わせてダウンコンバートされた元画像(元画像データ)等が生成されてもよい。このダウンコンバートされた元画像に対して、ピーキング検出部31、重畳色設定部32、及び合成部34等の処理が適宜実行され、表示装置15の解像度に合ったピーキング画像が生成される。あるいは、合成部34から出力されたピーキング画像がダウンコンバートされてもよい。
 ユーザ操作部16は、撮像装置100に対するユーザの操作を受け付ける。例えば上記した重畳色の色候補が、ユーザ操作部16を介して設定される。ユーザ操作部16は、例えばボタンやレバー等の各種のスイッチ、スライダー、回転つまみ等を備える。また例えばタッチスクリーンとして機能する表示装置15が、ユーザ操作部16として構成されてもよい。この他、ユーザ操作部16の具体的な構成は限定されない。
 [撮像装置の基本動作]
 図2は、被写体のエッジ部分が強調されたピーキング画像の一例である。以下では、図2に示すピーキング画像40等を参照して撮像装置100の基本動作について説明する。
 図2には、被写体1として、テーブル1aと、その上に配置された左側の皿1b及び右側の皿1cと、テーブル1aの奥におかれた椅子1dとがグレーの線を用いて模式的に図示されている。このうち、左側の皿1bの一部と右側の皿1cの一部に、撮像装置100のフォーカスが合っているものとする。
 また図中の黒色の線は、エッジ部分41の強調表示42を表している。図2に示すように、強調表示42は、被写体1の一部(エッジ部分41)に重畳されて表示される。図2に示す例では、強調表示42の色(重畳色)として2種類の色候補が用いられる。以下では、2種類の色候補を第1の色候補43a及び第2の色候補43bと記載する。第1及び第2の色候補43a及び43bが重畳色に設定された強調表示42は黒の実線及び黒の点線で表されている。なお、ピーキング画像40は、典型的にはカラー画像である。
 例えば、被写体1からの光(被写体光23)が、レンズ部21を通してイメージセンサ11に入射し、被写体1の画像が撮像される。イメージセンサ11により生成された画像データは、カメラ信号処理部30で処理され、元画像データ(元画像)として、記録部14に記録される。また元画像データは、ピーキング表示の処理を受けてピーキング画像40として表示装置15に表示される。これにより、ユーザは、表示装置15に表示されたピーキング画像40を見ながら、レンズ制御部22の操作を行うことが可能となる。
 ピーキング表示の処理では、ピーキング検出部31により、元画像のエッジ部分41が検出される。このエッジ部分41が、フォーカスが合っている合焦位置となる。重畳色設定部32により、元画像での色も加味してエッジ部分41の重畳色が設定される。具体的には、ユーザにより設定され重畳色選択部33に保持された複数の色候補43(例えば第1及び第2の色候補43a及び43b)から、元画像での色に応じて重畳色が選択される。
 重畳色の設定は、元画像におけるエッジ部分41のエッジ色をもとに実行される。ここで、エッジ色とは、エッジ部分41に関する色情報により表される色である。例えばある画素がエッジ部分41として検出されたとする。このエッジ部分41となる画素の色情報で表される色、すなわち、元画像における画素の色がエッジ色として用いられる。この場合、エッジ色は、エッジ部分41そのものの色となる。
 また例えば、エッジ部分41の周辺の画素も含んだ色情報で表される色がエッジ色として用いられてもよい。例えば周辺に含まれる画素の色情報に基づいて、各画素の色の平均が算出され、エッジ色として用いられる。この場合、エッジ色は、エッジ部分の周辺部分も含んだ平均の色となる。
 撮像装置100では、エッジ色と重畳色とが互いに離れた色となるように、重畳色が設定される。本開示において、互いに離れた色とは、例えば色相面において互いに離れた色、あるいは輝度が互いに離れた色である。互いに離れた色では、色の差が大きいとも言える。従って、重畳色は、エッジ色とは色合いや明るさが似ていない色(差の大きい色)に設定される。つまり、エッジ色に似ていない色候補が、重畳色として選択される。
 例えば図2に示すピーキング画像40において、第1の色候補43aが赤色に設定され、第2の色候補が水色に設定されたとする。この時、左側の皿1bが青色であり、右側の皿 cがオレンジ色であるとする。この場合、左側の皿1bで検出されたエッジ部分41のエッジ色は青色成分の多い色となる。また右側の皿1cで検出されたエッジ部分41のエッジ色は赤色成分や黄色成分の多い色となる。
 例えば左側の皿1bのエッジ部分41の強調表示42には、青色成分の多い色から離れた色である第1の色候補43a(赤色)が重畳色として設定される。一方で、右側の皿1cのエッジ部分41の強調表示42には、赤色成分の多い色から離れた色である第2の色候補43b(水色)が重畳色として設定される。
 また例えば、第1の色候補43aが白色に設定され、第2の色候補43bが黒色に設定されたとする。例えば左側の皿1bのエッジ部分41が暗い色になっている場合には、輝度の高い第1の色候補43aが重畳色に設定される。また右側の皿1cのエッジ部分41が明るい色になっている場合には、輝度の低い第2の色候補43bが重畳色に設定される。
 なお、上記した説明は、あくまで一例であり、各エッジ部分41のエッジ色は、単純に被写体1の色や明るさで定まるものではない。いずれにしろ、エッジ色は、元画像における色情報を用いて算出され、そのエッジ色から離れた色候補が適宜選択される。
 このように、本実施形態では、エッジ部分41に関する色情報により表されるエッジ色と、重畳色との色の差が大きくなるように、重畳色が制御される。これにより、ピーキング画像40内の強調表示42を十分に目立たせることが可能となり、エッジ部分41の位置を明瞭に表すことが可能となる。この結果、強調表示42の視認性が向上し、フォーカス操作を十分に支援することが可能となる。
[カラーの重畳色によるピーキング表示]
 以下では、重畳色(複数の色候補43)として、色相のある有彩色(カラー)が用いられる場合について説明する。
 図3は、色相環を説明するための模式図である。色相環50は、色相を環状に配置したものである。図3には、色相環50がグレースケールを用いて模式的に図示されているが、実際には色相環50はカラーで表される。なお、各有彩色の色相は、RGB値や色差値等に基づいて算出することが可能である。
 また図3には、色相環50の各位置(角度)における色が示されている。例えば色相環50では、赤色(R)を基準として、時計回りに60°ずつ回転した各位置に紫色(V)、青色(B)、水色(LB)、緑色(G)、黄色(Y)それぞれが配置される(図中の黒丸)。以下では、環状に色相を配置して構成される面を色相面と記載する。
 例えば色相面において赤色Rから最も離れた色は、水色LBとなる。この赤色Rと水色LBとは、色相環50において正反対の位置に配置された補色となる。同様に、緑色Gと紫色Vとが補色となり、青色Bと黄色Yとが補色となる。
 本実施形態では、カラー(有彩色)の重畳色を設定可能である。この場合、複数の色候補は、有彩色の色候補を含む。有彩色の色候補は、例えば同じ色相環50(輝度及び彩度が等しく設定された色)から設定される。また複数の色候補は、互いに異なる色相となるように設定される。
 以下では、主に2つの色候補が用いられる場合について説明する。すなわち、複数の色候補は、第1の色候補43aと、第1の色候補43aとは色相の異なる第2の色候補43bとを含むように設定される。この場合、ピーキング画像40においてエッジ部分41は2つの色を用いて表示されることになる。これにより、視認性が高くシンプルな強調表示を実現することが可能となる。また強調表示42の色数を抑えることで、ユーザは2色のみに集中してフォーカス操作を行うことが可能となり、優れた操作性を発揮することが可能となる。
 本実施形態では、第1及び第2の色候補43a及び43bは、互いに補色となるように設定される。すなわち、第1及び第2の色候補43a及び43bは、色相環50において180°回転した色相となるように設定される。
 例えばユーザにより、互いに補色となる2色が設定されてもよい。また例えば、ユーザが選択した色を第1の色候補43aとして、その補色となる第2の色候補43bが自動的に設定されてもよい。これにより、互いに色相が最も遠い色(補色)を用いて、エッジ部分41(強調表示42)が表されるため、各エッジ部分41を十分に目立たせることが可能となる。
 また後述するように、エッジ部分41の重畳色には、互いに補色となる2色の色候補のうち、エッジ色44から見て色相平面において遠い色が設定される。すなわち、重畳色設定部32は、エッジ色44と、重畳色とが、色相面において離れた色となるように、重畳色を制御する。なお図3には、エッジ色44の色相が白丸により模式的に図示されている。
 例えば、第1の色候補43aが赤色Rに設定され、第2の色候補43bが水色LBに設定されたとする。例えば赤色Rと黄色Yとの間の黄色Yに近いエッジ色44aが算出されると、色相面においてエッジ色44aから離れた色となる第2の色候補43b(水色)が重畳色として選択される。また例えば青色Bと紫色Vとの間の青色Bに近いエッジ色44bが算出されると、色相面においてエッジ色44bから離れた色となる第1の色候補43a(赤色)が重畳色として選択される。
 すなわち、色相環において、第1の色候補43aから±90°の範囲に含まれるエッジ色44では、第2の色候補43bが重畳色に設定され、第2の色候補43bから±90°の範囲に含まれるエッジ色44では、第1の色候補43aが重畳色に設定される。これにより、各エッジ部分41はエッジ色44から離れた重畳色で表示されるため、元画像でのエッジ色44に係らず、エッジ部分41の強調表示42の視認性を大幅に向上することが可能となる。
 なお、補色関係ではない2つの色候補43(第1及び第2の色候補43a及び43b)が設定されてもよい。この場合であっても、色相環50においてエッジ色44から離れた色候補43が重畳色として設定される。これにより、ユーザは任意の2色を用いてピーキング表示を行うことが可能となり、自由度の高い強調表示42を実現することが可能となる。
 また2つ以上の色候補43を設定することも可能である。例えば3つの色候補43が設定されてもよい。この場合、例えば3つの色候補43は、色相環50において互いに最も離れた角度(120°)となるように設定される。同様に4つの色候補43や5つの色候補43等を適宜設定することが可能である。このように2つ以上の色候補43が設定される場合であっても、エッジ色44と、重畳色とが、色相面において離れた色となるように、複数の色候補43の中から重畳色が選択される。これにより、エッジ部分41の色相に係らず、強調表示42の視認性を十分に強調することが可能となる。
 図4は、カラーの重畳色を用いたピーキング表示の一例を示すフローチャートである。図5は、元画像の一例として挙げる色相環50の画像である。以下では、図5に示す元画像25を例に、図4を参照してカラーの重畳色を用いたピーキング表示処理について説明する。
 図5には、被写体1の一例として色相環50が撮像された撮像画像(元画像25)が図示されている。色相環50の周辺(バックグラウンド)は黒色である。なお図5に示す色相環50は、図3で説明した色相環50と同様の角度配置になっている。また図5に示す元画像25では、撮像装置100のフォーカスは、色相環50全体に合焦している。
 図4に示す処理は、例えば1つの元画像25に対して行わる処理である。撮像装置100では、例えば、所定のフレームレートで元画像25が生成される度に、図4に示す処理が実行され、各元画像25についてのピーキング表示が実行される。
 まず、ユーザにより設定された2つの色候補43(第1及び第2の色候補43a及び43b)の色相成分が算出される(ステップ101)。色相成分は、色相を表す色相値Hであり、例えば色相環50での角度により表すことが可能である。各色候補43a及び43bについて、この色相値Hが算出される。なお色相値Hは、例えば重畳色選択部33により算出される。
 例えば色候補がRGBデータである場合には、RGBの各強度に基づいて色相値Hが算出される。また例えば色候補が色差データである場合には赤色色差Cr及び青色色差Cbに基づいて色相値Hが算出される。この他、色候補のデータの形式に応じて色相値Hが適宜算出されてよい。
 以下では、第1の色候補43aが赤色Rに設定され、第2の色候補43bが水色LBに設定された場合について説明する。この場合、第1の色候補43aの色相成分として、赤色Rの位置に対応した色相環での角度が色相値Hとして算出される。また第2の色候補43bの色相成分として、水色LBの位置に対応した色相環50での角度が色相値Hとして算出される。なお各色候補43a及び43bは補色であるため、各色候補43a及び43bの色相値Hは互いに180°ずれた値となる。
 色相値Hが算出されると、ステップ102~ステップ108に示すループ処理が実行される。これらのループ処理は、例えば元画像25に含まれる画素ごとに順次行われる。あるいは、一つの列(水平ラインや垂直ライン)に含まれる複数の画素に対して、並列に処理が実行されてもよい。
 重畳色設定部32により、ピーキング表示する画素の位置が取得される(ステップ102)。具体的には、ピーキング検出部31により元画像25から検出されたエッジ部分41の検出結果(エッジ検出データ)に基づいて、エッジ部分41に対応する画素の画素位置が適宜読み込まれる。
 図6は、図5に示す元画像25から検出されたエッジ部分41を示す画像である。図6には、色相環50を含む元画像25のエッジ部分41に対応する画素(エッジ画素45)が白色で図示されている。色相環50を含む元画像25からは、色相環50の外縁の部分がエッジ部分41として検出される。従って図6に示すように、色相環50のエッジ画素45は、円形に分布することになる。重畳色設定部32では、これらのエッジ画素45の画素位置が順次取得される。
 重畳色設定部32により、ステップ102で取得された画素位置(エッジ画素45)の周辺の画素データが取得される(ステップ103)。周辺の画素データとは、エッジ画素45を囲む所定の画素領域に含まれる画素の画素データである。以下では、所定の画素領域に含まれる画素を参照画素と記載する。
 図7は、エッジ画素45の周辺の画素配置の一例を示す模式図である。図7に示す画素配置は、エッジ画素45を中心とした元画像25の画素配置である。各画素は、縦横にマトリクス状に隣接して配置された四角を用いて表されている。このうち黒色の画素が、エッジ画素45である。また所定の画素領域51が黒色の太線を用いて図示されている。
 所定の画素領域51には、エッジ画素45と、エッジ画素45の周辺に配置された周辺画素46とが含まれる。これらエッジ画素45及び周辺画素46が、参照画素47となる。図7に示す例では、所定の画素領域51として、エッジ画素45を中心とした3×3の画素領域が設定される。この場合、エッジ画素45の周りに配置された8つの画素が周辺画素46となる。
 所定の画素領域51のサイズ、形状、位置等は限定されない。例えば、エッジ画素45を中心とした5×5や7×7の画素領域が設定されてもよい。また2×2や4×4等の画素領域や、2×3や5×4といった画素領域が設定されてもよい。またエッジ画素45が画素領域の中心からずれていてもよい。この他、エッジ画素45を含む任意の領域が所定の画素領域51として設定されてよい。
 例えばエッジ画素45の画素位置が読み込まれると、所定の画素領域51に含まれる他の画素(周辺画素46)の画素位置が算出される。そして、各画素位置に基づいて、元画像25から参照画素47(エッジ画素45及び周辺画素46)の画素データがそれぞれ読み込まれる。
 参照画素47の画素データは、所定の画素領域51における各画素の色を表す情報を含む。従って参照画素47の画素データには、エッジ画素45(エッジ部分41)周辺の色情報が含まれる。カラーのピーキング表示では、これらの画素データが、エッジ部分41に関する色情報として用いられる。このように、エッジ部分41に関する色情報は、エッジ部分41の画素位置を囲む所定の画素領域51に含まれる参照画素47の画素データを含む。また、参照画素47の画素データにより表される色が、エッジ色44となる。
 重畳色設定部32により、周辺の画素データ(参照画素47の画素データ)から平均色相が算出される(ステップ104)。すなわち、エッジ部分41の周辺である所定の画素領域51の色相値の平均が算出される。
 参照画素47の画素データから1つの色相値を算出する処理は、参照画素47の画素データにより表されるエッジ色44の色相を算出する処理に相当する。このように、撮像装置100では、重畳色設定部32により、参照画素47の画素データに基づいて、エッジ色44の色相が算出される。これにより、エッジ部分の周辺の色相の傾向に合わせて、重畳色を設定することが可能となり、重畳色を十分に目立たせることが可能となる。
 上記したように、本実施形態では、エッジ色44の色相として、参照画素47の平均色相が算出される。例えば、ステップ103で読み込まれた画素データに基づいて、各参照画素47(エッジ画素45及び周辺画素46)の色相値がそれぞれ算出される。これらの色相値を平均して平均色相が算出される。
 図8は、図6に示すエッジ部分41の平均色相の一例を示す模式図である。図8では、図を見やすくするため、図6に示すエッジ部分41に対応する領域が、幅の広い環状の領域を用いて模式的に図示されている。またエッジ部分41の各画素位置(エッジ画素45)で算出された平均色相がグレースケールを用いて表されている。
 図8に示すように、各エッジ画素45で算出される平均色相は、元画像25である色相環50の色相を反映した色相となる。例えば赤色Rのエッジ画素45では、赤色Rに近い平均色相が算出され、水色LBのエッジ画素45では、水色LBに近い平均色相が算出される。なお、実際には、被写体や背景の色に応じて、エッジ画素45ごとに様々な平均色相が算出される。
 エッジ色44の色相(平均色相)を算出する方法は限定されない。例えば、元画像25に対して平均化フィルタやガウシアンフィルタ等のフィルタ処理を施し、各エッジ画素45について、フィルタ適用後の画素データを取得して色相を算出してもよい。フィルタ処理は、例えば対象となる画素領域51ごとに施される。これにより、ノイズ等の影響を低下することが可能となり、各エッジ画素45の色を表すエッジ色の色相値を安定して算出することが可能となる。
 なお所定の画素領域51は、被写体1に応じて設定されてもよい。例えば画像認識等の技術に基づいて、被写体1の種類や被写体1の表面の状態が検出され、その検出結果に基づいて、画素領域51のサイズ等が設定される。
 例えば表面に細かい色彩パターンのある被写体1等が撮像される場合には、画素領域51を小さく設定する。これによりエッジ部分41以外の色の影響が低減され、エッジ色44を精度よく算出することが可能となる。また被写体の色彩が一様であるような場合には、画素領域51が大きく設定される。これにより、エッジ部分41の周辺の色も加味したエッジ色44を適正に算出することが可能となる。
 重畳色設定部32により、エッジ画素45の平均色相が第1の色候補43aに近いか否かが判定される(ステップ105)。平均色相が第1の色候補43aに近いか否かの判定は、平均色相が色相環50において第1の色候補43a(赤色R)と第2の色候補43b(水色LB)とのどちらに近いかを判定することで実行される。この判定に基づいて、エッジ画素45の重畳色が設定される。
 図9は、カラーの重畳色によるピーキング表示の一例を示す模式図である。図9Aは、エッジ部分41を重畳色で表示した重畳画像60の一例である。図9Bは、元画像25と重畳画像60とを合成したピーキング画像40の一例である。
 例えば、エッジ画素45の平均色相が、第1の色候補43aから離れており、第2の色候補43bに近い場合(ステップ105のNo)、エッジ画素45の重畳色が第1の色候補43aに設定される(ステップ106)。
 例えば、第1の色候補43a(赤色R)を基準として±90°の範囲の外側、すなわち第2の色候補43b(水色LB)を基準として±90°の範囲に含まれる平均色相が算出された場合、エッジ画素45の重畳色は、第1の色候補43aに設定される(図3参照)。従って図9Aに示すように、水色LBに近いエッジ色44(平均色相)が算出されたエッジ画素45には、赤色Rの強調表示42が設定される。
 また例えば、エッジ画素45の平均色相が、第1の色候補43aに近く、第2の色候補43bから離れている場合(ステップ105のYes)、エッジ画素45の重畳色が第2の色候補43bに設定される(ステップ107)。
 例えば、第1の色候補43a(赤色R)を基準として±90°の範囲、すなわち第2の色候補43b(水色LB)を基準として±90°の範囲の外側に含まれる平均色相が算出された場合、エッジ画素45の重畳色は、第2の色候補43bに設定される(図3参照)。従って図9Bに示すように、赤色Rに近いエッジ色44(平均色相)が算出されたエッジ画素45には、水色LBの強調表示42が設定される。
 このように、エッジ画素45の重畳色は、その平均色相の色相値が第1の色候補43aの色相値に近い場合は補色関係にある第2の色候補43bに設定され、逆に遠い場合は第1の色候補43aに設定される。すなわち、重畳色設定部32は、複数の色候補のうち、エッジ色44の色相から最も離れた色相を有する色候補43を重畳色に設定する。
 図9Bには、元画像25に含まれる色相環50のエッジ部分41が強調されたピーキング画像40が模式的に図示されている。例えば色相環50において水色LBのエッジ部分41(図中の左側)では、重畳色は赤色R(第1の色候補43a)となる。従って、色相環50の水色の部分とエッジ部分41の強調表示42(赤色)とを容易に識別することが可能となる。また例えば色相環50において赤色Rのエッジ部分41(図中の右側)では、重畳色が水色LB(第2の色候補43b)となる。これにより、色相環50の赤色の部分とエッジ部分41の強調表示42(水色)とを容易に識別することが可能となる。
 エッジ画素45の重畳色が第1及び第2の色候補43a及び43bのいずれかに設定されると、元画像25の全ての画素に対して処理が行われたか否かが判定される(ステップ108)。処理が行われていない画素が残っている場合(ステップ108のNo)、ステップ102以降の処理が繰り返される。また全ての画素に対して処理が行われた場合(ステップ109のYes)、元画像25に対する処理が完了する。その後、次の元画像25に対するピーキング表示の処理が開始される。
 図10は、比較例として挙げるピーキング表示の一例を示す模式図である。図10Aの左側及び右側の図は、単色の重畳色(赤色R)を用いた場合の重畳画像60a及びピーキング画像40aである。図10Aに示すように、重畳色を赤色Rのみで表した場合、色相環50において赤色系のエッジ部分41は色相差が少なくなるので、強調表示42(ピーキング)の部分と被写体1(色相環50)の部分との識別が難しくなる。
 図10Bの左側及び右側の図は、赤色R及び水色LBのうち、エッジ色44の色相に近い色を重畳色とした場合の重畳画像60b及びピーキング画像40bである。図10Bでは、色相環50において水色系のエッジ部分41では水色LBの重畳色が設定され、赤色系のエッジ部分41では赤色Rの重畳色が設定される。このため赤色系及び水色系のエッジ部分41ではともに色相差が小さくなり、強調表示42の視認性が低下する。
 これに対して、図9Bに示すピーキング画像40では、エッジ色44に対する色相差が大きくなるように重畳色が設定される。このため、色相に係らずどのエッジ部分41についてもピーキング表示(強調表示42)の視認性が改善される。これにより、撮影範囲のどこにフォーカスが合っているかを容易に判別することが可能となり、撮像装置100のフォーカス操作を十分に支援することが可能となる。
[白黒の重畳色によるピーキング表示]
 以下では、重畳色(複数の色候補43)として、色相の無い無彩色(白黒等)が用いられる場合について説明する。
 本実施形態では、無彩色の重畳色を設定可能である。この場合、複数の色候補43は、無彩色の色候補43を含む。無彩色の色候補43は、所定の輝度で表される白色、黒色、あるいはグレー等の色から設定される。各色候補43は、互いに異なる輝度となるように設定される。以下では、無彩色の色候補43として、黒色及び白色が用いられる場合について説明する。すなわち、複数の色候補43は、黒色と白色とを含む。
 白黒の重畳色(色候補43)を用いたピーキング表示では、エッジ部分41の重畳色として、2色の色候補(黒色及び白色)のうち、エッジ色44に対して明るさ(輝度)が離れている色が設定される。すなわちエッジ色44と、重畳色とが、輝度方向において離れた色となるように、重畳色が制御される。
 エッジ色44は、元画像25のエッジ部分41に関する色情報(画素データ等)により表される色であり、典型的には有彩色である。従って白黒のピーキング表示では、カラーのエッジ色44の明るさ(輝度)をもとに、重畳色が制御される。
 例えば、エッジ色44が所定の閾値よりも明るい場合、そのエッジ部分41の重畳色には輝度の低い黒色が設定される。また例えばエッジ色44が所定の閾値よりも暗い場合、そのエッジ部分41の重畳色には輝度の高い白色が設定される。これにより、各エッジ部分41はエッジ色44から明るさの離れた重畳色で表示されるため、エッジ部分41の強調表示42の視認性を大幅に向上することが可能となる。
 図11は、白黒の重畳色を用いたピーキング表示の一例を示すフローチャートである。図12は、元画像の一例として挙げるストライプパターン55の画像である。以下では、図12に示す元画像25を例に、図11を参照して白黒の重畳色を用いたピーキング表示処理について説明する。
 図12には、被写体1の一例としてストライプパターン55が撮像された撮像画像(元画像25)が図示されている。ストライプパターン55は、短冊状の矩形領域が図中の横方向に連続して配置されたパターンである。各矩形領域は、左側から順番に白色から黒色までの段階的なグラデーションとなるように塗りつぶされている。すなわち、ストライプパターン55は、グレースケールのグラデーションパターンである。
 まず、重畳色設定部32により、ピーキング表示する画素の位置が取得される(ステップ201)。具体的には、エッジ部分41に対応するエッジ画素45の画素位置が読み込まれる。
 図13は、図12に示す元画像25から検出されたエッジ部分41を示す画像である。図13には、ストライプパターン55を含む元画像25のエッジ部分41に対応する画素(エッジ画素45)が白色で図示されている。ストライプパターン55からは、各矩形領域の境界がエッジ部分41として検出される。従って図13に示すように、ストライプパターン55のエッジ画素45は、各矩形領域の境界に対応した上下方向のラインに沿って分布することになる。
 ステップ201で取得された画素位置の画素データが取得される(ステップ202)。すなわち、元画像25からエッジ画素45の画素データ(色情報)が読み込まれる。そして、重畳色設定部32により、エッジ画素45の画素データの輝度が算出される(ステップ203)。このように、図11に示す処理では、エッジ画素45の画素データが、エッジ部分41に関する色情報となり、エッジ画素45の色がエッジ色44となる。このエッジ色44の輝度が適宜算出される。
 例えば図12のように元画像25がグレースケールの画像である場合には、画素データの諧調値がエッジ画素45の輝度として算出される。また画素データがRGBデータである場合には、RGBの各強度値に基づいて輝度が算出される。
 図14は、図13に示すエッジ部分41の元画像25における輝度の一例を示す模式図である。図14に示すように、例えば白色の矩形領域の境界(図中の左端のエッジ部分41)では、明るい輝度が算出される。各境界(エッジ部分41)で算出される輝度は、右側に近いほど暗くなる。図14では、バックグラウンドが黒で表示されているため、図中右側のエッジ部分41の輝度表示が見えなくなっているが、実際には矢印で示した位置では黒色に近い輝度が算出される。
 なお図14に示す例では、エッジ部分41に対応する画素(エッジ画素45)の輝度がそのまま算出されたが、これに限定されるわけではない。例えば、図7を参照して説明した所定の画素領域51が設定されてもよい。この場合、画素領域51に含まれるエッジ画素45及び周辺画素46の(参照画素47)画素データが取得され、画素領域51での平均輝度等が算出される。すなわち、参照画素47の画素データに基づいて、エッジ色44の輝度が算出されてもよい。これにより、周辺の明るさに合わせて重畳色を設定することが可能となる。
 重畳色設定部32により、エッジ画素45の輝度が黒色に近いか否かが判定される(ステップ204)。この判定は、輝度方向において、エッジ画素45の輝度(エッジ色44の輝度)が黒色と白色とのどちらに近いかを判定することで実行される。
 本実施形態では、重畳色設定部32は、エッジ色44の輝度が所定の閾値よりも大きい場合に重畳色を黒色に設定し、エッジ色44の輝度が所定の閾値よりも小さい場合に重畳色を白色に設定する。この判定に基づいて、エッジ画素45の重畳色が設定される。
 所定の閾値は、例えば黒色と白色との中間値に設定される。例えば各色の輝度が256諧調で表される場合(黒色の輝度が1であり白色の輝度が256である場合)、所定の閾値は128に設定される。また各色の輝度が128諧調で表される場合には、所定の輝度は64に設定される。これに限定されず、所定の閾値は、例えば画面の明るさ等に応じて適宜設定されてよい。
 図15は、白黒の重畳色によるピーキング表示の一例を示す模式図である。図15A及び図15Bは、エッジ部分41を黒色及び白色の重畳色で表示した重畳画像60の一例である。図15Cは、元画像25と重畳画像60とを合成したピーキング画像40の一例である。
 例えば、エッジ画素45の輝度が、所定の閾値よりも高く、黒色よりも白色に近い場合(ステップ204のNo)、エッジ画素45の重畳色が黒色に設定される(ステップ205)。例えば、ストライプパターン55の左側のエッジ画素45では、白色に近い輝度が算出される(図14参照)。従って図15Aに示すように、白色に近い輝度が算出されたエッジ画素45(ストライプパターン55の左側のエッジ画素45)には、黒色の強調表示42が設定される。
 また例えば、エッジ画素45の輝度が、所定の閾値よりも低く、黒色に近い場合(ステップ204のYes)、エッジ画素45の重畳色が白色に設定される(ステップ206)。例えば、ストライプパターン55の右側のエッジ画素45では、黒色に近い輝度が算出される(図14参照)。従って図15Bに示すように、黒色に近い輝度が算出されたエッジ画素45(ストライプパターン55の左側のエッジ画素45)には、白色の強調表示42がされる。
 なおストライプパターン55の中央の境界部分では、白色に近いエッジ画素45と黒色に近いエッジ画素45との両方が検出される。この場合、同じ境界であっても、所定の閾値よりも明るいエッジ画素45については、黒色の重畳色が設定され、暗いエッジ画素45については白色の重畳色が設定される。
 このように、エッジ画素45の重畳色は、その輝度が黒色に近い場合は白色に設定され、逆に白色に近い場合は黒色に設定される。すなわち、重畳色設定部32は、複数の色候補43(黒色及び白色)のうち、エッジ色44の輝度から最も離れた輝度を有する色候補43を重畳色に設定する。
 図15Cには、元画像25に含まれるストライプパターン55のエッジ部分41が強調されたピーキング画像40が模式的に図示されている。例えばストライプパターン55において、白色に近い右側の境界(エッジ部分41)では、重畳色は黒色となる。また黒色に近い右側の境界(エッジ部分41)では、重畳色は白色となる。これにより、図15Cに示すように、輝度が高い部分から低い部分までピーキング表示の視認性を十分に向上することが可能となる。
 エッジ画素45の重畳色が黒色及び白色のいずれかに設定されると、元画像25の全ての画素に対して処理が行われたか否かが判定される(ステップ208)。処理が行われていない画素が残っている場合(ステップ208のNo)、ステップ201以降の処理が繰り返される。また全ての画素に対して処理が行われた場合(ステップ208のYes)、元画像25に対する処理が完了する。これにより、図15Cに示すピーキング表示の画素毎に白黒の重畳パターンが決まる。その後、次の元画像25に対するピーキング表示の処理が開始される。
 図16は、比較例として挙げるピーキング画像40cである。図16に示すピーキング画像40cでは、単色の重畳色(白色)が用いられる。重畳色が白色のみである場合、輝度の低い右側のエッジ部分41では、強調表示42が視認できるものの、輝度の高い左側のエッジ部分41では、強調表示42と被写体(ストライプパターン55)との区別が難しくなる。
 これに対して、図15Cに示すピーキング画像40では、エッジ色44との輝度差が大きくなるように重畳色が設定される。このため、エッジ部分41の明るさに係らず、どのエッジ部分41についてもピーキング表示(強調表示42)の視認性が改善される。これにより、撮影範囲のどこにフォーカスが合っているかを容易に判別することが可能となり、撮像装置100のフォーカス操作を十分に支援することが可能となる。
 以上、本実施形態に係る撮像装置100では、被写体1の撮像画像(元画像25)が生成され、元画像25に含まれるエッジ部分41が検出される。また検出されたエッジ部分41ごとに、元画像25でのエッジ部分41に関する色情報を用いて、エッジ部分41を強調する強調表示42の色が制御される。これにより、エッジ部分41の強調表示42の視認性を向上することが可能となる。
 被写体のエッジを強調する方法として、エッジの色を濃くする方法や単一の色を重畳する方法等が考えられる。この場合、エッジの周辺の色や背景によっては、強調したエッジの部分を識別することが難しい場合があり得る。
 本実施形態では、エッジ部分41を強調する強調表示42の色(重畳色)が、元画像25におけるエッジ部分41に関する色(エッジ色44)から離れた色となるように設定される。これにより、元画像25でのエッジ部分41そのものの色や、エッジ部分41の周辺の色等に係らず、重畳色を目立たせることが可能となる。これにより、強調表示42の視認性を向上することが可能となる。
 カラーのピーキング表示では、例えば補色関係にある2色(第1及び第2の色候補43a及び43b)が重畳色に設定される。重畳色は、エッジ部分41の色相(エッジ色44の色相)に応じて、ユーザが視認しやすい色となるように自動で選択される。このように、ピーキング位置周辺の色に合わせて、色相差の大きい方の色でピーキング表示を行うため、どのような色相の色に対しても、ユーザがピーキング部分を認識しやすくなる。
 また白黒のピーキング表示では、例えば黒色及び白色の重畳色が、エッジ部分41の輝度(エッジ色44の輝度)に応じて、ユーザが視認しやすい色となるように自動で選択される。これにより、エッジ部分41の明るさ等に係らず、ピーキング表示の視認性を向上することが可能となる。
 またピーキング位置(エッジ部分41)の色の変化に応じて、強調表示42に用いられる重畳色も変化する。これにより、例えば元画像25の構図や被写体等が常時変化する場合であっても、強調表示42の視認性を維持することが可能となる。この結果、フォーカス位置を常に視認しやすい色で表示することが可能となり、高いユーザビリティを発揮することが可能となる。
 またユーザが選択した重畳色(複数の色候補43)によりピーキング表示を行うことが可能である。撮像装置100では、ユーザが選択した色候補43を用いて、エッジ部分41の色に応じた重畳色が自動的に設定される。これにより、エッジ部分41の強調表示42を容易に認識することが可能となる。
 撮像装置100では、元画像25のエッジ部分41のみに変更を加えたピーキング画像40が生成される。すなわち、ピーキング表示は、エッジ部分41のみに限定しており、他は通常の画像と同じとなる。これにより、ピーキング表示の視認性を低下させることなく、ユーザにとって違和感がない撮影状態を実現することが可能となる。これにより、自然なフォーカス操作が可能となり、優れた操作性を発揮することが可能となる。
 <その他の実施形態>
 本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
 上記では、ピーキング画像40のエッジ部分41の表示(強調表示42)を、エッジ色44に応じて設定する方法について説明した。例えば、エッジ部分41の表示が時間とともに変化するように強調表示42を制御することが可能である。すなわち、ピーキング画像40のエッジ部分41の表示が動的に変化するように、強調表示42の色を制御することが可能である。
 例えば強調表示42の色が、一定の時間で切り替わるように設定されてもよい。例えば2つの色候補43が用いられる場合には、予め設定された時間間隔で、各強調表示42として設定された色候補43が、他の色候補43となるように切り替えられる。これにより、強調表示42の色(重畳色)が常時切り替えられて表示されるため、エッジ部分41を容易に検出することが可能となる。
 また例えば、強調表示42が一定の時間間隔で点滅するように表示することも可能である。この場合、強調表示42を表示する状態と、強調表示42を表示しない状態とが交互に繰り返される。このように、エッジ部分41の強調表示42を点滅させる、すなわち強調表示42に動きを与えることで、エッジ部分41を容易に検出することが可能となる。この他、エッジ部分41の表示を動的に変化させる任意の方法が用いられてよい。
 図17は、ピーキング表示の適用例について説明するための模式図である。図17Aには、撮像装置を用いた手術の様子が模式的に図示されている。また図17B及び図17Cは、術野を撮影した画像に適用されたピーキング表示の一例を示す模式図である。なお図17B及び図17Cでは、強調表示42が点線を用いて模式的に図示されている。
 例えば複空鏡手術や開腹手術等が行われる場合には、体内の患部等を撮影するための撮像装置(内視鏡カメラ等)が用いられる。また例えば、開頭手術等が行われる場合には、患部を拡大して撮影する撮像装置が用いられる。本技術は、このような撮像装置に好適に適用され得る。
 図17Aには、手術において内視鏡カメラ200のマニュアルフォーカスを行うスコピスト2が、手術を行う医師3が見るモニター215aとは別のモニター215bを見ながら内視鏡カメラ200のフォーカス操作をしている様子を示している。この場合、スコピスト2が見るモニター215bに表示する画像にのみ本技術を用いたピーキング表示を行い、手術を行う医師3が見る画像(モニター215a)にはピーキング表示は行わない。これにより、手術を行う医師3には影響を与えることなく、スコピスト2が患部に内視鏡カメラ200のピントを合わせる作業を容易にすることができる。
 図17Bは、内視鏡カメラ200により撮影された画像(術中画像)にピーキング表示を適用したピーキング画像240の一例である。図17Bでは、医師3が操作する鉗子4により一部の臓器5aがつかまれた状態が示されている。鉗子4によりつかまれた臓器5aは、脂肪6で覆われた臓器5bにつながっている。また脂肪6で覆われた臓器5b上には、他の臓器5cが存在する。
 ピーキング表示に用いられる重畳色を、これらの臓器5a~5c(被写体1)に応じて設定することが可能である。すなわち、重畳色の候補である複数の色候補43が、被写体1に応じて設定される。以下では、被写体1に応じて色候補43(重畳色)を設定する方法について具体的に説明する。
 例えば、画像認識処理等を用いて、術中画像に含まれる臓器5や脂肪6等が検出される。例えば脂肪6の周辺が手術対象となる場合には、脂肪6が注目被写体として設定される。この場合、脂肪6の色(黄色)の補色となる色(青色)が、1つの色候補43として設定される。これにより、脂肪6の周辺でピントが合った場合には、エッジ部分41が青色の強調表示42aにより表示され、フォーカス位置を容易に視認することが可能となる。
 また例えば、画像認識処理等を用いて、術中画像内の鉗子4が検出されてもよい。この場合、鉗子4の付近にある臓器等(臓器5a)が注目被写体として設定される。この場合、注目被写体となった臓器5aの補色となる色が、色候補43として設定される。これにより、手術の対象となっている臓器5aの輪郭等を、臓器5aの色の補色が設定された強調表示42bで表示することが可能となる。これにより、注目被写体に対するフォーカス操作を容易に行うことが可能となる。
 図17Cは、腫瘍部分が撮影された画像(術中画像)にピーキング表示を適用したピーキング画像240の一例である。図17Cには、例えば開頭手術により露出した脳7の一部と、腫瘍8とが模式的に図示されている。
 例えば、画像認識処理等を用いて、腫瘍8が検出される。腫瘍8は、例えば正常な脳7との色の違い等を利用して検出可能である。この腫瘍8の色の補色となるように、強調表示42の色(色候補43)が設定される。これにより、腫瘍8で検出されるエッジ部分41を、識別しやすい色で強調することが可能となる。この他、被写体1に応じて色候補43を設定する方法は限定されない。
 <<応用例>>
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図18は、本開示に係る技術が適用され得る内視鏡手術システム5000の概略的な構成の一例を示す図である。図18では、術者(医師)5067が、内視鏡手術システム5000を用いて、患者ベッド5069上の患者5071に手術を行っている様子が図示されている。図示するように、内視鏡手術システム5000は、内視鏡5001と、その他の術具5017と、内視鏡5001を支持する支持アーム装置5027と、内視鏡下手術のための各種の装置が搭載されたカート5037と、から構成される。
 内視鏡手術では、腹壁を切って開腹する代わりに、トロッカ5025a~5025dと呼ばれる筒状の開孔器具が腹壁に複数穿刺される。そして、トロッカ5025a~5025dから、内視鏡5001の鏡筒5003や、その他の術具5017が患者5071の体腔内に挿入される。図示する例では、その他の術具5017として、気腹チューブ5019、エネルギー処置具5021及び鉗子5023が、患者5071の体腔内に挿入されている。また、エネルギー処置具5021は、高周波電流や超音波振動により、組織の切開及び剥離、又は血管の封止等を行う処置具である。ただし、図示する術具5017はあくまで一例であり、術具5017としては、例えば攝子、レトラクタ等、一般的に内視鏡下手術において用いられる各種の術具が用いられてよい。
 内視鏡5001によって撮影された患者5071の体腔内の術部の画像が、表示装置5041に表示される。術者5067は、表示装置5041に表示された術部の画像をリアルタイムで見ながら、エネルギー処置具5021や鉗子5023を用いて、例えば患部を切除する等の処置を行う。なお、図示は省略しているが、気腹チューブ5019、エネルギー処置具5021及び鉗子5023は、手術中に、術者5067又は助手等によって支持される。
 (支持アーム装置)
 支持アーム装置5027は、ベース部5029から延伸するアーム部5031を備える。図示する例では、アーム部5031は、関節部5033a、5033b、5033c、及びリンク5035a、5035bから構成されており、アーム制御装置5045からの制御により駆動される。アーム部5031によって内視鏡5001が支持され、その位置及び姿勢が制御される。これにより、内視鏡5001の安定的な位置の固定が実現され得る。
 (内視鏡)
 内視鏡5001は、先端から所定の長さの領域が患者5071の体腔内に挿入される鏡筒5003と、鏡筒5003の基端に接続されるカメラヘッド5005と、から構成される。図示する例では、硬性の鏡筒5003を有するいわゆる硬性鏡として構成される内視鏡5001を図示しているが、内視鏡5001は、軟性の鏡筒5003を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒5003の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡5001には光源装置5043が接続されており、当該光源装置5043によって生成された光が、鏡筒5003の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者5071の体腔内の観察対象に向かって照射される。なお、内視鏡5001は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド5005の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU:Camera Control Unit)5039に送信される。なお、カメラヘッド5005には、その光学系を適宜駆動させることにより、倍率及び焦点距離を調整する機能が搭載される。
 なお、例えば立体視(3D表示)等に対応するために、カメラヘッド5005には撮像素子が複数設けられてもよい。この場合、鏡筒5003の内部には、当該複数の撮像素子のそれぞれに観察光を導光するために、リレー光学系が複数系統設けられる。
 (カートに搭載される各種の装置)
 CCU5039は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡5001及び表示装置5041の動作を統括的に制御する。具体的には、CCU5039は、カメラヘッド5005から受け取った画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。CCU5039は、当該画像処理を施した画像信号を表示装置5041に提供する。また、CCU5039は、カメラヘッド5005に対して制御信号を送信し、その駆動を制御する。当該制御信号には、倍率や焦点距離等、撮像条件に関する情報が含まれ得る。
 表示装置5041は、CCU5039からの制御により、当該CCU5039によって画像処理が施された画像信号に基づく画像を表示する。内視鏡5001が例えば4K(水平画素数3840×垂直画素数2160)又は8K(水平画素数7680×垂直画素数4320)等の高解像度の撮影に対応したものである場合、及び/又は3D表示に対応したものである場合には、表示装置5041としては、それぞれに対応して、高解像度の表示が可能なもの、及び/又は3D表示可能なものが用いられ得る。4K又は8K等の高解像度の撮影に対応したものである場合、表示装置5041として55インチ以上のサイズのものを用いることで一層の没入感が得られる。また、用途に応じて、解像度、サイズが異なる複数の表示装置5041が設けられてもよい。
 光源装置5043は、例えばLED(light emitting diode)等の光源から構成され、術部を撮影する際の照射光を内視鏡5001に供給する。
 アーム制御装置5045は、例えばCPU等のプロセッサによって構成され、所定のプログラムに従って動作することにより、所定の制御方式に従って支持アーム装置5027のアーム部5031の駆動を制御する。
 入力装置5047は、内視鏡手術システム5000に対する入力インタフェースである。ユーザは、入力装置5047を介して、内視鏡手術システム5000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、入力装置5047を介して、患者の身体情報や、手術の術式についての情報等、手術に関する各種の情報を入力する。また、例えば、ユーザは、入力装置5047を介して、アーム部5031を駆動させる旨の指示や、内視鏡5001による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示、エネルギー処置具5021を駆動させる旨の指示等を入力する。
 入力装置5047の種類は限定されず、入力装置5047は各種の公知の入力装置であってよい。入力装置5047としては、例えば、マウス、キーボード、タッチパネル、スイッチ、フットスイッチ5057及び/又はレバー等が適用され得る。入力装置5047としてタッチパネルが用いられる場合には、当該タッチパネルは表示装置5041の表示面上に設けられてもよい。
 あるいは、入力装置5047は、例えばメガネ型のウェアラブルデバイスやHMD(Head Mounted Display)等の、ユーザによって装着されるデバイスであり、これらのデバイスによって検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。また、入力装置5047は、ユーザの動きを検出可能なカメラを含み、当該カメラによって撮像された映像から検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。更に、入力装置5047は、ユーザの声を収音可能なマイクロフォンを含み、当該マイクロフォンを介して音声によって各種の入力が行われる。このように、入力装置5047が非接触で各種の情報を入力可能に構成されることにより、特に清潔域に属するユーザ(例えば術者5067)が、不潔域に属する機器を非接触で操作することが可能となる。また、ユーザは、所持している術具から手を離すことなく機器を操作することが可能となるため、ユーザの利便性が向上する。
 処置具制御装置5049は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具5021の駆動を制御する。気腹装置5051は、内視鏡5001による視野の確保及び術者の作業空間の確保の目的で、患者5071の体腔を膨らめるために、気腹チューブ5019を介して当該体腔内にガスを送り込む。レコーダ5053は、手術に関する各種の情報を記録可能な装置である。プリンタ5055は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 以下、内視鏡手術システム5000において特に特徴的な構成について、更に詳細に説明する。
 (支持アーム装置)
 支持アーム装置5027は、基台であるベース部5029と、ベース部5029から延伸するアーム部5031と、を備える。図示する例では、アーム部5031は、複数の関節部5033a、5033b、5033cと、関節部5033bによって連結される複数のリンク5035a、5035bと、から構成されているが、図18では、簡単のため、アーム部5031の構成を簡略化して図示している。実際には、アーム部5031が所望の自由度を有するように、関節部5033a~5033c及びリンク5035a、5035bの形状、数及び配置、並びに関節部5033a~5033cの回転軸の方向等が適宜設定され得る。例えば、アーム部5031は、好適に、6自由度以上の自由度を有するように構成され得る。これにより、アーム部5031の可動範囲内において内視鏡5001を自由に移動させることが可能になるため、所望の方向から内視鏡5001の鏡筒5003を患者5071の体腔内に挿入することが可能になる。
 関節部5033a~5033cにはアクチュエータが設けられており、関節部5033a~5033cは当該アクチュエータの駆動により所定の回転軸まわりに回転可能に構成されている。当該アクチュエータの駆動がアーム制御装置5045によって制御されることにより、各関節部5033a~5033cの回転角度が制御され、アーム部5031の駆動が制御される。これにより、内視鏡5001の位置及び姿勢の制御が実現され得る。この際、アーム制御装置5045は、力制御又は位置制御等、各種の公知の制御方式によってアーム部5031の駆動を制御することができる。
 例えば、術者5067が、入力装置5047(フットスイッチ5057を含む)を介して適宜操作入力を行うことにより、当該操作入力に応じてアーム制御装置5045によってアーム部5031の駆動が適宜制御され、内視鏡5001の位置及び姿勢が制御されてよい。当該制御により、アーム部5031の先端の内視鏡5001を任意の位置から任意の位置まで移動させた後、その移動後の位置で固定的に支持することができる。なお、アーム部5031は、いわゆるマスタースレイブ方式で操作されてもよい。この場合、アーム部5031は、手術室から離れた場所に設置される入力装置5047を介してユーザによって遠隔操作され得る。
 また、力制御が適用される場合には、アーム制御装置5045は、ユーザからの外力を受け、その外力にならってスムーズにアーム部5031が移動するように、各関節部5033a~5033cのアクチュエータを駆動させる、いわゆるパワーアシスト制御を行ってもよい。これにより、ユーザが直接アーム部5031に触れながらアーム部5031を移動させる際に、比較的軽い力で当該アーム部5031を移動させることができる。従って、より直感的に、より簡易な操作で内視鏡5001を移動させることが可能となり、ユーザの利便性を向上させることができる。
 ここで、一般的に、内視鏡下手術では、スコピストと呼ばれる医師によって内視鏡5001が支持されていた。これに対して、支持アーム装置5027を用いることにより、人手によらずに内視鏡5001の位置をより確実に固定することが可能になるため、術部の画像を安定的に得ることができ、手術を円滑に行うことが可能になる。
 なお、アーム制御装置5045は必ずしもカート5037に設けられなくてもよい。また、アーム制御装置5045は必ずしも1つの装置でなくてもよい。例えば、アーム制御装置5045は、支持アーム装置5027のアーム部5031の各関節部5033a~5033cにそれぞれ設けられてもよく、複数のアーム制御装置5045が互いに協働することにより、アーム部5031の駆動制御が実現されてもよい。
 (光源装置)
 光源装置5043は、内視鏡5001に術部を撮影する際の照射光を供給する。光源装置5043は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成される。このとき、RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置5043において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド5005の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置5043は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド5005の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置5043は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察するもの(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得るもの等が行われ得る。光源装置5043は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 (カメラヘッド及びCCU)
 図19を参照して、内視鏡5001のカメラヘッド5005及びCCU5039の機能についてより詳細に説明する。図19は、図18に示すカメラヘッド5005及びCCU5039の機能構成の一例を示すブロック図である。
 図19を参照すると、カメラヘッド5005は、その機能として、レンズユニット5007と、撮像部5009と、駆動部5011と、通信部5013と、カメラヘッド制御部5015と、を有する。また、CCU5039は、その機能として、通信部5059と、画像処理部5061と、制御部5063と、を有する。カメラヘッド5005とCCU5039とは、伝送ケーブル5065によって双方向に通信可能に接続されている。
 まず、カメラヘッド5005の機能構成について説明する。レンズユニット5007は、鏡筒5003との接続部に設けられる光学系である。鏡筒5003の先端から取り込まれた観察光は、カメラヘッド5005まで導光され、当該レンズユニット5007に入射する。レンズユニット5007は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。レンズユニット5007は、撮像部5009の撮像素子の受光面上に観察光を集光するように、その光学特性が調整されている。また、ズームレンズ及びフォーカスレンズは、撮像画像の倍率及び焦点の調整のため、その光軸上の位置が移動可能に構成される。
 撮像部5009は撮像素子によって構成され、レンズユニット5007の後段に配置される。レンズユニット5007を通過した観察光は、当該撮像素子の受光面に集光され、光電変換によって、観察像に対応した画像信号が生成される。撮像部5009によって生成された画像信号は、通信部5013に提供される。
 撮像部5009を構成する撮像素子としては、例えばCMOS(Complementary Metal Oxide Semiconductor)タイプのイメージセンサであり、Bayer配列を有するカラー撮影可能なものが用いられる。なお、当該撮像素子としては、例えば4K以上の高解像度の画像の撮影に対応可能なものが用いられてもよい。術部の画像が高解像度で得られることにより、術者5067は、当該術部の様子をより詳細に把握することができ、手術をより円滑に進行することが可能となる。
 また、撮像部5009を構成する撮像素子は、3D表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成される。3D表示が行われることにより、術者5067は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部5009が多板式で構成される場合には、各撮像素子に対応して、レンズユニット5007も複数系統設けられる。
 また、撮像部5009は、必ずしもカメラヘッド5005に設けられなくてもよい。例えば、撮像部5009は、鏡筒5003の内部に、対物レンズの直後に設けられてもよい。
 駆動部5011は、アクチュエータによって構成され、カメラヘッド制御部5015からの制御により、レンズユニット5007のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部5009による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部5013は、CCU5039との間で各種の情報を送受信するための通信装置によって構成される。通信部5013は、撮像部5009から得た画像信号をRAWデータとして伝送ケーブル5065を介してCCU5039に送信する。この際、術部の撮像画像を低レイテンシで表示するために、当該画像信号は光通信によって送信されることが好ましい。手術の際には、術者5067が撮像画像によって患部の状態を観察しながら手術を行うため、より安全で確実な手術のためには、術部の動画像が可能な限りリアルタイムに表示されることが求められるからである。光通信が行われる場合には、通信部5013には、電気信号を光信号に変換する光電変換モジュールが設けられる。画像信号は当該光電変換モジュールによって光信号に変換された後、伝送ケーブル5065を介してCCU5039に送信される。
 また、通信部5013は、CCU5039から、カメラヘッド5005の駆動を制御するための制御信号を受信する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。通信部5013は、受信した制御信号をカメラヘッド制御部5015に提供する。なお、CCU5039からの制御信号も、光通信によって伝送されてもよい。この場合、通信部5013には、光信号を電気信号に変換する光電変換モジュールが設けられ、制御信号は当該光電変換モジュールによって電気信号に変換された後、カメラヘッド制御部5015に提供される。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、取得された画像信号に基づいてCCU5039の制御部5063によって自動的に設定される。つまり、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡5001に搭載される。
 カメラヘッド制御部5015は、通信部5013を介して受信したCCU5039からの制御信号に基づいて、カメラヘッド5005の駆動を制御する。例えば、カメラヘッド制御部5015は、撮像画像のフレームレートを指定する旨の情報及び/又は撮像時の露光を指定する旨の情報に基づいて、撮像部5009の撮像素子の駆動を制御する。また、例えば、カメラヘッド制御部5015は、撮像画像の倍率及び焦点を指定する旨の情報に基づいて、駆動部5011を介してレンズユニット5007のズームレンズ及びフォーカスレンズを適宜移動させる。カメラヘッド制御部5015は、更に、鏡筒5003やカメラヘッド5005を識別するための情報を記憶する機能を備えてもよい。
 なお、レンズユニット5007や撮像部5009等の構成を、気密性及び防水性が高い密閉構造内に配置することで、カメラヘッド5005について、オートクレーブ滅菌処理に対する耐性を持たせることができる。
 次に、CCU5039の機能構成について説明する。通信部5059は、カメラヘッド5005との間で各種の情報を送受信するための通信装置によって構成される。通信部5059は、カメラヘッド5005から、伝送ケーブル5065を介して送信される画像信号を受信する。この際、上記のように、当該画像信号は好適に光通信によって送信され得る。この場合、光通信に対応して、通信部5059には、光信号を電気信号に変換する光電変換モジュールが設けられる。通信部5059は、電気信号に変換した画像信号を画像処理部5061に提供する。
 また、通信部5059は、カメラヘッド5005に対して、カメラヘッド5005の駆動を制御するための制御信号を送信する。当該制御信号も光通信によって送信されてよい。
 画像処理部5061は、カメラヘッド5005から送信されたRAWデータである画像信号に対して各種の画像処理を施す。当該画像処理としては、例えば現像処理、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理及び/又は手ブレ補正処理等)、並びに/又は拡大処理(電子ズーム処理)等、各種の公知の信号処理が含まれる。また、画像処理部5061は、AE、AF及びAWBを行うための、画像信号に対する検波処理を行う。
 画像処理部5061は、CPUやGPU等のプロセッサによって構成され、当該プロセッサが所定のプログラムに従って動作することにより、上述した画像処理や検波処理が行われ得る。なお、画像処理部5061が複数のGPUによって構成される場合には、画像処理部5061は、画像信号に係る情報を適宜分割し、これら複数のGPUによって並列的に画像処理を行う。
 制御部5063は、内視鏡5001による術部の撮像、及びその撮像画像の表示に関する各種の制御を行う。例えば、制御部5063は、カメラヘッド5005の駆動を制御するための制御信号を生成する。この際、撮像条件がユーザによって入力されている場合には、制御部5063は、当該ユーザによる入力に基づいて制御信号を生成する。あるいは、内視鏡5001にAE機能、AF機能及びAWB機能が搭載されている場合には、制御部5063は、画像処理部5061による検波処理の結果に応じて、最適な露出値、焦点距離及びホワイトバランスを適宜算出し、制御信号を生成する。
 また、制御部5063は、画像処理部5061によって画像処理が施された画像信号に基づいて、術部の画像を表示装置5041に表示させる。この際、制御部5063は、各種の画像認識技術を用いて術部画像内における各種の物体を認識する。例えば、制御部5063は、術部画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具5021使用時のミスト等を認識することができる。制御部5063は、表示装置5041に術部の画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させる。手術支援情報が重畳表示され、術者5067に提示されることにより、より安全かつ確実に手術を進めることが可能になる。
 カメラヘッド5005及びCCU5039を接続する伝送ケーブル5065は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル5065を用いて有線で通信が行われていたが、カメラヘッド5005とCCU5039との間の通信は無線で行われてもよい。両者の間の通信が無線で行われる場合には、伝送ケーブル5065を手術室内に敷設する必要がなくなるため、手術室内における医療スタッフの移動が当該伝送ケーブル5065によって妨げられる事態が解消され得る。
 以上、本開示に係る技術が適用され得る内視鏡手術システム5000の一例について説明した。なお、ここでは、一例として内視鏡手術システム5000について説明したが、本開示に係る技術が適用され得るシステムはかかる例に限定されない。例えば、本開示に係る技術は、検査用軟性内視鏡システムや顕微鏡手術システムに適用されてもよい。
 本開示に係る技術は、以上説明した構成のうち、内視鏡5001、CCU5039、及び表示装置5041等に好適に適用される。例えば内視鏡5001に搭載されたイメージセンサが図1を参照して説明したイメージセンサ11として機能する。またCCU5039の画像処理部5061が、図1を参照して説明した映像処理部13として機能する。そして表示装置5041が、図1を参照して説明した表示装置15となる。これら内視鏡5001、CCU5039、及び表示装置5041等に本開示に係る技術を適用することにより、表示装置5041に表示するピーキング表示の視認性を向上させることが可能となる。この結果、手術時のフォーカス合わせを容易に実現することが可能となり、安全かつ信頼性の高い手術を行うことが可能となる。
 また本開示に係る技術は、手術室システムに適用されてもよい。
 図20は、本開示に係る技術が適用され得る手術室システム5100の全体構成を概略的に示す図である。図20を参照すると、手術室システム5100は、手術室内に設置される装置群が視聴覚コントローラ(AV Controller)5107及び手術室制御装置5109を介して互いに連携可能に接続されることにより構成される。
 手術室には、様々な装置が設置され得る。図20では、一例として、内視鏡下手術のための各種の装置群5101と、手術室の天井に設けられ術者の手元を撮像するシーリングカメラ5187と、手術室の天井に設けられ手術室全体の様子を撮像する術場カメラ5189と、複数の表示装置5103A~5103Dと、レコーダ5105と、患者ベッド5183と、照明5191と、を図示している。
 ここで、これらの装置のうち、装置群5101は、後述する内視鏡手術システム5113に属するものであり、内視鏡や当該内視鏡によって撮像された画像を表示する表示装置等からなる。内視鏡手術システム5113に属する各装置は医療用機器とも呼称される。一方、表示装置5103A~5103D、レコーダ5105、患者ベッド5183及び照明5191は、内視鏡手術システム5113とは別個に、例えば手術室に備え付けられている装置である。これらの内視鏡手術システム5113に属さない各装置は非医療用機器とも呼称される。視聴覚コントローラ5107及び/又は手術室制御装置5109は、これら医療機器及び非医療機器の動作を互いに連携して制御する。
 視聴覚コントローラ5107は、医療機器及び非医療機器における画像表示に関する処理を、統括的に制御する。具体的には、手術室システム5100が備える装置のうち、装置群5101、シーリングカメラ5187及び術場カメラ5189は、手術中に表示すべき情報(以下、表示情報ともいう)を発信する機能を有する装置(以下、発信元の装置とも呼称する)であり得る。また、表示装置5103A~5103Dは、表示情報が出力される装置(以下、出力先の装置とも呼称する)であり得る。また、レコーダ5105は、発信元の装置及び出力先の装置の双方に該当する装置であり得る。視聴覚コントローラ5107は、発信元の装置及び出力先の装置の動作を制御し、発信元の装置から表示情報を取得するとともに、当該表示情報を出力先の装置に送信し、表示又は記録させる機能を有する。なお、表示情報とは、手術中に撮像された各種の画像や、手術に関する各種の情報(例えば、患者の身体情報や、過去の検査結果、術式についての情報等)等である。
 具体的には、視聴覚コントローラ5107には、装置群5101から、表示情報として、内視鏡によって撮像された患者の体腔内の術部の画像についての情報が送信され得る。また、シーリングカメラ5187から、表示情報として、当該シーリングカメラ5187によって撮像された術者の手元の画像についての情報が送信され得る。また、術場カメラ5189から、表示情報として、当該術場カメラ5189によって撮像された手術室全体の様子を示す画像についての情報が送信され得る。なお、手術室システム5100に撮像機能を有する他の装置が存在する場合には、視聴覚コントローラ5107は、表示情報として、当該他の装置からも当該他の装置によって撮像された画像についての情報を取得してもよい。
 あるいは、例えば、レコーダ5105には、過去に撮像されたこれらの画像についての情報が視聴覚コントローラ5107によって記録されている。視聴覚コントローラ5107は、表示情報として、レコーダ5105から当該過去に撮像された画像についての情報を取得することができる。なお、レコーダ5105には、手術に関する各種の情報も事前に記録されていてもよい。
 視聴覚コントローラ5107は、出力先の装置である表示装置5103A~5103Dの少なくともいずれかに、取得した表示情報(すなわち、手術中に撮影された画像や、手術に関する各種の情報)を表示させる。図示する例では、表示装置5103Aは手術室の天井から吊り下げられて設置される表示装置であり、表示装置5103Bは手術室の壁面に設置される表示装置であり、表示装置5103Cは手術室内の机上に設置される表示装置であり、表示装置5103Dは表示機能を有するモバイル機器(例えば、タブレットPC(Personal Computer))である。
 また、図20では図示を省略しているが、手術室システム5100には、手術室の外部の装置が含まれてもよい。手術室の外部の装置は、例えば、病院内外に構築されたネットワークに接続されるサーバや、医療スタッフが用いるPC、病院の会議室に設置されるプロジェクタ等であり得る。このような外部装置が病院外にある場合には、視聴覚コントローラ5107は、遠隔医療のために、テレビ会議システム等を介して、他の病院の表示装置に表示情報を表示させることもできる。
 手術室制御装置5109は、非医療機器における画像表示に関する処理以外の処理を、統括的に制御する。例えば、手術室制御装置5109は、患者ベッド5183、シーリングカメラ5187、術場カメラ5189及び照明5191の駆動を制御する。
 手術室システム5100には、集中操作パネル5111が設けられており、ユーザは、当該集中操作パネル5111を介して、視聴覚コントローラ5107に対して画像表示についての指示を与えたり、手術室制御装置5109に対して非医療機器の動作についての指示を与えることができる。集中操作パネル5111は、表示装置の表示面上にタッチパネルが設けられて構成される。
 図21は、集中操作パネル5111における操作画面の表示例を示す図である。図21では、一例として、手術室システム5100に、出力先の装置として、2つの表示装置が設けられている場合に対応する操作画面を示している。図21を参照すると、操作画面5193には、発信元選択領域5195と、プレビュー領域5197と、コントロール領域5201と、が設けられる。
 発信元選択領域5195には、手術室システム5100に備えられる発信元装置と、当該発信元装置が有する表示情報を表すサムネイル画面と、が紐付けられて表示される。ユーザは、表示装置に表示させたい表示情報を、発信元選択領域5195に表示されているいずれかの発信元装置から選択することができる。
 プレビュー領域5197には、出力先の装置である2つの表示装置(Monitor1、Monitor2)に表示される画面のプレビューが表示される。図示する例では、1つの表示装置において4つの画像がPinP表示されている。当該4つの画像は、発信元選択領域5195において選択された発信元装置から発信された表示情報に対応するものである。4つの画像のうち、1つはメイン画像として比較的大きく表示され、残りの3つはサブ画像として比較的小さく表示される。ユーザは、4つの画像が表示された領域を適宜選択することにより、メイン画像とサブ画像を入れ替えることができる。また、4つの画像が表示される領域の下部には、ステータス表示領域5199が設けられており、当該領域に手術に関するステータス(例えば、手術の経過時間や、患者の身体情報等)が適宜表示され得る。
 コントロール領域5201には、発信元の装置に対して操作を行うためのGUI(Graphical User Interface)部品が表示される発信元操作領域5203と、出力先の装置に対して操作を行うためのGUI部品が表示される出力先操作領域5205と、が設けられる。図示する例では、発信元操作領域5203には、撮像機能を有する発信元の装置におけるカメラに対して各種の操作(パン、チルト及びズーム)を行うためのGUI部品が設けられている。ユーザは、これらのGUI部品を適宜選択することにより、発信元の装置におけるカメラの動作を操作することができる。なお、図示は省略しているが、発信元選択領域5195において選択されている発信元の装置がレコーダである場合(すなわち、プレビュー領域5197において、レコーダに過去に記録された画像が表示されている場合)には、発信元操作領域5203には、当該画像の再生、再生停止、巻き戻し、早送り等の操作を行うためのGUI部品が設けられ得る。
 また、出力先操作領域5205には、出力先の装置である表示装置における表示に対する各種の操作(スワップ、フリップ、色調整、コントラスト調整、2D表示と3D表示の切り替え)を行うためのGUI部品が設けられている。ユーザは、これらのGUI部品を適宜選択することにより、表示装置における表示を操作することができる。
 なお、集中操作パネル5111に表示される操作画面は図示する例に限定されず、ユーザは、集中操作パネル5111を介して、手術室システム5100に備えられる、視聴覚コントローラ5107及び手術室制御装置5109によって制御され得る各装置に対する操作入力が可能であってよい。
 図22は、以上説明した手術室システムが適用された手術の様子の一例を示す図である。シーリングカメラ5187及び術場カメラ5189は、手術室の天井に設けられ、患者ベッド5183上の患者5185の患部に対して処置を行う術者(医者)5181の手元及び手術室全体の様子を撮影可能である。シーリングカメラ5187及び術場カメラ5189には、倍率調整機能、焦点距離調整機能、撮影方向調整機能等が設けられ得る。照明5191は、手術室の天井に設けられ、少なくとも術者5181の手元を照射する。照明5191は、その照射光量、照射光の波長(色)及び光の照射方向等を適宜調整可能であってよい。
 内視鏡手術システム5113、患者ベッド5183、シーリングカメラ5187、術場カメラ5189及び照明5191は、図20に示すように、視聴覚コントローラ5107及び手術室制御装置5109(図22では図示せず)を介して互いに連携可能に接続されている。手術室内には、集中操作パネル5111が設けられており、上述したように、ユーザは、当該集中操作パネル5111を介して、手術室内に存在するこれらの装置を適宜操作することが可能である。
 以下、内視鏡手術システム5113の構成について詳細に説明する。図示するように、内視鏡手術システム5113は、内視鏡5115と、その他の術具5131と、内視鏡5115を支持する支持アーム装置5141と、内視鏡下手術のための各種の装置が搭載されたカート5151と、から構成される。
 内視鏡手術では、腹壁を切って開腹する代わりに、トロッカ5139a~5139dと呼ばれる筒状の開孔器具が腹壁に複数穿刺される。そして、トロッカ5139a~5139dから、内視鏡5115の鏡筒5117や、その他の術具5131が患者5185の体腔内に挿入される。図示する例では、その他の術具5131として、気腹チューブ5133、エネルギー処置具5135及び鉗子5137が、患者5185の体腔内に挿入されている。また、エネルギー処置具5135は、高周波電流や超音波振動により、組織の切開及び剥離、又は血管の封止等を行う処置具である。ただし、図示する術具5131はあくまで一例であり、術具5131としては、例えば攝子、レトラクタ等、一般的に内視鏡下手術において用いられる各種の術具が用いられてよい。
 内視鏡5115によって撮影された患者5185の体腔内の術部の画像が、表示装置5155に表示される。術者5181は、表示装置5155に表示された術部の画像をリアルタイムで見ながら、エネルギー処置具5135や鉗子5137を用いて、例えば患部を切除する等の処置を行う。なお、図示は省略しているが、気腹チューブ5133、エネルギー処置具5135及び鉗子5137は、手術中に、術者5181又は助手等によって支持される。
 (支持アーム装置)
 支持アーム装置5141は、ベース部5143から延伸するアーム部5145を備える。図示する例では、アーム部5145は、関節部5147a、5147b、5147c、及びリンク5149a、5149bから構成されており、アーム制御装置5159からの制御により駆動される。アーム部5145によって内視鏡5115が支持され、その位置及び姿勢が制御される。これにより、内視鏡5115の安定的な位置の固定が実現され得る。
 (内視鏡)
 内視鏡5115は、先端から所定の長さの領域が患者5185の体腔内に挿入される鏡筒5117と、鏡筒5117の基端に接続されるカメラヘッド5119と、から構成される。図示する例では、硬性の鏡筒5117を有するいわゆる硬性鏡として構成される内視鏡5115を図示しているが、内視鏡5115は、軟性の鏡筒5117を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒5117の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡5115には光源装置5157が接続されており、当該光源装置5157によって生成された光が、鏡筒5117の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者5185の体腔内の観察対象に向かって照射される。なお、内視鏡5115は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド5119の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU:Camera Control Unit)5153に送信される。なお、カメラヘッド5119には、その光学系を適宜駆動させることにより、倍率及び焦点距離を調整する機能が搭載される。
 なお、例えば立体視(3D表示)等に対応するために、カメラヘッド5119には撮像素子が複数設けられてもよい。この場合、鏡筒5117の内部には、当該複数の撮像素子のそれぞれに観察光を導光するために、リレー光学系が複数系統設けられる。
 (カートに搭載される各種の装置)
 CCU5153は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡5115及び表示装置5155の動作を統括的に制御する。具体的には、CCU5153は、カメラヘッド5119から受け取った画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。CCU5153は、当該画像処理を施した画像信号を表示装置5155に提供する。また、CCU5153には、図20に示す視聴覚コントローラ5107が接続される。CCU5153は、画像処理を施した画像信号を視聴覚コントローラ5107にも提供する。また、CCU5153は、カメラヘッド5119に対して制御信号を送信し、その駆動を制御する。当該制御信号には、倍率や焦点距離等、撮像条件に関する情報が含まれ得る。当該撮像条件に関する情報は、入力装置5161を介して入力されてもよいし、上述した集中操作パネル5111を介して入力されてもよい。
 表示装置5155は、CCU5153からの制御により、当該CCU5153によって画像処理が施された画像信号に基づく画像を表示する。内視鏡5115が例えば4K(水平画素数3840×垂直画素数2160)又は8K(水平画素数7680×垂直画素数4320)等の高解像度の撮影に対応したものである場合、及び/又は3D表示に対応したものである場合には、表示装置5155としては、それぞれに対応して、高解像度の表示が可能なもの、及び/又は3D表示可能なものが用いられ得る。4K又は8K等の高解像度の撮影に対応したものである場合、表示装置5155として55インチ以上のサイズのものを用いることで一層の没入感が得られる。また、用途に応じて、解像度、サイズが異なる複数の表示装置5155が設けられてもよい。
 光源装置5157は、例えばLED(light emitting diode)等の光源から構成され、術部を撮影する際の照射光を内視鏡5115に供給する。
 アーム制御装置5159は、例えばCPU等のプロセッサによって構成され、所定のプログラムに従って動作することにより、所定の制御方式に従って支持アーム装置5141のアーム部5145の駆動を制御する。
 入力装置5161は、内視鏡手術システム5113に対する入力インタフェースである。ユーザは、入力装置5161を介して、内視鏡手術システム5113に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、入力装置5161を介して、患者の身体情報や、手術の術式についての情報等、手術に関する各種の情報を入力する。また、例えば、ユーザは、入力装置5161を介して、アーム部5145を駆動させる旨の指示や、内視鏡5115による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示、エネルギー処置具5135を駆動させる旨の指示等を入力する。
 入力装置5161の種類は限定されず、入力装置5161は各種の公知の入力装置であってよい。入力装置5161としては、例えば、マウス、キーボード、タッチパネル、スイッチ、フットスイッチ5171及び/又はレバー等が適用され得る。入力装置5161としてタッチパネルが用いられる場合には、当該タッチパネルは表示装置5155の表示面上に設けられてもよい。
 あるいは、入力装置5161は、例えばメガネ型のウェアラブルデバイスやHMD(Head Mounted Display)等の、ユーザによって装着されるデバイスであり、これらのデバイスによって検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。また、入力装置5161は、ユーザの動きを検出可能なカメラを含み、当該カメラによって撮像された映像から検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。更に、入力装置5161は、ユーザの声を収音可能なマイクロフォンを含み、当該マイクロフォンを介して音声によって各種の入力が行われる。このように、入力装置5161が非接触で各種の情報を入力可能に構成されることにより、特に清潔域に属するユーザ(例えば術者5181)が、不潔域に属する機器を非接触で操作することが可能となる。また、ユーザは、所持している術具から手を離すことなく機器を操作することが可能となるため、ユーザの利便性が向上する。
 処置具制御装置5163は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具5135の駆動を制御する。気腹装置5165は、内視鏡5115による視野の確保及び術者の作業空間の確保の目的で、患者5185の体腔を膨らめるために、気腹チューブ5133を介して当該体腔内にガスを送り込む。レコーダ5167は、手術に関する各種の情報を記録可能な装置である。プリンタ5169は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 以下、内視鏡手術システム5113において特に特徴的な構成について、更に詳細に説明する。
 (支持アーム装置)
 支持アーム装置5141は、基台であるベース部5143と、ベース部5143から延伸するアーム部5145と、を備える。図示する例では、アーム部5145は、複数の関節部5147a、5147b、5147cと、関節部5147bによって連結される複数のリンク5149a、5149bと、から構成されているが、図22では、簡単のため、アーム部5145の構成を簡略化して図示している。実際には、アーム部5145が所望の自由度を有するように、関節部5147a~5147c及びリンク5149a、5149bの形状、数及び配置、並びに関節部5147a~5147cの回転軸の方向等が適宜設定され得る。例えば、アーム部5145は、好適に、6自由度以上の自由度を有するように構成され得る。これにより、アーム部5145の可動範囲内において内視鏡5115を自由に移動させることが可能になるため、所望の方向から内視鏡5115の鏡筒5117を患者5185の体腔内に挿入することが可能になる。
 関節部5147a~5147cにはアクチュエータが設けられており、関節部5147a~5147cは当該アクチュエータの駆動により所定の回転軸まわりに回転可能に構成されている。当該アクチュエータの駆動がアーム制御装置5159によって制御されることにより、各関節部5147a~5147cの回転角度が制御され、アーム部5145の駆動が制御される。これにより、内視鏡5115の位置及び姿勢の制御が実現され得る。この際、アーム制御装置5159は、力制御又は位置制御等、各種の公知の制御方式によってアーム部5145の駆動を制御することができる。
 例えば、術者5181が、入力装置5161(フットスイッチ5171を含む)を介して適宜操作入力を行うことにより、当該操作入力に応じてアーム制御装置5159によってアーム部5145の駆動が適宜制御され、内視鏡5115の位置及び姿勢が制御されてよい。当該制御により、アーム部5145の先端の内視鏡5115を任意の位置から任意の位置まで移動させた後、その移動後の位置で固定的に支持することができる。なお、アーム部5145は、いわゆるマスタースレイブ方式で操作されてもよい。この場合、アーム部5145は、手術室から離れた場所に設置される入力装置5161を介してユーザによって遠隔操作され得る。
 また、力制御が適用される場合には、アーム制御装置5159は、ユーザからの外力を受け、その外力にならってスムーズにアーム部5145が移動するように、各関節部5147a~5147cのアクチュエータを駆動させる、いわゆるパワーアシスト制御を行ってもよい。これにより、ユーザが直接アーム部5145に触れながらアーム部5145を移動させる際に、比較的軽い力で当該アーム部5145を移動させることができる。従って、より直感的に、より簡易な操作で内視鏡5115を移動させることが可能となり、ユーザの利便性を向上させることができる。
 ここで、一般的に、内視鏡下手術では、スコピストと呼ばれる医師によって内視鏡5115が支持されていた。これに対して、支持アーム装置5141を用いることにより、人手によらずに内視鏡5115の位置をより確実に固定することが可能になるため、術部の画像を安定的に得ることができ、手術を円滑に行うことが可能になる。
 なお、アーム制御装置5159は必ずしもカート5151に設けられなくてもよい。また、アーム制御装置5159は必ずしも1つの装置でなくてもよい。例えば、アーム制御装置5159は、支持アーム装置5141のアーム部5145の各関節部5147a~5147cにそれぞれ設けられてもよく、複数のアーム制御装置5159が互いに協働することにより、アーム部5145の駆動制御が実現されてもよい。
 (光源装置)
 光源装置5157は、内視鏡5115に術部を撮影する際の照射光を供給する。光源装置5157は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成される。このとき、RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置5157において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド5119の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置5157は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド5119の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置5157は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察するもの(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得るもの等が行われ得る。光源装置5157は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 (カメラヘッド及びCCU)
 図23を参照して、内視鏡5115のカメラヘッド5119及びCCU5153の機能についてより詳細に説明する。図23は、図22に示すカメラヘッド5119及びCCU5153の機能構成の一例を示すブロック図である。
 図23を参照すると、カメラヘッド5119は、その機能として、レンズユニット5121と、撮像部5123と、駆動部5125と、通信部5127と、カメラヘッド制御部5129と、を有する。また、CCU5153は、その機能として、通信部5173と、画像処理部5175と、制御部5177と、を有する。カメラヘッド5119とCCU5153とは、伝送ケーブル5179によって双方向に通信可能に接続されている。
 まず、カメラヘッド5119の機能構成について説明する。レンズユニット5121は、鏡筒5117との接続部に設けられる光学系である。鏡筒5117の先端から取り込まれた観察光は、カメラヘッド5119まで導光され、当該レンズユニット5121に入射する。レンズユニット5121は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。レンズユニット5121は、撮像部5123の撮像素子の受光面上に観察光を集光するように、その光学特性が調整されている。また、ズームレンズ及びフォーカスレンズは、撮像画像の倍率及び焦点の調整のため、その光軸上の位置が移動可能に構成される。
 撮像部5123は撮像素子によって構成され、レンズユニット5121の後段に配置される。レンズユニット5121を通過した観察光は、当該撮像素子の受光面に集光され、光電変換によって、観察像に対応した画像信号が生成される。撮像部5123によって生成された画像信号は、通信部5127に提供される。
 撮像部5123を構成する撮像素子としては、例えばCMOS(Complementary Metal Oxide Semiconductor)タイプのイメージセンサであり、Bayer配列を有するカラー撮影可能なものが用いられる。なお、当該撮像素子としては、例えば4K以上の高解像度の画像の撮影に対応可能なものが用いられてもよい。術部の画像が高解像度で得られることにより、術者5181は、当該術部の様子をより詳細に把握することができ、手術をより円滑に進行することが可能となる。
 また、撮像部5123を構成する撮像素子は、3D表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成される。3D表示が行われることにより、術者5181は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部5123が多板式で構成される場合には、各撮像素子に対応して、レンズユニット5121も複数系統設けられる。
 また、撮像部5123は、必ずしもカメラヘッド5119に設けられなくてもよい。例えば、撮像部5123は、鏡筒5117の内部に、対物レンズの直後に設けられてもよい。
 駆動部5125は、アクチュエータによって構成され、カメラヘッド制御部5129からの制御により、レンズユニット5121のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部5123による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部5127は、CCU5153との間で各種の情報を送受信するための通信装置によって構成される。通信部5127は、撮像部5123から得た画像信号をRAWデータとして伝送ケーブル5179を介してCCU5153に送信する。この際、術部の撮像画像を低レイテンシで表示するために、当該画像信号は光通信によって送信されることが好ましい。手術の際には、術者5181が撮像画像によって患部の状態を観察しながら手術を行うため、より安全で確実な手術のためには、術部の動画像が可能な限りリアルタイムに表示されることが求められるからである。光通信が行われる場合には、通信部5127には、電気信号を光信号に変換する光電変換モジュールが設けられる。画像信号は当該光電変換モジュールによって光信号に変換された後、伝送ケーブル5179を介してCCU5153に送信される。
 また、通信部5127は、CCU5153から、カメラヘッド5119の駆動を制御するための制御信号を受信する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。通信部5127は、受信した制御信号をカメラヘッド制御部5129に提供する。なお、CCU5153からの制御信号も、光通信によって伝送されてもよい。この場合、通信部5127には、光信号を電気信号に変換する光電変換モジュールが設けられ、制御信号は当該光電変換モジュールによって電気信号に変換された後、カメラヘッド制御部5129に提供される。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、取得された画像信号に基づいてCCU5153の制御部5177によって自動的に設定される。つまり、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡5115に搭載される。
 カメラヘッド制御部5129は、通信部5127を介して受信したCCU5153からの制御信号に基づいて、カメラヘッド5119の駆動を制御する。例えば、カメラヘッド制御部5129は、撮像画像のフレームレートを指定する旨の情報及び/又は撮像時の露光を指定する旨の情報に基づいて、撮像部5123の撮像素子の駆動を制御する。また、例えば、カメラヘッド制御部5129は、撮像画像の倍率及び焦点を指定する旨の情報に基づいて、駆動部5125を介してレンズユニット5121のズームレンズ及びフォーカスレンズを適宜移動させる。カメラヘッド制御部5129は、更に、鏡筒5117やカメラヘッド5119を識別するための情報を記憶する機能を備えてもよい。
 なお、レンズユニット5121や撮像部5123等の構成を、気密性及び防水性が高い密閉構造内に配置することで、カメラヘッド5119について、オートクレーブ滅菌処理に対する耐性を持たせることができる。
 次に、CCU5153の機能構成について説明する。通信部5173は、カメラヘッド5119との間で各種の情報を送受信するための通信装置によって構成される。通信部5173は、カメラヘッド5119から、伝送ケーブル5179を介して送信される画像信号を受信する。この際、上記のように、当該画像信号は好適に光通信によって送信され得る。この場合、光通信に対応して、通信部5173には、光信号を電気信号に変換する光電変換モジュールが設けられる。通信部5173は、電気信号に変換した画像信号を画像処理部5175に提供する。
 また、通信部5173は、カメラヘッド5119に対して、カメラヘッド5119の駆動を制御するための制御信号を送信する。当該制御信号も光通信によって送信されてよい。
 画像処理部5175は、カメラヘッド5119から送信されたRAWデータである画像信号に対して各種の画像処理を施す。当該画像処理としては、例えば現像処理、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理及び/又は手ブレ補正処理等)、並びに/又は拡大処理(電子ズーム処理)等、各種の公知の信号処理が含まれる。また、画像処理部5175は、AE、AF及びAWBを行うための、画像信号に対する検波処理を行う。
 画像処理部5175は、CPUやGPU等のプロセッサによって構成され、当該プロセッサが所定のプログラムに従って動作することにより、上述した画像処理や検波処理が行われ得る。なお、画像処理部5175が複数のGPUによって構成される場合には、画像処理部5175は、画像信号に係る情報を適宜分割し、これら複数のGPUによって並列的に画像処理を行う。
 制御部5177は、内視鏡5115による術部の撮像、及びその撮像画像の表示に関する各種の制御を行う。例えば、制御部5177は、カメラヘッド5119の駆動を制御するための制御信号を生成する。この際、撮像条件がユーザによって入力されている場合には、制御部5177は、当該ユーザによる入力に基づいて制御信号を生成する。あるいは、内視鏡5115にAE機能、AF機能及びAWB機能が搭載されている場合には、制御部5177は、画像処理部5175による検波処理の結果に応じて、最適な露出値、焦点距離及びホワイトバランスを適宜算出し、制御信号を生成する。
 また、制御部5177は、画像処理部5175によって画像処理が施された画像信号に基づいて、術部の画像を表示装置5155に表示させる。この際、制御部5177は、各種の画像認識技術を用いて術部画像内における各種の物体を認識する。例えば、制御部5177は、術部画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具5135使用時のミスト等を認識することができる。制御部5177は、表示装置5155に術部の画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させる。手術支援情報が重畳表示され、術者5181に提示されることにより、より安全かつ確実に手術を進めることが可能になる。
 カメラヘッド5119及びCCU5153を接続する伝送ケーブル5179は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル5179を用いて有線で通信が行われていたが、カメラヘッド5119とCCU5153との間の通信は無線で行われてもよい。両者の間の通信が無線で行われる場合には、伝送ケーブル5179を手術室内に敷設する必要がなくなるため、手術室内における医療スタッフの移動が当該伝送ケーブル5179によって妨げられる事態が解消され得る。
 以上、本開示に係る技術が適用され得る手術室システム5100の一例について説明した。なお、ここでは、一例として手術室システム5100が適用される医療用システムが内視鏡手術システム5113である場合について説明したが、手術室システム5100の構成はかかる例に限定されない。例えば、手術室システム5100は、内視鏡手術システム5113に代えて、検査用軟性内視鏡システムや顕微鏡手術システムに適用されてもよい。
 本開示に係る技術は、以上説明した構成のうち、内視鏡5115、CCU5153、及び表示装置5155等に好適に適用される。例えば内視鏡5115に搭載されたイメージセンサが図1を参照して説明したイメージセンサ11として機能する。またCCU5153の画像処理部5175が、図1を参照して説明した映像処理部13として機能する。そして表示装置5155が、図1を参照して説明した表示装置15となる。これら内視鏡5155、CCU5153、及び表示装置5155等に本開示に係る技術を適用することにより、表示装置5155に表示するピーキング表示の視認性を向上させることが可能となる。この結果、手術時のフォーカス合わせを容易に実現することが可能となり、安全かつ信頼性の高い手術を行うことが可能となる。
 また本開示に係る技術は、患者の微細部位を拡大観察しながら行う、いわゆるマイクロサージェリーに用いられる顕微鏡手術システムに適用されてもよい。
 図24は、本開示に係る技術が適用され得る顕微鏡手術システム5300の概略的な構成の一例を示す図である。図24を参照すると、顕微鏡手術システム5300は、顕微鏡装置5301と、制御装置5317と、表示装置5319と、から構成される。なお、以下の顕微鏡手術システム5300についての説明において、「ユーザ」とは、術者及び助手等、顕微鏡手術システム5300を使用する任意の医療スタッフのことを意味する。
 顕微鏡装置5301は、観察対象(患者の術部)を拡大観察するための顕微鏡部5303と、顕微鏡部5303を先端で支持するアーム部5309と、アーム部5309の基端を支持するベース部5315と、を有する。
 顕微鏡部5303は、略円筒形状の筒状部5305と、当該筒状部5305の内部に設けられる撮像部(図示せず)と、筒状部5305の外周の一部領域に設けられる操作部5307と、から構成される。顕微鏡部5303は、撮像部によって電子的に撮像画像を撮像する、電子撮像式の顕微鏡部(いわゆるビデオ式の顕微鏡部)である。
 筒状部5305の下端の開口面には、内部の撮像部を保護するカバーガラスが設けられる。観察対象からの光(以下、観察光ともいう)は、当該カバーガラスを通過して、筒状部5305の内部の撮像部に入射する。なお、筒状部5305の内部には例えばLED(Light Emitting Diode)等からなる光源が設けられてもよく、撮像時には、当該カバーガラスを介して、当該光源から観察対象に対して光が照射されてもよい。
 撮像部は、観察光を集光する光学系と、当該光学系が集光した観察光を受光する撮像素子と、から構成される。当該光学系は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成され、その光学特性は、観察光を撮像素子の受光面上に結像するように調整されている。当該撮像素子は、観察光を受光して光電変換することにより、観察光に対応した信号、すなわち観察像に対応した画像信号を生成する。当該撮像素子としては、例えばBayer配列を有するカラー撮影可能なものが用いられる。当該撮像素子は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ又はCCD(Charge Coupled Device)イメージセンサ等、各種の公知の撮像素子であってよい。撮像素子によって生成された画像信号は、RAWデータとして制御装置5317に送信される。ここで、この画像信号の送信は、好適に光通信によって行われてもよい。手術現場では、術者が撮像画像によって患部の状態を観察しながら手術を行うため、より安全で確実な手術のためには、術部の動画像が可能な限りリアルタイムに表示されることが求められるからである。光通信で画像信号が送信されることにより、低レイテンシで撮像画像を表示することが可能となる。
 なお、撮像部は、その光学系のズームレンズ及びフォーカスレンズを光軸に沿って移動させる駆動機構を有してもよい。当該駆動機構によってズームレンズ及びフォーカスレンズが適宜移動されることにより、撮像画像の拡大倍率及び撮像時の焦点距離が調整され得る。また、撮像部には、AE(Auto Exposure)機能やAF(Auto Focus)機能等、一般的に電子撮像式の顕微鏡部に備えられ得る各種の機能が搭載されてもよい。
 また、撮像部は、1つの撮像素子を有するいわゆる単板式の撮像部として構成されてもよいし、複数の撮像素子を有するいわゆる多板式の撮像部として構成されてもよい。撮像部が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、当該撮像部は、立体視(3D表示)に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、当該撮像部が多板式で構成される場合には、各撮像素子に対応して、光学系も複数系統が設けられ得る。
 操作部5307は、例えば十字レバー又はスイッチ等によって構成され、ユーザの操作入力を受け付ける入力手段である。例えば、ユーザは、操作部5307を介して、観察像の拡大倍率及び観察対象までの焦点距離を変更する旨の指示を入力することができる。当該指示に従って撮像部の駆動機構がズームレンズ及びフォーカスレンズを適宜移動させることにより、拡大倍率及び焦点距離が調整され得る。また、例えば、ユーザは、操作部5307を介して、アーム部5309の動作モード(後述するオールフリーモード及び固定モード)を切り替える旨の指示を入力することができる。なお、ユーザが顕微鏡部5303を移動させようとする場合には、当該ユーザは筒状部5305を握るように把持した状態で当該顕微鏡部5303を移動させる様態が想定される。従って、操作部5307は、ユーザが筒状部5305を移動させている間でも操作可能なように、ユーザが筒状部5305を握った状態で指によって容易に操作しやすい位置に設けられることが好ましい。
 アーム部5309は、複数のリンク(第1リンク5313a~第6リンク5313f)が、複数の関節部(第1関節部5311a~第6関節部5311f)によって互いに回動可能に連結されることによって構成される。
 第1関節部5311aは、略円柱形状を有し、その先端(下端)で、顕微鏡部5303の筒状部5305の上端を、当該筒状部5305の中心軸と平行な回転軸(第1軸O1)まわりに回動可能に支持する。ここで、第1関節部5311aは、第1軸O1が顕微鏡部5303の撮像部の光軸と一致するように構成され得る。これにより、第1軸O1まわりに顕微鏡部5303を回動させることにより、撮像画像を回転させるように視野を変更することが可能になる。
 第1リンク5313aは、先端で第1関節部5311aを固定的に支持する。具体的には、第1リンク5313aは略L字形状を有する棒状の部材であり、その先端側の一辺が第1軸O1と直交する方向に延伸しつつ、当該一辺の端部が第1関節部5311aの外周の上端部に当接するように、第1関節部5311aに接続される。第1リンク5313aの略L字形状の基端側の他辺の端部に第2関節部5311bが接続される。
 第2関節部5311bは、略円柱形状を有し、その先端で、第1リンク5313aの基端を、第1軸O1と直交する回転軸(第2軸O2)まわりに回動可能に支持する。第2関節部5311bの基端には、第2リンク5313bの先端が固定的に接続される。
 第2リンク5313bは、略L字形状を有する棒状の部材であり、その先端側の一辺が第2軸O2と直交する方向に延伸しつつ、当該一辺の端部が第2関節部5311bの基端に固定的に接続される。第2リンク5313bの略L字形状の基端側の他辺には、第3関節部5311cが接続される。
 第3関節部5311cは、略円柱形状を有し、その先端で、第2リンク5313bの基端を、第1軸O1及び第2軸O2と互いに直交する回転軸(第3軸O3)まわりに回動可能に支持する。第3関節部5311cの基端には、第3リンク5313cの先端が固定的に接続される。第2軸O2及び第3軸O3まわりに顕微鏡部5303を含む先端側の構成を回動させることにより、水平面内での顕微鏡部5303の位置を変更するように、当該顕微鏡部5303を移動させることができる。つまり、第2軸O2及び第3軸O3まわりの回転を制御することにより、撮像画像の視野を平面内で移動させることが可能になる。
 第3リンク5313cは、その先端側が略円柱形状を有するように構成されており、当該円柱形状の先端に、第3関節部5311cの基端が、両者が略同一の中心軸を有するように、固定的に接続される。第3リンク5313cの基端側は角柱形状を有し、その端部に第4関節部5311dが接続される。
 第4関節部5311dは、略円柱形状を有し、その先端で、第3リンク5313cの基端を、第3軸O3と直交する回転軸(第4軸O4)まわりに回動可能に支持する。第4関節部5311dの基端には、第4リンク5313dの先端が固定的に接続される。
 第4リンク5313dは、略直線状に延伸する棒状の部材であり、第4軸O4と直交するように延伸しつつ、その先端の端部が第4関節部5311dの略円柱形状の側面に当接するように、第4関節部5311dに固定的に接続される。第4リンク5313dの基端には、第5関節部5311eが接続される。
 第5関節部5311eは、略円柱形状を有し、その先端側で、第4リンク5313dの基端を、第4軸O4と平行な回転軸(第5軸O5)まわりに回動可能に支持する。第5関節部5311eの基端には、第5リンク5313eの先端が固定的に接続される。第4軸O4及び第5軸O5は、顕微鏡部5303を上下方向に移動させ得る回転軸である。第4軸O4及び第5軸O5まわりに顕微鏡部5303を含む先端側の構成を回動させることにより、顕微鏡部5303の高さ、すなわち顕微鏡部5303と観察対象との距離を調整することができる。
 第5リンク5313eは、一辺が鉛直方向に延伸するとともに他辺が水平方向に延伸する略L字形状を有する第1の部材と、当該第1の部材の水平方向に延伸する部位から鉛直下向きに延伸する棒状の第2の部材と、が組み合わされて構成される。第5リンク5313eの第1の部材の鉛直方向に延伸する部位の上端近傍に、第5関節部5311eの基端が固定的に接続される。第5リンク5313eの第2の部材の基端(下端)には、第6関節部5311fが接続される。
 第6関節部5311fは、略円柱形状を有し、その先端側で、第5リンク5313eの基端を、鉛直方向と平行な回転軸(第6軸O6)まわりに回動可能に支持する。第6関節部5311fの基端には、第6リンク5313fの先端が固定的に接続される。
 第6リンク5313fは鉛直方向に延伸する棒状の部材であり、その基端はベース部5315の上面に固定的に接続される。
 第1関節部5311a~第6関節部5311fの回転可能範囲は、顕微鏡部5303が所望の動きを可能であるように適宜設定されている。これにより、以上説明した構成を有するアーム部5309においては、顕微鏡部5303の動きに関して、並進3自由度及び回転3自由度の計6自由度の動きが実現され得る。このように、顕微鏡部5303の動きに関して6自由度が実現されるようにアーム部5309を構成することにより、アーム部5309の可動範囲内において顕微鏡部5303の位置及び姿勢を自由に制御することが可能になる。従って、あらゆる角度から術部を観察することが可能となり、手術をより円滑に実行することができる。
 なお、図示するアーム部5309の構成はあくまで一例であり、アーム部5309を構成するリンクの数及び形状(長さ)、並びに関節部の数、配置位置及び回転軸の方向等は、所望の自由度が実現され得るように適宜設計されてよい。例えば、上述したように、顕微鏡部5303を自由に動かすためには、アーム部5309は6自由度を有するように構成されることが好ましいが、アーム部5309はより大きな自由度(すなわち、冗長自由度)を有するように構成されてもよい。冗長自由度が存在する場合には、アーム部5309においては、顕微鏡部5303の位置及び姿勢が固定された状態で、アーム部5309の姿勢を変更することが可能となる。従って、例えば表示装置5319を見る術者の視界にアーム部5309が干渉しないように当該アーム部5309の姿勢を制御する等、術者にとってより利便性の高い制御が実現され得る。
 ここで、第1関節部5311a~第6関節部5311fには、モータ等の駆動機構、及び各関節部における回転角度を検出するエンコーダ等が搭載されたアクチュエータが設けられ得る。そして、第1関節部5311a~第6関節部5311fに設けられる各アクチュエータの駆動が制御装置5317によって適宜制御されることにより、アーム部5309の姿勢、すなわち顕微鏡部5303の位置及び姿勢が制御され得る。具体的には、制御装置5317は、エンコーダによって検出された各関節部の回転角度についての情報に基づいて、アーム部5309の現在の姿勢、並びに顕微鏡部5303の現在の位置及び姿勢を把握することができる。制御装置5317は、把握したこれらの情報を用いて、ユーザからの操作入力に応じた顕微鏡部5303の移動を実現するような各関節部に対する制御値(例えば、回転角度又は発生トルク等)を算出し、当該制御値に応じて各関節部の駆動機構を駆動させる。なお、この際、制御装置5317によるアーム部5309の制御方式は限定されず、力制御又は位置制御等、各種の公知の制御方式が適用されてよい。
 例えば、術者が、図示しない入力装置を介して適宜操作入力を行うことにより、当該操作入力に応じて制御装置5317によってアーム部5309の駆動が適宜制御され、顕微鏡部5303の位置及び姿勢が制御されてよい。当該制御により、顕微鏡部5303を任意の位置から任意の位置まで移動させた後、その移動後の位置で固定的に支持することができる。なお、当該入力装置としては、術者の利便性を考慮して、例えばフットスイッチ等、術者が手に術具を有していても操作可能なものが適用されることが好ましい。また、ウェアラブルデバイスや手術室内に設けられるカメラを用いたジェスチャ検出や視線検出に基づいて、非接触で操作入力が行われてもよい。これにより、清潔域に属するユーザであっても、不潔域に属する機器をより自由度高く操作することが可能になる。あるいは、アーム部5309は、いわゆるマスタースレイブ方式で操作されてもよい。この場合、アーム部5309は、手術室から離れた場所に設置される入力装置を介してユーザによって遠隔操作され得る。
 また、力制御が適用される場合には、ユーザからの外力を受け、その外力にならってスムーズにアーム部5309が移動するように第1関節部5311a~第6関節部5311fのアクチュエータが駆動される、いわゆるパワーアシスト制御が行われてもよい。これにより、ユーザが、顕微鏡部5303を把持して直接その位置を移動させようとする際に、比較的軽い力で顕微鏡部5303を移動させることができる。従って、より直感的に、より簡易な操作で顕微鏡部5303を移動させることが可能となり、ユーザの利便性を向上させることができる。
 また、アーム部5309は、ピボット動作をするようにその駆動が制御されてもよい。ここで、ピボット動作とは、顕微鏡部5303の光軸が空間上の所定の点(以下、ピボット点という)を常に向くように、顕微鏡部5303を移動させる動作である。ピボット動作によれば、同一の観察位置を様々な方向から観察することが可能となるため、より詳細な患部の観察が可能となる。なお、顕微鏡部5303が、その焦点距離を調整不可能に構成される場合には、顕微鏡部5303とピボット点との距離が固定された状態でピボット動作が行われることが好ましい。この場合には、顕微鏡部5303とピボット点との距離を、顕微鏡部5303の固定的な焦点距離に調整しておけばよい。これにより、顕微鏡部5303は、ピボット点を中心とする焦点距離に対応する半径を有する半球面(図24に概略的に図示する)上を移動することとなり、観察方向を変更しても鮮明な撮像画像が得られることとなる。一方、顕微鏡部5303が、その焦点距離を調整可能に構成される場合には、顕微鏡部5303とピボット点との距離が可変な状態でピボット動作が行われてもよい。この場合には、例えば、制御装置5317は、エンコーダによって検出された各関節部の回転角度についての情報に基づいて、顕微鏡部5303とピボット点との距離を算出し、その算出結果に基づいて顕微鏡部5303の焦点距離を自動で調整してもよい。あるいは、顕微鏡部5303にAF機能が設けられる場合であれば、ピボット動作によって顕微鏡部5303とピボット点との距離が変化するごとに、当該AF機能によって自動で焦点距離の調整が行われてもよい。
 また、第1関節部5311a~第6関節部5311fには、その回転を拘束するブレーキが設けられてもよい。当該ブレーキの動作は、制御装置5317によって制御され得る。例えば、顕微鏡部5303の位置及び姿勢を固定したい場合には、制御装置5317は各関節部のブレーキを作動させる。これにより、アクチュエータを駆動させなくてもアーム部5309の姿勢、すなわち顕微鏡部5303の位置及び姿勢が固定され得るため、消費電力を低減することができる。顕微鏡部5303の位置及び姿勢を移動したい場合には、制御装置5317は、各関節部のブレーキを解除し、所定の制御方式に従ってアクチュエータを駆動させればよい。
 このようなブレーキの動作は、上述した操作部5307を介したユーザによる操作入力に応じて行われ得る。ユーザは、顕微鏡部5303の位置及び姿勢を移動したい場合には、操作部5307を操作し、各関節部のブレーキを解除させる。これにより、アーム部5309の動作モードが、各関節部における回転を自由に行えるモード(オールフリーモード)に移行する。また、ユーザは、顕微鏡部5303の位置及び姿勢を固定したい場合には、操作部5307を操作し、各関節部のブレーキを作動させる。これにより、アーム部5309の動作モードが、各関節部における回転が拘束されたモード(固定モード)に移行する。
 制御装置5317は、顕微鏡装置5301及び表示装置5319の動作を制御することにより、顕微鏡手術システム5300の動作を統括的に制御する。例えば、制御装置5317は、所定の制御方式に従って第1関節部5311a~第6関節部5311fのアクチュエータを動作させることにより、アーム部5309の駆動を制御する。また、例えば、制御装置5317は、第1関節部5311a~第6関節部5311fのブレーキの動作を制御することにより、アーム部5309の動作モードを変更する。また、例えば、制御装置5317は、顕微鏡装置5301の顕微鏡部5303の撮像部によって取得された画像信号に各種の信号処理を施すことにより、表示用の画像データを生成するとともに、当該画像データを表示装置5319に表示させる。当該信号処理では、例えば現像処理(デモザイク処理)、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理及び/又は手ブレ補正処理等)及び/又は拡大処理(すなわち、電子ズーム処理)等、各種の公知の信号処理が行われてよい。
 なお、制御装置5317と顕微鏡部5303との通信、及び制御装置5317と第1関節部5311a~第6関節部5311fとの通信は、有線通信であってもよいし無線通信であってもよい。有線通信の場合には、電気信号による通信が行われてもよいし、光通信が行われてもよい。この場合、有線通信に用いられる伝送用のケーブルは、その通信方式に応じて電気信号ケーブル、光ファイバ、又はこれらの複合ケーブルとして構成され得る。一方、無線通信の場合には、手術室内に伝送ケーブルを敷設する必要がなくなるため、当該伝送ケーブルによって医療スタッフの手術室内の移動が妨げられる事態が解消され得る。
 制御装置5317は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等のプロセッサ、又はプロセッサとメモリ等の記憶素子が混載されたマイコン若しくは制御基板等であり得る。制御装置5317のプロセッサが所定のプログラムに従って動作することにより、上述した各種の機能が実現され得る。なお、図示する例では、制御装置5317は、顕微鏡装置5301と別個の装置として設けられているが、制御装置5317は、顕微鏡装置5301のベース部5315の内部に設置され、顕微鏡装置5301と一体的に構成されてもよい。あるいは、制御装置5317は、複数の装置によって構成されてもよい。例えば、顕微鏡部5303や、アーム部5309の第1関節部5311a~第6関節部5311fにそれぞれマイコンや制御基板等が配設され、これらが互いに通信可能に接続されることにより、制御装置5317と同様の機能が実現されてもよい。
 表示装置5319は、手術室内に設けられ、制御装置5317からの制御により、当該制御装置5317によって生成された画像データに対応する画像を表示する。つまり、表示装置5319には、顕微鏡部5303によって撮影された術部の画像が表示される。なお、表示装置5319は、術部の画像に代えて、又は術部の画像とともに、例えば患者の身体情報や手術の術式についての情報等、手術に関する各種の情報を表示してもよい。この場合、表示装置5319の表示は、ユーザによる操作によって適宜切り替えられてよい。あるいは、表示装置5319は複数設けられてもよく、複数の表示装置5319のそれぞれに、術部の画像や手術に関する各種の情報が、それぞれ表示されてもよい。なお、表示装置5319としては、液晶ディスプレイ装置又はEL(Electro Luminescence)ディスプレイ装置等、各種の公知の表示装置が適用されてよい。
 図25は、図24に示す顕微鏡手術システム5300を用いた手術の様子を示す図である。図25では、術者5321が、顕微鏡手術システム5300を用いて、患者ベッド5323上の患者5325に対して手術を行っている様子を概略的に示している。なお、図25では、簡単のため、顕微鏡手術システム5300の構成のうち制御装置5317の図示を省略するとともに、顕微鏡装置5301を簡略化して図示している。
 図2Cに示すように、手術時には、顕微鏡手術システム5300を用いて、顕微鏡装置5301によって撮影された術部の画像が、手術室の壁面に設置される表示装置5319に拡大表示される。表示装置5319は、術者5321と対向する位置に設置されており、術者5321は、表示装置5319に映し出された映像によって術部の様子を観察しながら、例えば患部の切除等、当該術部に対して各種の処置を行う。
 以上、本開示に係る技術が適用され得る顕微鏡手術システム5300の一例について説明した。なお、ここでは、一例として顕微鏡手術システム5300について説明したが、本開示に係る技術が適用され得るシステムはかかる例に限定されない。例えば、顕微鏡装置5301は、その先端に顕微鏡部5303に代えて他の観察装置や他の術具を支持する、支持アーム装置としても機能し得る。当該他の観察装置としては、例えば内視鏡が適用され得る。また、当該他の術具としては、鉗子、攝子、気腹のための気腹チューブ、又は焼灼によって組織の切開や血管の封止を行うエネルギー処置具等が適用され得る。これらの観察装置や術具を支持アーム装置によって支持することにより、医療スタッフが人手で支持する場合に比べて、より安定的に位置を固定することが可能となるとともに、医療スタッフの負担を軽減することが可能となる。本開示に係る技術は、このような顕微鏡部以外の構成を支持する支持アーム装置に適用されてもよい。
 本開示に係る技術は、以上説明した構成のうち、顕微鏡部5303、制御装置5317、表示装置5319等に好適に適用される。例えば顕微鏡部5303に搭載されたイメージセンサが図1を参照して説明したイメージセンサ11として機能する。また制御装置5317が、図1を参照して説明した映像処理部13として機能する。そして表示装置5319が、図1を参照して説明した表示装置15となる。これら顕微鏡部5303、制御装置5317、表示装置5319等に本開示に係る技術を適用することにより、表示装置5319に表示するピーキング表示の視認性を向上させることが可能となる。この結果、手術時のフォーカス合わせを容易に実現することが可能となり、安全かつ信頼性の高い手術を行うことが可能となる。
 以上説明した本技術に係る特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。すなわち各実施形態で説明した種々の特徴部分は、各実施形態の区別なく、任意に組み合わされてもよい。また上記で記載した種々の効果は、あくまで例示であって限定されるものではなく、また他の効果が発揮されてもよい。
 本開示において、「同じ」「等しい」「直交」等は、「実質的に同じ」「実質的に等しい」「実質的に直交」等を含む概念とする。例えば「完全に同じ」「完全に等しい」「完全に直交」等を基準とした所定の範囲(例えば±10%の範囲)に含まれる状態も含まれる。
(1)被写体を撮像した撮像画像を生成する画像生成部と、
 前記生成された撮像画像に含まれるエッジ部分を検出するエッジ検出部と、
 前記検出されたエッジ部分ごとに、前記撮像画像における前記エッジ部分に関する色情報に基づいて、前記エッジ部分を強調する強調表示の色を制御する色制御部と
 を具備する撮像装置。
(2)(1)に記載の撮像装置であって、
 前記色制御部は、前記エッジ部分に関する色情報により表されるエッジ色と、前記強調表示の色との色の差が大きくなるように、前記強調表示の色を制御する
 撮像装置。
(3)(2)に記載の撮像装置であって、
 前記色制御部は、前記エッジ色と、前記強調表示の色とが、色相面又は輝度方向において離れた色となるように、前記強調表示の色を制御する
 撮像装置。
(4)(2)又は(3)に記載の撮像装置であって、
 前記色制御部は、前記強調表示の色を複数の色候補から設定する
 撮像装置。
(5)(4)に記載の撮像装置であって、
 前記複数の色候補は、有彩色の色候補を含み、
 前記色制御部は、前記複数の色候補のうち、前記エッジ色の色相から最も離れた色相を有する色候補を前記強調表示の色に設定する
 撮像装置。
(6)(5)に記載の撮像装置であって、
 前記複数の色候補は、第1の色候補と、前記第1の色候補とは色相の異なる第2の色候補とを含む
 撮像装置。
(7)(6)に記載の撮像装置であって、
 前記第1及び前記第2の色候補は、互いに補色となるように設定される
 撮像装置。
(8)(4)から(7)のうちいずれか1つに記載の撮像装置であって、
 前記複数の色候補は、無彩色の色候補を含み、
 前記色制御部は、前記複数の色候補のうち、前記エッジ色の輝度から最も離れた輝度を有する色候補を前記強調表示の色に設定する
 撮像装置。
(9)(8)に記載の撮像装置であって、
 前記複数の色候補は、黒色と白色とを含み、
 前記色制御部は、前記エッジ色の輝度が所定の閾値よりも大きい場合に前記強調表示の色を前記黒色に設定し、前記エッジ色の輝度が前記所定の閾値よりも小さい場合に前記強調表示の色を前記白色に設定する
 撮像装置。
(10)(4)から(9)のうちいずれか1つに記載の撮像装置であって、
 前記複数の色候補は、ユーザにより設定される
 撮像装置。
(11)(4)から(10)のうちいずれか1つに記載の撮像装置であって、
 前記複数の色候補は、前記被写体に応じて設定される
 撮像装置。
(12)(2)から(11)のうちいずれか1つに記載の撮像装置であって、
 前記エッジ検出部は、前記エッジ部分の画素位置を検出し、
 前記色制御部は、前記検出された画素位置ごとに前記強調表示の色を設定する
 撮像装置。
(13)(12)に記載の撮像装置であって、
 前記エッジ部分に関する色情報は、前記エッジ部分の画素位置を囲む所定の画素領域に含まれる参照画素の画素情報を含み、
 前記色制御部は、前記参照画素の画素情報に基づいて、前記エッジ色の色相又は前記エッジ色の輝度を算出する
 撮像装置。
(14)(13)に記載の撮像装置であって、
 前記色制御部は、前記エッジ色の色相として、前記参照画素の平均色相を算出する
 撮像装置。
(15)(13)又は(14)に記載の撮像装置であって、
 前記所定の画素領域は、前記被写体に応じて設定される
 撮像装置。
(16)(1)から(15)のうちいずれか1つに記載の撮像装置であって、
 前記色制御部は、前記撮像画像の前記エッジ部分が前記強調表示の色で強調されたピーキング画像を生成する
 撮像装置。
(17)(16)に記載の撮像装置であって、
 前記ピーキング画像は、前記エッジ部分とは異なる部分の色が、前記撮像画像と同じ色に設定される
 撮像装置。
(18)(16)又は(17)に記載の撮像装置であって、
 前記色制御部は、前記ピーキング画像の前記エッジ部分の表示が動的に変化するように、前記強調表示の色を制御する
 撮像装置。
(19)被写体を撮像した撮像画像を生成し、
 前記生成された撮像画像に含まれるエッジ部分を検出し、
 前記検出されたエッジ部分ごとに、前記撮像画像における前記エッジ部分に関する色情報に基づいて、前記エッジ部分を強調する強調表示の色を制御する
 ことをコンピュータシステムが実行する撮像方法。
(20)被写体を撮像した撮像画像を生成するステップと、
 前記生成された撮像画像に含まれるエッジ部分を検出するステップと、
 前記検出されたエッジ部分ごとに、前記撮像画像における前記エッジ部分に関する色情報に基づいて、前記エッジ部分を強調する強調表示の色を制御するステップと
 をコンピュータシステムに実行させるプログラム。
 1…被写体
 11…イメージセンサ
 13…映像処理部
 25…元画像
 30…カメラ信号処理部
 31…ピーキング検出部
 32…重畳色設定部
 33…重畳色選択部
 34…合成部
 40、240…ピーキング画像
 41…エッジ部分
 42、42a、42b…強調表示
 43…色候補
 43a…第1の色候補
 43b…第2の色候補
 44、44a、44b…エッジ色
 47…参照画素
 51…所定の画素領域
 100…撮像装置

Claims (20)

  1.  被写体を撮像した撮像画像を生成する画像生成部と、
     前記生成された撮像画像に含まれるエッジ部分を検出するエッジ検出部と、
     前記検出されたエッジ部分ごとに、前記撮像画像における前記エッジ部分に関する色情報に基づいて、前記エッジ部分を強調する強調表示の色を制御する色制御部と
     を具備する撮像装置。
  2.  請求項1に記載の撮像装置であって、
     前記色制御部は、前記エッジ部分に関する色情報により表されるエッジ色と、前記強調表示の色との色の差が大きくなるように、前記強調表示の色を制御する
     撮像装置。
  3.  請求項2に記載の撮像装置であって、
     前記色制御部は、前記エッジ色と、前記強調表示の色とが、色相面又は輝度方向において離れた色となるように、前記強調表示の色を制御する
     撮像装置。
  4.  請求項2に記載の撮像装置であって、
     前記色制御部は、前記強調表示の色を複数の色候補から設定する
     撮像装置。
  5.  請求項4に記載の撮像装置であって、
     前記複数の色候補は、有彩色の色候補を含み、
     前記色制御部は、前記複数の色候補のうち、前記エッジ色の色相から最も離れた色相を有する色候補を前記強調表示の色に設定する
     撮像装置。
  6.  請求項5に記載の撮像装置であって、
     前記複数の色候補は、第1の色候補と、前記第1の色候補とは色相の異なる第2の色候補とを含む
     撮像装置。
  7.  請求項6に記載の撮像装置であって、
     前記第1及び前記第2の色候補は、互いに補色となるように設定される
     撮像装置。
  8.  請求項4に記載の撮像装置であって、
     前記複数の色候補は、無彩色の色候補を含み、
     前記色制御部は、前記複数の色候補のうち、前記エッジ色の輝度から最も離れた輝度を有する色候補を前記強調表示の色に設定する
     撮像装置。
  9.  請求項8に記載の撮像装置であって、
     前記複数の色候補は、黒色と白色とを含み、
     前記色制御部は、前記エッジ色の輝度が所定の閾値よりも大きい場合に前記強調表示の色を前記黒色に設定し、前記エッジ色の輝度が前記所定の閾値よりも小さい場合に前記強調表示の色を前記白色に設定する
     撮像装置。
  10.  請求項4に記載の撮像装置であって、
     前記複数の色候補は、ユーザにより設定される
     撮像装置。
  11.  請求項4に記載の撮像装置であって、
     前記複数の色候補は、前記被写体に応じて設定される
     撮像装置。
  12.  請求項2に記載の撮像装置であって、
     前記エッジ検出部は、前記エッジ部分の画素位置を検出し、
     前記色制御部は、前記検出された画素位置ごとに前記強調表示の色を設定する
     撮像装置。
  13.  請求項12に記載の撮像装置であって、
     前記エッジ部分に関する色情報は、前記エッジ部分の画素位置を囲む所定の画素領域に含まれる参照画素の画素情報を含み、
     前記色制御部は、前記参照画素の画素情報に基づいて、前記エッジ色の色相又は前記エッジ色の輝度を算出する
     撮像装置。
  14.  請求項13に記載の撮像装置であって、
     前記色制御部は、前記エッジ色の色相として、前記参照画素の平均色相を算出する
     撮像装置。
  15.  請求項13に記載の撮像装置であって、
     前記所定の画素領域は、前記被写体に応じて設定される
     撮像装置。
  16.  請求項1に記載の撮像装置であって、
     前記色制御部は、前記撮像画像の前記エッジ部分が前記強調表示の色で強調されたピーキング画像を生成する
     撮像装置。
  17.  請求項16に記載の撮像装置であって、
     前記ピーキング画像は、前記エッジ部分とは異なる部分の色が、前記撮像画像と同じ色に設定される
     撮像装置。
  18.  請求項16に記載の撮像装置であって、
     前記色制御部は、前記ピーキング画像の前記エッジ部分の表示が動的に変化するように、前記強調表示の色を制御する
     撮像装置。
  19.  被写体を撮像した撮像画像を生成し、
     前記生成された撮像画像に含まれるエッジ部分を検出し、
     前記検出されたエッジ部分ごとに、前記撮像画像における前記エッジ部分に関する色情報に基づいて、前記エッジ部分を強調する強調表示の色を制御する
     ことをコンピュータシステムが実行する撮像方法。
  20.  被写体を撮像した撮像画像を生成するステップと、
     前記生成された撮像画像に含まれるエッジ部分を検出するステップと、
     前記検出されたエッジ部分ごとに、前記撮像画像における前記エッジ部分に関する色情報に基づいて、前記エッジ部分を強調する強調表示の色を制御するステップと
     をコンピュータシステムに実行させるプログラム。
PCT/JP2020/005088 2019-03-28 2020-02-10 撮像装置、撮像方法、及びプログラム WO2020195246A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021508209A JP7444163B2 (ja) 2019-03-28 2020-02-10 撮像装置、撮像方法、及びプログラム
US17/440,779 US11729493B2 (en) 2019-03-28 2020-02-10 Image capture apparatus and image capture method
CN202080022492.8A CN113574858A (zh) 2019-03-28 2020-02-10 图像拍摄设备,图像拍摄方法和程序
EP20777693.1A EP3934234A4 (en) 2019-03-28 2020-02-10 IMAGING DEVICE, IMAGING METHOD AND PROGRAM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019062937 2019-03-28
JP2019-062937 2019-03-28

Publications (1)

Publication Number Publication Date
WO2020195246A1 true WO2020195246A1 (ja) 2020-10-01

Family

ID=72611832

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/005088 WO2020195246A1 (ja) 2019-03-28 2020-02-10 撮像装置、撮像方法、及びプログラム

Country Status (5)

Country Link
US (1) US11729493B2 (ja)
EP (1) EP3934234A4 (ja)
JP (1) JP7444163B2 (ja)
CN (1) CN113574858A (ja)
WO (1) WO2020195246A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113766140A (zh) * 2021-09-30 2021-12-07 北京蜂巢世纪科技有限公司 一种图像拍摄方法及图像拍摄装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7322549B2 (ja) * 2019-06-28 2023-08-08 セイコーエプソン株式会社 画像処理方法および画像処理装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1051647A (ja) * 1996-07-29 1998-02-20 Matsushita Electric Ind Co Ltd ファクシミリ蓄積交換装置
JP2001008065A (ja) * 1999-06-23 2001-01-12 Hitachi Denshi Ltd 輪郭強調回路
JP2010135865A (ja) 2008-10-27 2010-06-17 Sony Corp 映像信号処理装置、撮像装置及び映像信号処理方法
JP2014103450A (ja) * 2012-11-16 2014-06-05 Canon Inc 画像処理装置、方法及びプログラム
WO2016203692A1 (ja) * 2015-06-18 2016-12-22 ソニー株式会社 表示制御装置、表示制御方法および表示制御プログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0628392B2 (ja) 1984-08-09 1994-04-13 日本放送協会 テレビジヨンカメラビユ−フアインダ−
JP2563051B2 (ja) 1992-10-30 1996-12-11 荏原工業洗浄株式会社 油分の封入処理方法
JP2007028380A (ja) * 2005-07-20 2007-02-01 Sony Corp 撮像装置
JP4325599B2 (ja) * 2005-08-25 2009-09-02 ソニー株式会社 撮像装置および表示制御方法
JP5478935B2 (ja) * 2009-05-12 2014-04-23 キヤノン株式会社 撮像装置
US9131142B2 (en) * 2009-07-17 2015-09-08 Nikon Corporation Focusing device and camera
JP2012109897A (ja) * 2010-11-19 2012-06-07 Seiko Epson Corp ドライバープログラム、および、印刷装置
JP5765026B2 (ja) * 2011-04-06 2015-08-19 富士ゼロックス株式会社 画像処理装置及びプログラム
JP2015129899A (ja) * 2014-01-09 2015-07-16 株式会社Jvcケンウッド 撮像装置、表示制御方法および撮影プログラム
EP3094079B1 (en) * 2014-01-09 2023-03-29 Sony Group Corporation Video signal processing device, video signal processing method, and camera device
US10182184B2 (en) * 2014-05-02 2019-01-15 Sony Corporation Image processing apparatus and image processing method
JP6305194B2 (ja) * 2014-05-08 2018-04-04 キヤノン株式会社 画像処理装置、撮像装置および画像処理方法
CN104038699B (zh) 2014-06-27 2016-04-06 努比亚技术有限公司 对焦状态的提示方法和拍摄装置
JP6460721B2 (ja) * 2014-10-22 2019-01-30 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2016128890A (ja) * 2015-01-09 2016-07-14 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体
KR102403065B1 (ko) * 2015-07-14 2022-05-27 삼성전자주식회사 영상 촬영 장치 및 그 동작 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1051647A (ja) * 1996-07-29 1998-02-20 Matsushita Electric Ind Co Ltd ファクシミリ蓄積交換装置
JP2001008065A (ja) * 1999-06-23 2001-01-12 Hitachi Denshi Ltd 輪郭強調回路
JP2010135865A (ja) 2008-10-27 2010-06-17 Sony Corp 映像信号処理装置、撮像装置及び映像信号処理方法
JP2014103450A (ja) * 2012-11-16 2014-06-05 Canon Inc 画像処理装置、方法及びプログラム
WO2016203692A1 (ja) * 2015-06-18 2016-12-22 ソニー株式会社 表示制御装置、表示制御方法および表示制御プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113766140A (zh) * 2021-09-30 2021-12-07 北京蜂巢世纪科技有限公司 一种图像拍摄方法及图像拍摄装置

Also Published As

Publication number Publication date
JP7444163B2 (ja) 2024-03-06
EP3934234A1 (en) 2022-01-05
US11729493B2 (en) 2023-08-15
EP3934234A4 (en) 2022-03-30
JPWO2020195246A1 (ja) 2020-10-01
CN113574858A (zh) 2021-10-29
US20220182555A1 (en) 2022-06-09

Similar Documents

Publication Publication Date Title
JP7088185B2 (ja) 医療用システム、医療用装置および制御方法
JP7095693B2 (ja) 医療用観察システム
JP7363767B2 (ja) 画像処理装置と画像処理方法およびプログラム
JP7230807B2 (ja) 信号処理装置、撮像装置、信号処理方法及びプログラム
JPWO2019239942A1 (ja) 手術用観察装置、手術用観察方法、手術用光源装置、及び手術用の光照射方法
US11729519B2 (en) Video signal processing apparatus, video signal processing method, and image-capturing apparatus
WO2020195246A1 (ja) 撮像装置、撮像方法、及びプログラム
JPWO2018142993A1 (ja) 発光制御装置、発光制御方法、プログラム、発光装置、および撮像装置
JP7092111B2 (ja) 撮像装置、映像信号処理装置および映像信号処理方法
JP7063321B2 (ja) 撮像装置、映像信号処理装置および映像信号処理方法
WO2020203265A1 (ja) 映像信号処理装置、映像信号処理方法および撮像装置
WO2021256168A1 (ja) 医用画像処理システム、手術画像制御装置、及び、手術画像制御方法
WO2020203225A1 (ja) 医療システム、情報処理装置及び情報処理方法
JP7160042B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
WO2022004250A1 (ja) 医療システム、情報処理装置及び情報処理方法
JPWO2020045014A1 (ja) 医療システム、情報処理装置及び情報処理方法
JP7456385B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
WO2021010020A1 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20777693

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021508209

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020777693

Country of ref document: EP

Effective date: 20210929