WO2015186605A1 - 画像処理装置、画像処理システム、撮像装置、および画像処理方法 - Google Patents

画像処理装置、画像処理システム、撮像装置、および画像処理方法 Download PDF

Info

Publication number
WO2015186605A1
WO2015186605A1 PCT/JP2015/065448 JP2015065448W WO2015186605A1 WO 2015186605 A1 WO2015186605 A1 WO 2015186605A1 JP 2015065448 W JP2015065448 W JP 2015065448W WO 2015186605 A1 WO2015186605 A1 WO 2015186605A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
processing
demosaic
colorized
unit
Prior art date
Application number
PCT/JP2015/065448
Other languages
English (en)
French (fr)
Inventor
大場 章男
英彦 小笠原
博之 勢川
稲田 徹悟
Original Assignee
株式会社ソニー・コンピュータエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・コンピュータエンタテインメント filed Critical 株式会社ソニー・コンピュータエンタテインメント
Priority to US15/312,210 priority Critical patent/US10055815B2/en
Publication of WO2015186605A1 publication Critical patent/WO2015186605A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4015Image demosaicing, e.g. colour filter arrays [CFA] or Bayer patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2209/00Details of colour television systems
    • H04N2209/04Picture signal generators
    • H04N2209/041Picture signal generators using solid-state devices
    • H04N2209/042Picture signal generators using solid-state devices having a single pick-up sensor
    • H04N2209/045Picture signal generators using solid-state devices having a single pick-up sensor using mosaic colour filter
    • H04N2209/046Colour interpolation to calculate the missing colour values

Definitions

  • the present invention relates to an image processing device, an image processing system, an imaging device, and an image processing method for performing image processing using an image captured by a camera.
  • a so-called RAW image obtained directly from an image sensor is subjected to a demosaic process that complements color information for each pixel inside the camera.
  • the full-color image data generated in this way is appropriately compressed and encoded by a compression format such as JPEG and transferred to an information processing apparatus or the like.
  • the present invention has been made in view of such problems, and an object of the present invention is to provide a technique capable of satisfying both responsiveness and accuracy of image processing using a photographed image.
  • the image processing apparatus is an image processing apparatus that generates a display image using an image captured by an imaging apparatus and displays the display image on the display apparatus.
  • the image processing apparatus outputs raw image data output from the imaging element from the imaging apparatus, A receiving unit that receives at least a part of each of the data of the colorized image obtained by performing demosaic processing and correction processing on the processed image and the processing information acquired in the process of generating the colorized image; and unprocessed
  • a display image is generated using a demosaic unit that performs demosaic processing and correction processing on image data to generate a colorized image, a colorized image generated by the demosaic unit, and a colorized image transmitted from the imaging device
  • a display image generation unit, and the demosaic unit is transmitted from the imaging device in at least one of the demosaic process and the correction process. Characterized by utilizing the process information.
  • This image processing system is an image processing system that includes an imaging device, and an image processing device that generates a display image using an image captured by the imaging device and displays the display image on the display device.
  • a first demosaic unit that acquires data of an output raw image and performs demosaic processing and correction processing to generate a colorized image; a raw image, a colorized image, and a first step in the process of generating the colorized image
  • a transmission unit that transmits at least a part of each of the processing information acquired by the demosaic unit to the image processing device, and the image processing device includes a reception unit that receives the data transmitted from the imaging device, and a transmission
  • a second demosaic unit that performs demosaic processing and correction processing on the processed raw image data to generate a colorized image, and a colorized image generated by the second demosaic unit
  • a display image generation unit that generates a display image using the colorized image transmitted from the imaging device, and the second demosaic
  • Still another aspect of the present invention relates to an imaging apparatus.
  • This imaging device is an imaging device that generates a display image using a photographed image and supplies data related to the photographed image to an image processing device that displays the image on the display device.
  • Data of a raw image output from the image sensor And performing demosaic processing and correction processing to generate a colorized image, at least a part of the raw image data subjected to demosaic processing and correction processing in the image processing apparatus, and the display image At least part of the data of the colorized image used to generate the image and the process acquired by the demosaic unit in the process of generating the colorized image and used in at least one of the demosaic process and the correction process in the image processing apparatus
  • a transmission unit that transmits at least a part of the data to the image processing apparatus.
  • Still another aspect of the present invention relates to an image processing method.
  • This image processing method is an image processing method by an image processing device that generates a display image using an image photographed by an imaging device and displays the display image on the display device, and the raw image output from the imaging device from the imaging device.
  • both accuracy and responsiveness can be achieved in image processing using captured images.
  • FIG. 1 shows a configuration example of an image processing system to which this embodiment can be applied.
  • the image processing system 10 includes an imaging device 12 equipped with two cameras 13a and 13b that capture an object such as a user 1, and a host terminal 20 that performs image processing and information processing according to a user's request based on the captured images. And a display device 16 for outputting image data obtained as a result of processing by the host terminal 20.
  • the host terminal 20 may be connected to a network 18 such as the Internet, and the obtained image data may be transmitted to another terminal or server.
  • the host terminal 20, the imaging device 12, the display device 16, and the network 18 may be connected by a wired cable, or may be wirelessly connected by a wireless LAN (Local Area Network) or the like. Any two or all of the imaging device 12, the host terminal 20, and the display device 16 may be combined and integrally provided. Further, the imaging device 12 is not necessarily installed on the display device 16. Furthermore, the user 1 may not be a person, and the number is not limited.
  • the imaging device 12 has a configuration in which two cameras 13a and 13b each having a two-dimensional array of imaging elements such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) are arranged on the left and right sides at a known interval. Each of the two cameras 13a and 13b captures an object existing in the same space at a predetermined frame rate from the left and right positions.
  • a pair of image frames shot in this way is also referred to as a “stereo image”.
  • the cameras 13a and 13b each acquire data of a RAW image as an image frame in a color array such as a Bayer array and one pixel representing one color.
  • the cameras 13a and 13b perform demosaic processing on the RAW image to generate a full-color image (hereinafter referred to as “colorized image”) by complementing the color information of each pixel.
  • the cameras 13a and 13b further reduce the colorized image in multiple stages to generate a plurality of image data with different resolutions.
  • the cameras 13a and 13b may appropriately perform image processing such as noise removal, gain correction, gamma correction, contour compensation, and color signal correction in any of these steps.
  • the host terminal 20 acquires at least a part of the image data from the imaging device 12, and uses it to perform predetermined image processing and information processing.
  • the processing performed by the host terminal 20 is not limited, but in the present embodiment, in particular, it is assumed that the demosaic processing for the RAW image acquired from the imaging device 12 is included. That is, the host terminal 20 performs the demosaic process by itself, in addition to the demosaic process performed by the imaging device 12.
  • the host terminal 20 performs demosaic processing on an image in a narrower range than the imaging device 12, or (2) the host terminal 20 generates a high-quality color image from the imaging device 12, or
  • the host terminal 20 performs demosaic processing on an image in a narrower range than the imaging device 12
  • the host terminal 20 generates a high-quality color image from the imaging device 12, or
  • the host terminal 20 can directly handle RAW images, the demosaic processing and correction processing in the imaging device 12 can be simplified, only color images with low resolution can be transferred, or irreversible compression such as JPEG. Even if processing is performed, the host terminal 20 can compensate the information.
  • a part of the display image is a high-quality image generated from the RAW image by the host terminal 20, and a synthesized image is simplified as a color image transferred from the imaging device 12 in the peripheral area. Can be displayed.
  • a region with motion is detected using the colorized image transferred from the imaging device 12, and image analysis is performed in more detail on the high-quality colorized image generated by the host terminal 20 from the RAW image of the region.
  • the imaging device 12 may be configured with only one camera.
  • the imaging apparatus 12 will be described as a stereo camera, the present embodiment can be similarly applied to a case where the imaging apparatus 12 is configured with one camera.
  • the display device 16 displays the result of the processing performed by the host terminal 20 as an image as necessary.
  • the display device 16 may be a television having a display for outputting an image and a speaker for outputting sound, such as a liquid crystal television, a plasma television, a PC display, or the like.
  • the processing content finally executed by the host terminal 20 and the image to be displayed are not particularly limited depending on the purpose of use.
  • FIG. 2 shows the configuration of one camera 13a in the imaging device 12 in detail.
  • the other camera 13b has the same configuration.
  • these can be realized with configurations such as a CPU (Central Processing Unit), RAM (Random Access Memory), ROM (Read Only Memory), and a drawing circuit.
  • CPU Central Processing Unit
  • RAM Random Access Memory
  • ROM Read Only Memory
  • FIG. 2 shows functional blocks realized by their cooperation. Therefore, these functional blocks can be realized in various forms by a combination of hardware and software.
  • FIG. 2 also includes a schematic diagram of an image portion processed by each functional block for easy explanation.
  • the camera 13a includes an image acquisition unit 102, a demosaic unit 104, an image transmission unit 150, a pyramid filter unit 170, and a communication unit 108.
  • the image acquisition unit 102 reads an image exposed by an image sensor such as a CCD or a CMOS at a predetermined timing (for example, 60 times / second). In the following description, this image is assumed to have a width of h pixels in the horizontal direction. This image is a so-called RAW image.
  • the image acquisition unit 102 sends this to the demosaic unit 104 and the image sending unit 150 every time exposure of one horizontal row of the RAW image is completed.
  • the demosaic unit 104 includes a FIFO (First In In First Out) buffer 105 having a capacity for h pixels and a simple demosaic processing unit 106.
  • the FIFO buffer 105 receives pixel information for one horizontal row of the RAW image, and holds it until the next horizontal row of pixels is input to the demosaic unit 104.
  • the simple demosaic processing unit 106 executes a demosaic process for complementing the color information based on the peripheral pixels of each pixel to create a color image.
  • a method of constructing a YCbCr value of one pixel from four RGB pixels may be used.
  • the simple demosaic processing unit 106 converts, for example, four horizontal and horizontal two RGB pixels into a YCbCr color signal as illustrated.
  • the block composed of four pixels is sent to the image sending unit 150 as a 1/1 color image and also sent to the pyramid filter unit 170.
  • the reason why the demosaic process performed by the imaging device 12 may be simplified is that necessary information can be compensated by the demosaic process of the RAW image in the host terminal 20 as described above.
  • the demosaicing process in the imaging device 12 is not intended to be limited as such, and the configuration of the FIFO buffer 105 and the like may be changed as appropriate according to the method used. Further, the color space of the RAW image and the demosaiced image may be appropriately selected from those used in the existing technology.
  • the pyramid filter unit 170 has a function of layering and outputting a certain image into a plurality of resolutions.
  • the pyramid filter generally includes a number of 1/4 reduction filters corresponding to the required level of resolution.
  • the pyramid filter has four layers of filters of the first filter 110 to the fourth filter 140. Each filter performs a process of calculating an average pixel value of four pixels by bilinear interpolation of four pixels adjacent to each other. Therefore, the image size after processing is 1 ⁇ 4 of the image before processing.
  • one FIFO buffer 112 corresponding to h pixels is arranged corresponding to each signal of Y, Cb, and Cr.
  • These FIFO buffers 112 have a role of holding YCbCr pixels for one horizontal row until the pixels for the next horizontal row are output from the simple demosaic processing unit 106.
  • the pixel holding time is determined according to the line scan speed of the image sensor.
  • the first filter 110 averages the pixel values of Y, Cb, and Cr for four pixels of 2 ⁇ 2 horizontal. By repeating this process, the 1/1 color image becomes 1/2 in length and width, and is converted into a 1/4 size as a whole. The converted 1/4 color image is sent to the image sending unit 150 and also passed to the second filter 120 at the next stage.
  • one FIFO buffer 122 corresponding to 2 / h pixels is arranged for each of the Y, Cb, and Cr signals.
  • These FIFO buffers 114 also have a role of holding YCbCr pixels for one horizontal row until the pixels for the next horizontal row are output from the first filter 110.
  • the second filter 120 averages the pixel values of Y, Cb, and Cr for four pixels of 2 ⁇ 2 horizontal. By repeating this process, the 1/4 color image becomes 1/2 in length and width, and is converted to 1/16 size as a whole. The converted 1/16 color image is sent to the image sending unit 150 and passed to the third filter 130 at the next stage.
  • the same processing as described above is repeated except that h / 4 FIFO buffers 132 or h / 8 FIFO buffers 142 are arranged in the preceding stage. Then, the image transmission unit 150 outputs 1/64 and 1/256 size color images.
  • the pyramid filter as described above is well known as described in European Patent Application Publication No. 0999518 and the like, and therefore, detailed description thereof is omitted in this specification.
  • the image sending unit 150 includes a RAW image received from the image acquisition unit 102, a 1/1 colorized image received from the demosaic unit 104, and a 1/4 to 1/256 colorized image received from the pyramid filter unit 170.
  • a necessary image is selected according to an instruction received from the host terminal 20 via the communication unit 108. Then, a packet is composed of these images and sent to the communication unit 108.
  • the communication unit 108 transmits the packet to the host terminal 20 in accordance with a predetermined protocol such as USB 1.0 / 2.0.
  • Communication with the host terminal 20 is not limited to wired communication, and may be, for example, wireless LAN communication such as IEEE802.11a / b / g or infrared communication such as IrDA.
  • FIG. 3 shows the configuration of the image sending unit 150.
  • the image sending unit 150 includes a transmission data extraction unit 154, a correction unit 156, an encoding unit 158, a packetizing unit 160, a packet buffer 162, and a control unit 164.
  • the control unit 164 instructs the transmission data extraction unit 154 which of various image data is to be transmitted as a packet.
  • the transmission data extraction unit 154 which of various image data is to be transmitted as a packet.
  • the control unit 164 instructs the transmission data extraction unit 154 which of various image data is to be transmitted as a packet.
  • at least a part of the RAW image acquired from the image acquisition unit 102 and at least one of the color image data acquired from the demosaic unit 104 or the pyramid filter unit 170 are included. Transmit to the host terminal 20.
  • the transmission data extraction unit 154 receives a color image of 1/1 to 1/256 size via the demosaic unit 104 and the pyramid filter unit 170.
  • a RAW image is input from the image acquisition unit 102. Then, the transmission data extraction unit 154 extracts the color image data of the size specified by the control unit 164 and the raw image data of the specified area.
  • the size of the colorized image to be transmitted and the area of the RAW image are determined depending on the purpose of use of the image, and may change with time depending on the movement of the subject.
  • the host terminal 20 specifies the position of the subject in the three-dimensional space by stereo matching.
  • the transfer data size is minimized and the moving subject is detailed. Can be efficiently displayed on the display device 16.
  • the transmission data extraction unit 154 supplies the extracted data to the correction unit 156 for the color image and the packetization unit 160 for the RAW image. As described above, since data is input for each pixel column from the image acquisition unit 102, demosaic unit 104, and pyramid filter unit 170, the transmission data extraction unit 154 sequentially transmits only the data to be transmitted to each supply destination. send.
  • the correction unit 156 performs known correction processing such as noise removal, gain correction, shading correction, white balance adjustment, gamma correction, contour compensation, and tone correction on the colorized image to be transmitted.
  • known correction processing such as noise removal, gain correction, shading correction, white balance adjustment, gamma correction, contour compensation, and tone correction on the colorized image to be transmitted.
  • Various types of corrections to be performed and algorithms used therefor have been proposed and put into practical use, and any of them can be employed in the present embodiment.
  • a method of calculating a gain value to be multiplied by each color so that an average value of the entire image of the color difference signals Cb and Cr becomes a set reference value.
  • a method may be used in which a light source type in the subject space is specified by predetermined image analysis, and a gain value set for each color is acquired correspondingly.
  • the user may adjust the gain value for a color image displayed on an electronic viewfinder (not shown) provided in the imaging device 12.
  • the contour compensation process is a process in which a portion having a large luminance change is extracted as a contour (edge) using a Laplacian filter or the like and is enhanced with the original image, and the degree of enhancement can be adjusted by a filter coefficient.
  • a color tone is corrected by calculating a color difference signal and a color correction matrix coefficient.
  • the matrix coefficient is adjusted so as to reduce a difference between a reference image prepared in advance and a photographed image using a color histogram or a luminance histogram. These coefficients may also be adjusted by the user with respect to the color image displayed on the electronic viewfinder.
  • Shading correction is a process for correcting the attenuation of ambient light due to camera characteristics. For this purpose, usually, data obtained by photographing white reference data and approximating a luminance change with respect to the distance from the central axis of the camera by a quadratic curve or a quartic curve is acquired in advance. Then, a correction gain coefficient based on the approximate curve is obtained according to the distance from the central axis, and is calculated on the captured image. Note that noise removal, gain correction, shading correction, and white balance adjustment may be performed on the RAW image before demosaic processing by the demosaic unit 104. Further, it is not necessary to perform all the above correction processes.
  • the correction unit 156 supplies the parameters used, calculated, and adjusted in the correction process to the encoding unit 158 as additional data of the color image subjected to the correction process, so that they are transmitted to the host terminal 20.
  • additional data For example, when white balance is adjusted, a gain value multiplied by each color is used as additional data.
  • a filter coefficient of a Laplacian filter used for contour compensation, a color correction matrix coefficient used for color tone correction, an approximate curve used for shading correction, and a correction gain coefficient may be used as additional data.
  • intermediate data generated in the process of correction processing such as color histogram or luminance histogram data of the entire captured image or a predetermined area, edge image data, etc. may be added.
  • the “predetermined region” for calculating the histogram is a region where an image of an object such as a human face is captured, for example, and may receive a result of face detection processing or the like in the host terminal 20 or may be received inside the imaging device 12. A face detection process or the like may be performed. Therefore, the imaging device 12 may be separately provided with a function for performing detection processing of an object and a function for specifying the position of a subject in a three-dimensional space by stereo matching using a stereo image. The position of the subject in the depth direction can also be used for determining the size of the color image to be transmitted as described above.
  • the encoding unit 158 compresses and encodes the color image subjected to the correction processing by the correction unit 156 using a known method such as JPEG, and supplies the encoded image to the packetization unit 160 together with the additional data.
  • JPEG Joint Photographic Experts Group
  • the packetizing unit 160 arrives at the packetizing unit 160 with the RAW image data supplied from the transmission data extracting unit 154 and the color-coded image data and additional data after compression encoding supplied from the encoding unit 158.
  • the packets are packetized in this order and written to the packet buffer 162.
  • the communication unit 108 transfers the packet in the packet buffer 162 to the host terminal 20 according to a predetermined communication protocol.
  • FIG. 4 shows the configuration of functional blocks involved in the image processing of the present embodiment in the host terminal 20. These configurations can also be realized in terms of hardware such as a CPU, RAM, ROM, GPU, input / output control device, etc., and in terms of software, data input functions and data loaded from a recording medium or the like into the memory
  • FIG. 4 shows functional blocks that are realized by their cooperation. Therefore, these functional blocks can be realized in various forms by a combination of hardware and software.
  • the host terminal 20 includes a communication unit 22, a processing control unit 52, an image processing unit 50, and a display control unit 54.
  • the processing control unit 52 operates the operating system to control the overall operation of the image processing unit 50, and performs other control necessary for the host terminal 20, such as execution of various applications such as games and chats, and driver Controls control, reading of a program from a recording medium, and the like.
  • the communication unit 22 transmits a transmission request for the image data designated by the image processing unit 50 to the imaging device 12, receives the requested image data from the imaging device 12, and supplies the received image data to the image processing unit 50.
  • the image processing unit 50 includes a distribution unit 24, a demosaic unit 28, a correction unit 30, a processing condition determination unit 32, a decoding unit 34, an output image generation unit 40, and a reception data determination unit 42.
  • the distribution unit 24 receives RAW image data, encoded color image data, and additional data transmitted from the imaging device 12.
  • the distribution unit 24 sends the raw image data to the demosaic unit 28 and supplies the colorized image data and additional data to the decoding unit 34 in accordance with an instruction from the processing control unit 52.
  • the decoding unit 34 decodes the encoded data of the colorized image obtained by separating the additional data from the data supplied from the distribution unit 24 according to the encoding format.
  • the separated additional data is supplied to the processing condition determination unit 32.
  • the decoded color image data may also be supplied to the processing condition determination unit 32.
  • the demosaic unit 28 executes demosaic processing of the RAW image.
  • the demosaic processing is assumed to be of high quality utilizing the computing resources of the host terminal 20.
  • an RGB value of 3 ⁇ 3 pixels or more is used to calculate a YCbCr image signal of one pixel, or an interpolation coefficient is corrected in consideration of the degree of correlation between pixels in the horizontal direction and / or the vertical direction. Any existing or future developed algorithm can be used.
  • Such demosaic processing is disclosed in, for example, Japanese Patent Laid-Open No. 7-236147.
  • the correction unit 30 performs a known correction process on the color image generated by the demosaic unit 28 from the RAW image.
  • the correction process performed here may be the same as or different from the correction process performed on the image demodulated internally by the imaging device 12.
  • the correction process performed by the correction unit 30 in the host terminal 20 may be a more sophisticated and precise process. Further, the types of correction processing to be performed may be increased.
  • the processing condition determination unit 32 determines various parameters used in the demosaic process performed by the demosaic unit 28 and the correction process performed by the correction unit 30 using the additional data transmitted as additional data of the color image from the imaging device 12. Alternatively, various parameters may be determined by obtaining a color image from the decoding unit 34 and analyzing it. A certain parameter may be determined from the additional data transmitted from the imaging device 12, and a certain parameter may be determined by image analysis of the colorized image.
  • the processing condition determination unit 32 supplies the white balance gain value transmitted from the imaging device 12 as additional data to the correction unit 30 as it is.
  • the processing condition determination unit 32 supplies the Laplacian filter filter coefficients and color correction matrix coefficients transmitted from the imaging device 12 to the correction unit 30 as they are.
  • the correction unit 30 performs white balance adjustment, contour compensation, and color tone correction on the colorized image supplied from the demosaic unit 28 using those parameters. In this way, the correction unit 30 can omit part of the correction process.
  • the colorized image generated by the demosaic unit 28 is a partial region of the entire captured image, parameters determined in consideration of the balance of the entire captured image are used under optimum conditions. Can be corrected. Further, even when the color image generated in the host terminal 20 is combined with the entire image transmitted from the imaging device 12, a natural image in which the color tone of both images is unified and the continuity is maintained can be obtained. It is done.
  • the processing condition determination unit 32 supplies them to the correction unit 30 as they are.
  • the correction unit 30 determines a parameter such as a color correction matrix coefficient by comparing the histogram of the reference image held inside with the supplied histogram.
  • the edge image is calculated to a colorized image supplied from the demosaic unit 28 to compensate the contour.
  • the processing condition determination unit 32 may acquire a histogram or an edge image of the entire captured image by acquiring the colorized image transmitted from the imaging device 12 from the decoding unit 34 and supply it to the correction unit 30. Good. As described above, even when correction is performed using intermediate data transmitted from the imaging device 12 or internally generated intermediate data, accuracy is maintained even when correcting a partial region based on a wider range of image information. it can.
  • the processing condition determination unit 32 may further determine parameters necessary for demosaic processing in the demosaic unit 28.
  • the object detection process is performed using the colorized image acquired from the decoding unit 34, and the demosaic unit 28 is requested to perform the demosaic process by narrowing down the detected object region in the RAW image.
  • stereo matching may be performed using the colorized stereo image acquired from the decoding unit 34, and the image of the target object may be detected from the generated depth image to be the target region.
  • the depth image is an image in which the distance from the camera of the subject is expressed as a pixel value on the captured image plane.
  • the template image representing the apparent size and shape of the object at a known distance is scaled and matched based on the distance of the subject represented by the pixel value in the depth image, whereby the image of the object can be specified.
  • the object detection process and the depth image generation process may be performed by the imaging device 12, and the processing condition determination unit 32 may only use the transmitted results.
  • the processing condition determination unit 32 also determines the direction of color interpolation in the demosaic process using the edge image that is transmitted from the imaging device 12 as additional data, or is generated using the transmitted color image,
  • the filter representing the weighting for may be switched.
  • the edge image may be used in combination with the detection result of the object to adjust the color tone by limiting the area. Since noise removal and smoothing can be performed accurately from a wide range of edge images, a portion of the edge image generated in this way can be used to accurately contour even a small part of the demosaic object. The portion can be specified, and as a result, the image after demosaicing becomes higher quality.
  • the reception data determination unit 42 receives the colorized image decoded by the decoding unit 34. Then, in accordance with a well-known image analysis method, a region that is particularly important in the application among the captured images, such as a region of an image of a predetermined object, is specified. For example, in the case of video chat, this area is an area of an image of the user's face. Information on the identified area is fed back to the imaging device 12 via the communication unit 22. In accordance with this information, the RAW image data of the area is sent from the imaging device 12. As a result, it is possible to transmit only data in a limited area to the host terminal 20 and perform demosaic processing on the RAW image.
  • the reception data determination unit 42 determines the size of the colorized image necessary for each process performed by the processing condition determination unit 32 and the output image generation process in the output image generation unit 40, and the imaging device via the communication unit 22. 12 may be requested. For example, when an object is detected using a color image, the apparent size increases if the object is close to the camera, and thus a color image with a large reduction ratio (small size) is transmitted. As a result, the load of transfer and detection processing can be suppressed while maintaining detection accuracy. The farther the object is from the camera, the smaller the image becomes. Therefore, in order to maintain detection accuracy, a color image with a small reduction rate (large size) is required.
  • the output image generation unit 40 When generating a depth image, request a stereo image of the same size. Since the size of the colorized image to be requested varies depending on the content of processing, the required accuracy, the frequency characteristics of the image, the color distribution, etc., in addition to the position of the above-mentioned object, A rule for deriving an optimal size is set in advance, and a required hierarchy is determined based on characteristics of an image frame at a previous time.
  • the output image generation unit 40 generates an image to be displayed on the display device 16. This image may be an image obtained by demosaicing a RAW image by the demosaic unit 28 and corrected by the correction unit 30, or a part thereof, or may be an image obtained by synthesizing a color image transmitted from the imaging device 12. Alternatively, the motion and gesture of the user 1 may be recognized by a functional block (not shown), and the images may be processed according to the result.
  • the output image generation unit 40 writes the generated output image in a frame buffer (not shown).
  • the display control unit 54 generates a video signal for displaying the image data drawn in the frame buffer on the display device 16.
  • the video signal generated in this manner is transmitted to the display device 16 and sequentially displayed, so that a high-quality image generated according to the application from the captured image can be displayed with low latency.
  • the display image data may be appropriately compressed and encoded and transmitted to another apparatus via the network 18.
  • FIG. 5 schematically shows the transition of the image data and the flow of information in the present embodiment.
  • the information used is not intended to be limited to what is illustrated, and is not intended to use all the information illustrated.
  • the figure also shows the transition of image data and the flow of information in the image processing system 10 as a whole, with the imaging device 12 at the left end, the display device 16 at the right end, and the host terminal 20 in the middle as shown at the bottom. Therefore, the distinction between the imaging device 12 and the host terminal 20 is not clearly shown as the subject of processing.
  • various intermediate processes to be performed as described above and subjects of each process can be considered, and the boundary between the two is appropriately selected. Intended to be able to.
  • the left and right RAW images 202a and 202b are acquired when the left and right cameras 13a and 13b of the imaging device 12 respectively photograph a common subject space. These images have a Bayer array as described above.
  • each square in the RAW images 202a and 202b indicates one pixel, and the information “R”, “G”, or “B” indicates whether the information held by each pixel is red, green, or blue. Is shown.
  • the demosaic unit 104 performs demosaic processing on the RAW image to generate a color image, and in the case of FIG. 1, a Y image, a Cb image, and a Cr image.
  • the pyramid filter unit 170 reduces the size step by step, thereby generating colored image groups 204a and 204b that represent captured images at a plurality of resolutions (S10 and S12).
  • a predetermined correction process is performed by the correction unit 156 on the image extracted as a transmission target in the color image groups 204a and 204b generated as described above. However, all the images generated in S10 and S12 may be corrected.
  • the correction unit 156 acquires or calculates the necessary image processing parameter 206 during the correction process (P10).
  • the correction processing performed here may be any known technique such as noise removal, gain correction, shading correction, white balance adjustment, gamma correction, contour compensation, and tone correction as described above, or a combination thereof.
  • the image processing parameters 206 “shading correction parameter”, “white balance gain”, “gamma value”, “color correction matrix”, “HSV adjustment amount”, “histogram”, “filter coefficient”, “continuity” “Information” is exemplified, but this is not intended for the imaging device 12 to acquire all of these parameters.
  • other parameters such as the distance of the object obtained from the depth image, the spatial frequency characteristic obtained from the image analysis, the local high-intensity region, and the imaging conditions such as the aperture value may be included.
  • an important area that requires detailed information in the captured image is generated from the RAW image in the host terminal 20, so that the imaging apparatus 12 is a simpler process than the correction process in the host terminal 20.
  • the processing efficiency can be increased. Accordingly, on the assumption that the host terminal 20 itself acquires and calculates the image processing parameters 206 shown in the figure with high accuracy, a part of the image processing parameters 206 may be acquired by a simple method. However, in an environment where the processing resources of the imaging device 12 can be prepared abundantly, the image processing parameters 206 may be acquired in detail in the imaging device 12.
  • the used filter coefficient may be included in the image processing parameter 206.
  • the filter to be used is switched depending on the continuity of the image in the captured image, that is, the direction of the contour line, information regarding the degree of correlation between the pixels (correlation information) used for the determination may be included. Since there are various other cases of filter switching, the filter to be used and the determination result for switching may be appropriately included in the image processing parameter 206 according to the algorithm to be used.
  • the corrected image data to be transmitted and the image processing parameter 206 related to the correction are transmitted to the host terminal 20.
  • data of the partial image 208 requested by the host terminal 20 is extracted from the RAW image 202a acquired by one camera and transmitted (S14).
  • the host terminal 20 generates a color image 212 by demosaicing the partial image 208 of the transmitted RAW image or an image of a part of the RAW image, and performs correction processing on the color image 212 (S16).
  • the processing load of the host terminal 20 is reduced, and a part of the image such as the colorized image 212 is displayed. Therefore, it is possible to obtain a good correction result with a high accuracy value obtained from the entire image for parameters whose accuracy is difficult to obtain from.
  • the parameters are derived by a known algorithm by comparing it with the histogram of the reference image. Then, it is used for white balance adjustment and color tone correction of the colorized image 212.
  • these parameters are derived by the imaging device 12 and transmitted to the host terminal 20, they are used as they are.
  • the approximate curve and gain coefficient used for the shading correction can be applied to the partially colored image 212 with a simple calculation formula obtained from the imaging device 12 as a shading correction parameter.
  • the host terminal 20 generates a depth image 210 using a stereo image of the same resolution transmitted from the imaging device 12 (S18), or performs an object detection process such as face detection on the transmitted color image. Or the like, the region to be extracted as the processing target is specified, or the object shown in the captured image is specified (P12, P14).
  • the information on the area to be extracted is used for specifying the area of the RAW image that is requested to be transmitted to the imaging device 12 (P16), and further includes an area to be demosaiced by the host terminal 20 in the partial image 208 of the transmitted RAW image. It can also be used to limit.
  • information relating to the type of subject such as a human face and landscape can be used for correction processing in the host terminal 20 (P18, P20).
  • a color tone correction is performed by acquiring a histogram of only the area of the image and comparing it with a histogram in a reference image of the human face.
  • an image processing parameter is separately calculated and corrected.
  • it is conceivable that such a branching reference is difficult to distinguish from only the partial image 208.
  • the type of subject and the shooting environment can be obtained even in the partial region. It is possible to obtain an appropriate color image according to the above.
  • the size of the colorized image requested to the imaging device 12 may be specified by the distance from the camera of the object specified based on the depth image.
  • the host terminal 20 causes the display device 16 to display the high-quality colorized image 212 generated from the RAW image by itself.
  • the image 214 can be displayed (S18, S20).
  • only the high-quality colorized image 212 is displayed, or image analysis that requires a high-quality image such as face recognition processing using the high-quality colorized image 212 is performed with high accuracy.
  • Various kinds of information processing may be performed, or any color image may be processed and displayed.
  • the image subjected to demosaic processing in the imaging device and the data of the RAW image are transmitted to the host terminal.
  • the demosaicing process itself and the conditions used in the correction process and parameters necessary for the process are transmitted together as additional data.
  • the host terminal performs demosaic processing or correction on the transmitted RAW image
  • the additional data is used as it is, or necessary parameters are derived based on the additional data.
  • a RAW image transmitted from the imaging apparatus to the host terminal can be appropriately demosaiced as a part of the entire area even if it is a partial area. Processing and correction processing can be performed. As a result, it is possible to display a satisfactory and demanding image while suppressing the data transmission band.
  • the image of the object can be specified from the partial area of the RAW image, and the partial area itself can be appropriately selected, so that the processing efficiency and accuracy can be further improved.
  • demosaic processing in parallel between the imaging apparatus and the host terminal, processing is distributed, and as a result, high-precision and high-quality processing can be performed with low latency. Further, by sharing a part of the intermediate data and parameters necessary for processing between the imaging device and the host terminal, even if both color images are synthesized, it is easy to maintain the visual continuity. In addition, by obtaining the parameters required for processing first, demosaic processing and correction processing of RAW images can be performed in parallel for each pixel column in the host terminal, so that an intermediate buffer for developing images can be minimized. . If such parallel processing is executed by a GPU having a high degree of parallelism, the processing efficiency is further improved, so that the compatibility with existing hardware is high.
  • the present invention can be used for a computer, a game device, an image processing device, an imaging device, a system including them, and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

 撮像装置12は左右のカメラでRAW画像202a、202bを取得し、それをデモザイク処理するとともに段階的に縮小することで、撮影画像を複数解像度で表したカラー化画像群204a、204bを生成し補正する(S10、S12)。このデモザイク処理や補正処理の過程で取得した画像処理パラメータ206を、一部のカラー化画像および、RAW画像202aの部分画像208のデータとともにホスト端末20に送信する。ホスト端末20は、撮像装置12から送信された画像処理パラメータ206を利用しながら、部分画像208をデモザイク処理してカラー化画像212を生成し補正する(S16)。撮像装置12から送信されたカラーカー画像と内部で生成したカラー化画像212を用いて表示する画像214を生成する(S18、S20)。

Description

画像処理装置、画像処理システム、撮像装置、および画像処理方法
 本発明は、カメラによる撮影画像を用いた画像処理を行う画像処理装置、画像処理システム、撮像装置、およびその画像処理方法に関する。
 近年、パーソナルコンピュータやゲーム機などにカメラを搭載し、ユーザの姿を撮像して様々な形で利用することが一般的に行われるようになってきた。例えばテレビ電話、ビデオチャットなど、ユーザの画像を、ネットワークを介してそのまま相手に伝送するものや、画像解析によってユーザの動きを認識してゲームや情報処理の入力情報とするものなどが実用化されている(例えば特許文献1参照)。
 それらの技術では一般に、撮像素子から直接得られるいわゆるRAW画像に対し、カメラ内部において画素ごとに色情報を補完するデモザイク(de-mosaic)処理がなされる。そのようにして生成されたフルカラー画像のデータは、JPEGなどの圧縮形式によって適宜圧縮符号化され、情報処理装置などに転送される。
WO 2007/050885 A2公報
 上記のような一般的な技術では、撮影時に得られた本来の情報がカメラ内部での処理によって一部、失われ、それを受信した情報処理装置での処理が限定的になったり求められる処理精度が得られなかったりすることが考えられる。一方でカメラから転送する画像データを高品質化すると、システム全体としての処理の負荷が増大したり転送処理が滞ったりして情報処理に遅延が生じ、撮影から結果出力までの応答性が悪化する、というジレンマがある。
 本発明はこのような課題に鑑みてなされたものであり、その目的は、撮影画像を利用した画像処理の応答性と精度を両立することのできる技術を提供することにある。
 本発明のある態様は画像処理装置に関する。この画像処理装置は、撮像装置が撮影した画像を用いて表示画像を生成し表示装置に表示させる画像処理装置であって、撮像装置から、撮像素子から出力される未加工画像のデータ、当該未加工画像に対しデモザイク処理および補正処理を施してなるカラー化画像のデータ、および当該カラー化画像を生成する過程で取得した処理情報、のそれぞれ少なくとも一部のデータを受信する受信部と、未加工画像のデータにデモザイク処理および補正処理を施してカラー化画像を生成するデモザイク部と、デモザイク部が生成したカラー化画像と、撮像装置から送信されたカラー化画像とを用いて表示画像を生成する表示画像生成部と、を備え、デモザイク部は、デモザイク処理および補正処理の少なくともいずれかの過程で、撮像装置から送信された処理情報を利用することを特徴とする。
 本発明の別の態様は画像処理システムに関する。この画像処理システムは、撮像装置と、撮像装置が撮影した画像を用いて表示画像を生成し表示装置に表示させる画像処理装置と、を含む画像処理システムであって、撮像装置は、撮像素子から出力される未加工画像のデータを取得しデモザイク処理および補正処理を施してカラー化画像を生成する第1デモザイク部と、未加工画像、カラー化画像、当該カラー化画像を生成する過程で第1デモザイク部が取得した処理情報、のそれぞれ少なくとも一部のデータを、画像処理装置に送信する送信部と、を備え、画像処理装置は、撮像装置から送信されたデータを受信する受信部と、送信された未加工画像のデータにデモザイク処理および補正処理を施してカラー化画像を生成する第2デモザイク部と、第2デモザイク部が生成したカラー化画像と、撮像装置から送信されたカラー化画像とを用いて表示画像を生成する表示画像生成部と、を備え、第2デモザイク部は、デモザイク処理および補正処理の少なくともいずれかの過程で、撮像装置から送信された前記処理情報を利用することを特徴とする。
 本発明のさらに別の態様は撮像装置に関する。この撮像装置は、撮影した画像を用いて表示画像を生成し表示装置に表示させる画像処理装置に撮影画像に係るデータを供給する撮像装置であって、撮像素子から出力される未加工画像のデータを取得しデモザイク処理および補正処理を施してカラー化画像を生成するデモザイク部と、画像処理装置においてデモザイク処理および補正処理を施す対象とされた未加工画像のデータの少なくとも一部と、前記表示画像の生成に用いられるカラー化画像のデータの少なくとも一部と、当該カラー化画像を生成する過程でデモザイク部が取得し画像処理装置におけるデモザイク処理および補正処理の少なくともいずれかの過程で利用される処理情報の少なくとも一部、のデータを、画像処理装置に送信する送信部と、を備えたことを特徴とする。
 本発明のさらに別の態様は画像処理方法に関する。この画像処理方法は、撮像装置が撮影した画像を用いて表示画像を生成し表示装置に表示させる画像処理装置による画像処理方法であって、撮像装置から、撮像素子から出力される未加工画像のデータ、当該未加工画像に対しデモザイク処理および補正処理を施してなるカラー化画像のデータ、および当該カラー化画像を生成する過程で取得した処理情報、のそれぞれ少なくとも一部のデータを受信するステップと、未加工画像のデータにデモザイク処理および補正処理を施してカラー化画像を生成するステップと、生成するステップで生成したカラー化画像と、受信するステップで受信したカラー化画像とを用いて表示画像を生成し表示装置に出力するステップと、を含み、生成するステップは、デモザイク処理および補正処理の少なくともいずれかの過程で、受信するステップで受信した処理情報を利用することを特徴とする。
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを記録した記録媒体などの間で変換したものもまた、本発明の態様として有効である。
 本発明によると、撮影画像を利用した画像処理において精度と応答性を両立することができる。
本実施の形態を適用できる画像処理システムの構成例を示す図である。 本実施の形態における撮像装置のうち一方のカメラの構成を詳細に示す図である。 本実施の形態における画像送出部の構成を示す図である。 本実施の形態におけるホスト端末のうち画像処理に関与する機能ブロックの構成を示す図である。 本実施の形態における画像データの変遷と情報の流れを模式的に示す図である。
 図1は本実施の形態を適用できる画像処理システムの構成例を示す。画像処理システム10は、ユーザ1などの対象物を撮影する2つのカメラ13a、13bを搭載した撮像装置12、撮影した画像に基づき、ユーザの要求に応じた画像処理、情報処理を行うホスト端末20、ホスト端末20が処理した結果得られた画像データを出力する表示装置16を含む。またホスト端末20はインターネットなどのネットワーク18と接続可能とし、得られた画像データを他の端末やサーバに送信するようにしてもよい。
 ホスト端末20と、撮像装置12、表示装置16、ネットワーク18とは、有線ケーブルで接続されてよく、また無線LAN(Local Area Network)などにより無線接続されてもよい。撮像装置12、ホスト端末20、表示装置16のうちいずれか2つ、または全てが組み合わされて一体的に装備されていてもよい。また、撮像装置12は必ずしも表示装置16の上に設置されていなくてもよい。さらにユーザ1は人でなくてもよく、その数も限定されない。
 撮像装置12は、それぞれがCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子の2次元配列を有する2つのカメラ13a、13bを既知の間隔で左右に配置した構成を有する。2つのカメラ13a、13bはそれぞれ、同一空間に存在する対象物を左右の位置から所定のフレームレートで撮影する。以後、このように撮影された画像フレームの対を「ステレオ画像」とも呼ぶ。
 カメラ13a、13bはそれぞれ、ベイヤ配列等の色の配列で、1画素が1色を表すRAW画像のデータを画像フレームとして取得する。カメラ13a、13bは当該RAW画像に対し、各画素のカラー情報を補完してフルカラーの画像(以後、「カラー化画像」と呼ぶ)を生成するデモザイク処理を施す。カメラ13a、13bはさらに、当該カラー化画像を多段階に縮小し、異なる解像度の複数の画像データを生成する。なおカメラ13a、13bはそれらの工程のいずれかの段階で、ノイズ除去、ゲイン補正、ガンマ補正、輪郭補償、色信号補正などの画像処理を適宜行ってよい。
 ホスト端末20は、撮像装置12から画像データの少なくとも一部を取得し、それを用いて所定の画像処理、情報処理を実施する。ホスト端末20が行う処理は限定されないが、本実施の形態では特に、撮像装置12から取得したRAW画像に対するデモザイク処理を含むものとする。つまりホスト端末20は、撮像装置12が行うデモザイク処理とは別に、自身でもデモザイク処理を実施する。ここで、(1)ホスト端末20は撮像装置12より狭い範囲の画像をデモザイク処理する、(2)ホスト端末20は撮像装置12より高品質のカラー化画像を生成する、という方針のいずれかまたは双方に従いデモザイク処理を並列化することにより、画像処理や転送処理の負荷の増大を抑えつつ、自由度の高い画像生成や情報処理を精度よく行える。
 具体的には、撮像装置12から取得したカラー化画像に対する画像解析結果に基づき、人の顔など限定的な領域のRAW画像データのみを撮像装置12に要求することにより、転送データのサイズを抑えることができる。またホスト端末20でRAW画像を直接、扱えるようにすることで、撮像装置12におけるデモザイク処理や補正処理を簡易なものとしたり、解像度の低いカラー化画像のみを転送したり、JPEGなどの不可逆圧縮処理を施したりしても、ホスト端末20において情報を補償できる。
 このような構成により、例えば、表示画像の一部をホスト端末20がRAW画像から生成した高品質の画像とし、その周辺領域を撮像装置12から転送されたカラー化画像として簡略化した合成画像を表示できる。また、撮像装置12から転送されたカラー化画像を用いて動きのある領域を検出し、当該領域のRAW画像からホスト端末20が生成した高品質のカラー化画像に対しより詳細に画像解析を行うことで、ジェスチャや表情などを精度よく認識し、それに基づきゲームを進捗させたりコマンドに変換して情報処理を行ったりすることも考えられる。
 このように撮像装置12とホスト端末20でデモザイク処理を並列して行う構成において、本実施の形態では、撮像装置12で行ったデモザイク処理やその補正処理の過程で取得した中間データや必要な処理パラメータもホスト端末20に送信する。これにより、ホスト端末20におけるデモザイク処理や補正処理の一部の過程を省略できるため、システム全体として処理の負荷を軽減させることができる。またホスト端末20におけるデモザイク処理、補正処理の対象がごく一部の領域であったとしても、全体領域から得た中間データやパラメータを用いることにより、領域のサイズや位置によらず処理の精度を保つことができる。具体例は後に述べる。
 上述のようにホスト端末20が最終的に行う情報処理や生成する出力データは特に限定されないため、以後、デモザイク処理の並列化および各種データの送受信に主眼を置いて説明する。なおホスト端末20が行う処理によっては、撮像装置12は1つのカメラのみで構成してもよい。以後、撮像装置12をステレオカメラとして説明するが、1つのカメラで構成した場合も、本実施の形態を同様に適用できる。
 表示装置16は、ホスト端末20が行った処理の結果を、必要に応じて画像として表示する。表示装置16は、画像を出力するディスプレイおよび音声を出力するスピーカを有するテレビであってよく、例えば液晶テレビ、プラズマテレビ、PCディスプレイ等である。上述のとおりホスト端末20が最終的に実行する処理内容や表示すべき画像はその使用目的によって特に限定されるものではない。
 図2は撮像装置12のうち一方のカメラ13aの構成を詳細に示している。他方のカメラ13bも同じ構成を有する。これらは、ハードウェア的には、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、描画回路などの構成で実現でき、ソフトウェア的にはデータ入力機能、データ保持機能、画像処理機能、描画機能などの諸機能を発揮するプログラムで実現されるが、図2ではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウェア、ソフトウェアの組合せによって様々な形で実現できる。なお、図2中には、説明を容易にするために、各機能ブロックで処理される画像部分の模式図も含まれている。
 カメラ13aは、画像取得部102、デモザイク部104、画像送出部150、ピラミッドフィルタ部170および通信部108を備える。画像取得部102は、CCDまたはCMOS等の撮像素子で露光された画像を所定のタイミング(例えば、60回/秒)で読み出す。以下の説明では、この画像は横方向に画素h個分の幅を有するものとする。この画像はいわゆるRAW画像である。画像取得部102は、RAW画像の横一列分の露光が完了する毎に、これをデモザイク部104および画像送出部150に送る。
 デモザイク部104は、画素h個分の容量を有するFIFO(First In First Out)バッファ105と簡易デモザイク処理部106とを有する。FIFOバッファ105には、RAW画像の横一列分の画素情報が入力され、次の横一列分の画素がデモザイク部104に入力されるまでそれを保持する。簡易デモザイク処理部106は、横二列分の画素を受け取ると、それらを用いて、各画素に対してその周辺画素に基づき色情報を補完してカラー化画像を作り出すデモザイク処理を実行する。
 当業者には周知のように、このデモザイク処理には多数の手法が存在する。同図はそのうち、横二列分の画素のみを利用する簡易なデモザイク処理を想定している。この場合、対応するカラー情報を算出すべき画素がG値のみを有している場合は、R値は左右に隣接するR値を平均、G値は当該G値をそのまま使用、B値は上または下に位置するB値を使用してRGB値とする。そしてこれを所定の変換式に代入してYCbCr値を算出する。
 簡易なデモザイク処理の変形例として、RGBの4画素から一画素のYCbCr値を構成する手法を用いてもよい。この場合は、RAW画像の1/4サイズのカラー化画像が得られるので、後述する第1フィルタ110は不要になる。簡易デモザイク処理部106は、例えば図示のように、横2×縦2のRGBの4画素をYCbCrカラー信号に変換する。そして、この4画素からなるブロックは、画像送出部150に1/1カラー化画像として渡されるとともに、ピラミッドフィルタ部170に送られる。
 なお撮像装置12で行うデモザイク処理を簡易なものとしてよい理由は、上述のように、ホスト端末20におけるRAW画像のデモザイク処理等によって必要な情報を補償できるためである。一方、撮像装置12におけるデモザイク処理をそのように限定する趣旨ではなく、また、用いる手法に応じてFIFOバッファ105等の構成を適宜変化させてよい。またRAW画像やデモザイク後の画像の色空間についても、既存の技術で用いられているものから適宜選択してよい。
 ピラミッドフィルタ部170は、ある画像を複数の解像度に階層化して出力する機能を有する。ピラミッドフィルタは、一般に必要とする解像度のレベルに応じた数の1/4縮小フィルタを備えるが、本実施形態では第1フィルタ110~第4フィルタ140の4階層のフィルタを有している。各フィルタは、相互に隣接する4個の画素をバイリニア補間して4画素の平均画素値を演算する処理を実行する。したがって、処理後の画像サイズは処理前の画像の1/4になる。
 第1フィルタ110の前段には、Y、Cb、Crのそれぞれの信号に対応して、画素h個分のFIFOバッファ112が一つずつ配置される。これらのFIFOバッファ112は、横一列分のYCbCr画素を、次の横一列分の画素が簡易デモザイク処理部106から出力されるまで保持する役割を有する。画素の保持時間は、撮像素子のラインスキャンの速度に応じて決まる。
 横二列分の画素が入力されると、第1フィルタ110は、横2×縦2の4画素分のY、Cb、Crの画素値を平均する。この処理を繰り返すことによって、1/1カラー化画像は縦横それぞれ1/2の長さとなり、全体として1/4のサイズに変換される。変換された1/4カラー化後画像は、画像送出部150に送られるとともに、次段の第2フィルタ120に渡される。
 第2フィルタ120の前段階には、Y、Cb,Crのそれぞれの信号に対応して、画素2/h個分のFIFOバッファ122が一つずつ配置される。これらのFIFOバッファ114も、横一列分のYCbCr画素を、次の横一列分の画素が第1フィルタ110から出力されるまで保持する役割を有する。
 横二列分の画素が入力されると、第2フィルタ120は、横2×縦2の4画素分のY、Cb、Crの画素値を平均する。この処理を繰り返すことによって、1/4カラー化画像は縦横それぞれ1/2の長さとなり、全体として1/16のサイズに変換される。変換された1/16カラー化画像は、画像送出部150に送られるとともに、次段の第3フィルタ130に渡される。
 第3フィルタ130および第4フィルタ140についても、それぞれの前段にh/4個分のFIFOバッファ132またはh/8個分のFIFOバッファ142が配置される以外は、上記と同様の処理を繰り返す。そして、画像送出部150に、1/64および1/256サイズのカラー化画像を出力する。なお、上記のようなピラミッドフィルタは、欧州特許出願公開第0999518号明細書などに記載されているように周知であるから、本明細書ではこれ以上の詳細な説明を省略する。
 このように、ピラミッドフィルタ部170の各フィルタからは、1/4ずつ縮小された画像出力が画像送出部150に入力される。これから分かるように、ピラミッドフィルタ部170内のフィルタを通過するほど、各フィルタの前段に必要となるFIFOバッファの大きさは小さくて済むようになる。
 画像送出部150は、画像取得部102から受け取ったRAW画像、デモザイク部104から受け取った1/1カラー化画像、およびピラミッドフィルタ部170から受け取った1/4~1/256カラー化画像のうち、ホスト端末20から通信部108を介して受けた指示に応じて必要な画像を選び出す。そして、これらの画像でパケットを構成して通信部108に送る。
 通信部108は、例えばUSB1.0/2.0等の所定のプロトコルにしたがって、パケットをホスト端末20に送出する。ホスト端末20との通信は有線に限らず、例えばIEEE802.11a/b/gなどの無線LAN通信、IrDAなどの赤外線通信であってもよい。
 図3は、画像送出部150の構成を示している。画像送出部150は、送信データ抽出部154、補正部156、符号化部158、パケット化部160、パケットバッファ162および制御部164を有する。制御部164は、ホスト端末20からの指示に基づき、送信データ抽出部154に各種画像データのうちいずれをパケットとして送出するかを指示する。本実施形態では上述のとおり、画像取得部102から取得したRAW画像のうち少なくとも一部の領域のデータと、デモザイク部104またはピラミッドフィルタ部170から取得したカラー化画像のデータの少なくともいずれかと、をホスト端末20に送信する。
 送信データ抽出部154には、デモザイク部104およびピラミッドフィルタ部170を経由して1/1~1/256サイズのカラー化画像が入力される。また、画像取得部102からRAW画像が入力される。そして送信データ抽出部154は、制御部164から指定されたサイズのカラー化画像のデータと、指定された領域のRAW画像のデータとを抽出する。送信すべきカラー化画像のサイズやRAW画像の領域は画像の使用目的によって決定され、被写体の移動などによって時間変化してもよい。
 例えばあるサイズのステレオ画像を送信することで、ホスト端末20においてステレオマッチングにより被写体の3次元空間での位置を特定する。そして被写体のカメラからの距離に比例するサイズのカラー化画像と、被写体の像の領域のRAW画像とをさらに送信するようにすれば、転送データサイズを最小限にして、動いている被写体を詳細に表した合成画像を表示装置16に効率的に表示できる。
 送信データ抽出部154は、抽出したデータのうち、カラー化画像については補正部156に、RAW画像についてはパケット化部160に、それぞれ供給する。上述のとおり画像取得部102、デモザイク部104、ピラミッドフィルタ部170からは画素列ごとにデータが入力されるため、送信データ抽出部154は、そのうち送信すべきデータのみを順次、それぞれの供給先へ送る。
 補正部156は、送信すべきカラー化画像に対しノイズ除去、ゲイン補正、シェーディング補正、ホワイトバランス調整、ガンマ補正、輪郭補償、色調補正など、周知の補正処理を施す。実施する補正の種類や、それに用いるアルゴリズムについては様々なものが提案、実用化されており、本実施の形態ではそのいずれをも採用することができる。
 例えばホワイトバランス調整としては、色差信号Cb、Crの画像全体の平均値が設定された基準値となるように、各色に乗じるゲイン値を算出する手法が知られている。あるいは所定の画像解析により被写体空間の光源種を特定し、それに対応して色ごとに設定されているゲイン値を取得する手法でもよい。または撮像装置12に設けた電子ファインダー(図示せず)に表示したカラー化画像に対し、ユーザがゲイン値を調整するようにしてもよい。
 輪郭補償処理は、ラプラシアンフィルタなどを用いて輝度変化の大きい箇所を輪郭(エッジ)として抽出し、元の画像と演算することにより強調する処理であり、フィルタ係数によって強調の度合いを調整できる。色調補正処理は、色差信号と色補正マトリクス係数とを演算して色調を補正する。ここでマトリクス係数は、あらかじめ用意した参照画像と撮影画像を、カラーヒストグラムあるいは輝度ヒストグラムによって比較し、その差を軽減するように調整される。これらの係数も、電子ファインダーに表示したカラー化画像に対し、ユーザが調整するようにしてもよい。
 シェーディング補正は、カメラの特性による周辺光量の減衰を補正するための処理である。そのためには通常、白色基準データを撮影することにより得られた、カメラの中心軸からの距離に対する輝度変化を2次曲線や4次曲線で近似したデータをあらかじめ取得しておく。そして中心軸からの距離に応じて、当該近似曲線に基づく補正ゲイン係数を求め、撮影画像に演算する。なおノイズ除去、ゲイン補正、シェーディング補正、ホワイトバランス調整は、デモザイク部104によりデモザイク処理される前のRAW画像に対し行ってもよい。また上記の補正処理を全て行う必要はない。
 いずれにしろ補正部156は、上記補正処理で使用、算出、調整したパラメータを、補正処理を施したカラー化画像の付加データとして符号化部158に供給することにより、それらがホスト端末20に送信されるようにする。例えばホワイトバランスを調整した場合、各色に乗じたゲイン値を付加データとする。同様に、輪郭補償に用いたラプラシアンフィルタのフィルタ係数、色調補正に用いた色補正マトリクス係数、シェーディング補正に用いた近似曲線や補正ゲイン係数を付加データとしてもよい。
 そのほか、撮影画像全体または所定領域のカラーヒストグラムや輝度ヒストグラムのデータ、エッジ画像のデータなど、行った補正処理の過程で生成した中間データを付加してもよい。なおヒストグラムを算出する「所定領域」とは、例えば人の顔など対象物の像が写る領域であり、ホスト端末20における顔検出処理等の結果を受信してもよいし、撮像装置12内部で顔検出処理等を行ってもよい。そのため撮像装置12には、対象物の検出処理を行う機能や、ステレオ画像を用いたステレオマッチングによって被写体の3次元空間での位置を特定する機能を別途、設けてもよい。被写体の奥行き方向の位置は、上述のように送信するカラー化画像のサイズ決定にも利用できる。
 符号化部158は、補正部156が補正処理を施したカラー化画像をJPEG等の周知の方式で圧縮符号化し、付加データとともにパケット化部160に供給する。なお、LLVC、AVC等の他の周知の符号化方式を使用してもよい。パケット化部160は、送信データ抽出部154から供給されたRAW画像のデータ、および符号化部158から供給された圧縮符号化後のカラー化画像のデータおよび付加データを、パケット化部160に到来した順にパケット化してパケットバッファ162に書き込む。通信部108は、パケットバッファ162内のパケットを、所定の通信プロトコルにしたがってホスト端末20に転送する。
 図4はホスト端末20のうち、本実施の形態の画像処理に関与する機能ブロックの構成を示している。これらの構成も、ハードウェア的には、CPU、RAM、ROM、GPU、入出力制御装置などの構成で実現でき、ソフトウェア的には、記録媒体などからメモリにロードされた、データ入力機能、データ保持機能、画像処理機能、描画機能などの諸機能を発揮するプログラムで実現されるが、図4ではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウェア、ソフトウェアの組合せによって様々な形で実現できる。
 ホスト端末20は、通信部22、処理制御部52、画像処理部50および表示制御部54を含む。処理制御部52は、オペレーティングシステムを動作させて画像処理部50の全体的な動作を制御する他、ホスト端末20に必要な他の制御、例えば、ゲームやチャットなどの各種アプリケーションの実行やドライバの制御、記録媒体からのプログラムの読み出しなどを制御する。通信部22は、画像処理部50から指定された画像データの送信要求を撮像装置12に送信するとともに、要求した画像データを撮像装置12から受信し画像処理部50に供給する。
 画像処理部50は、振り分け部24、デモザイク部28、補正部30、処理条件決定部32、復号部34、出力画像生成部40、受信データ決定部42を有する。振り分け部24には、撮像装置12から送信された、RAW画像のデータ、符号化されたカラー化画像のデータ、および付加データが入力される。振り分け部24は処理制御部52からの指示にしたがって、RAW画像のデータはデモザイク部28に送り、カラー化画像のデータおよび付加データは復号部34に供給する。
 復号部34は、振り分け部24から供給されたデータのうち付加データを分離してなるカラー化画像の符号化データを符号化形式に従い復号する。また分離した付加データを処理条件決定部32に供給する。場合によっては、復号したカラー化画像のデータをも、処理条件決定部32に供給してもよい。
 デモザイク部28は、RAW画像のデモザイク処理を実行する。ここでのデモザイク処理は、ホスト端末20の計算リソースを活用した高品質のものとする。例えば、1画素のYCbCr画像信号を計算するのに3×3画素以上のRGB値を使用したり、水平方向および/または垂直方向の画素間の相関の程度を考慮して補間係数を修正するといった既存のまたは将来開発される任意のアルゴリズムを使用可能である。このようなデモザイク処理は、例えば特開平7-236147号公報に開示されている。
 補正部30は、デモザイク部28がRAW画像から生成したカラー化画像に対し、周知の補正処理を施す。ここで行う補正処理は、撮像装置12が内部でデモザイク処理した画像に対し行う補正処理と同じでもよいし、異なっていてもよい。例えばホスト端末20で補正部30が行う補正処理を、より高度かつ精密な処理としてもよい。また実施する補正処理の種類を増やしてもよい。
 処理条件決定部32は、撮像装置12からカラー化画像の付加データとして送信された付加データを用いて、デモザイク部28が行うデモザイク処理や補正部30が行う補正処理に用いる各種パラメータを決定する。または、復号部34からカラー化画像を取得し、それを解析することにより各種パラメータを決定してもよい。あるパラメータは撮像装置12から送信された付加データから決定し、あるパラメータはカラー化画像を画像解析することによって決定してもよい。
 例えば補正部30がホワイトバランスを調整するとき、処理条件決定部32は、付加データとして撮像装置12から送信されたホワイトバランスのゲイン値をそのまま補正部30に供給する。また補正部30が輪郭補償や色調補正をするとき、処理条件決定部32は、撮像装置12から送信されたラプラシアンフィルタのフィルタ係数や色補正マトリクス係数をそのまま補正部30に供給する。補正部30は、デモザイク部28から供給されたカラー化画像に対し、それらのパラメータを用いてホワイトバランス調整、輪郭補償、色調補正を行う。このようにすることで、補正部30は補正処理の過程を一部、省略できる。
 またデモザイク部28で生成されたカラー化画像が、撮影画像全体のうちの一部の領域であっても、撮影画像全体のバランスを考慮したうえで決定したパラメータを用いることにより、最適な条件で補正ができる。さらに撮像装置12から送信された全体画像に、ホスト端末20において生成したカラー化画像を合成するような場合でも、両者の画像の色調などが統一され、連続性が維持された自然な画像が得られる。
 付加データとしてヒストグラムやエッジ画像などの中間データを取得する場合も、処理条件決定部32はそれらを補正部30にそのまま供給する。補正部30は、内部で保持する参照画像のヒストグラムと、供給されたヒストグラムとを比較することにより、自ら色補正マトリクス係数などのパラメータを決定する。あるいはエッジ画像をデモザイク部28から供給されたカラー化画像に演算して輪郭を補償する。
 あるいは処理条件決定部32は、撮像装置12から送信されたカラー化画像を復号部34から取得することにより、自ら撮影画像全体のヒストグラムやエッジ画像を取得して、補正部30に供給してもよい。このように撮像装置12から送信された中間データや内部で生成した中間データを用いて補正する場合も、より広範囲の画像情報に基づくことにより、部分的な領域の補正であっても精度を維持できる。
 処理条件決定部32はさらに、デモザイク部28におけるデモザイク処理に必要なパラメータを決定してもよい。例えば、復号部34から取得したカラー化画像を用いて対象物検出処理を行い、RAW画像のうち検出した対象物の領域に絞ってデモザイク処理するようにデモザイク部28に要求する。あるいは復号部34から取得したカラー化ステレオ画像を用いてステレオマッチングを行い、生成した奥行き画像中から対象物の像を検出して対象領域としてもよい。ここで奥行き画像とは、被写体のカメラからの距離を撮影画像平面における画素値として表した画像である。既知の距離にいる対象物の見かけ上のサイズおよび形状を表すテンプレート画像を、奥行き画像における画素値が表す被写体の距離に基づき拡縮させてマッチングすることにより、対象物の像を特定できる。
 対象物検出処理や奥行き画像の生成処理を撮像装置12で行い、処理条件決定部32は送信されたそれらの結果を利用するのみでもよい。処理条件決定部32はまた、撮像装置12から付加データとして送信されたり、送信されたカラー化画像を用いて生成したエッジ画像を用いて、デモザイク処理における色の補間の方向を決定したり、補間のための重み付けを表すフィルタを切り替えたりしてもよい。エッジ画像はこのほか、対象物の検出結果と組み合わせて、領域を限定して色調を調整するのに用いてもよい。広範囲のエッジ画像からはノイズ除去や平滑化を精度よく行えるため、そのようにして生成したエッジ画像の一部を利用することにより、デモザイク対象がごく一部の領域であっても高精度に輪郭部分を特定でき、ひいてはデモザイク後の画像もより高品質となる。
 受信データ決定部42は、復号部34で復号されたカラー化画像を受け取る。そして、周知の画像解析手法にしたがって、所定の対象物の像の領域など、撮影画像のうちアプリケーションで特に重要とされる領域を特定する。この領域は、例えばビデオチャットであればユーザの顔の像の領域であり、UIであれば目、口元、手足等の像の領域である。特定した領域の情報は、通信部22を介して撮像装置12にフィードバックする。この情報にしたがって、撮像装置12からは当該領域のRAW画像のデータが送られる。これにより、RAW画像については限られた領域のデータのみをホスト端末20に送信し、デモザイク処理することが可能となる。
 また受信データ決定部42は、処理条件決定部32が行う各処理や、出力画像生成部40における出力画像の生成処理に必要なカラー化画像のサイズを決定し、通信部22を介して撮像装置12に要求してもよい。例えばカラー化画像を用いて対象物を検出する場合、当該対象物がカメラから近ければ見かけ上のサイズは大きくなるため、縮小率が大きい(サイズが小さい)カラー化画像を送信させる。これにより検出精度を保ちつつ転送や検出処理の負荷も抑えられる。対象物がカメラから離れた位置にあるほど、その像は小さくなるため、検出精度を維持するために縮小率の小さい(サイズの大きい)カラー化画像を要求する。
 奥行き画像を生成する場合は、同じサイズのステレオ画像を要求する。要求すべきカラー化画像のサイズは、上述の対象物の位置以外に、処理の内容、要求される精度、画像の周波数特性、色の分布などによって変化するため、受信データ決定部42内部にはあらかじめ、最適なサイズを導出するための規則を設定しておき、前の時刻の画像フレームにおける特性などに基づき要求する階層を決定する。出力画像生成部40は、表示装置16に表示すべき画像を生成する。この画像はRAW画像をデモザイク部28でデモザイク処理し補正部30で補正した画像、またはその一部でもよいし、撮像装置12から送信されたカラー化画像を合成した画像でもよい。あるいはユーザ1の動きやジェスチャを図示しない機能ブロックに認識させ、その結果に応じてそれらの画像に加工を施してもよい。
 出力画像生成部40は、生成した出力画像をフレームバッファ(図示せず)に書き込む。表示制御部54は、フレームバッファに描画された画像データを表示装置16に表示するためのビデオ信号を生成する。このようにして生成されたビデオ信号が表示装置16に送信され順次表示されることにより、撮影画像からアプリケーションに応じて生成した高品質の画像を低レイテンシで表示できる。表示画像のデータを適宜圧縮符号化し、ネットワーク18を介して別の装置へ送信するようにしてもよい。
 図5は本実施の形態における画像データの変遷と情報の流れを模式的に示している。ただし用いる情報を図示するものに限定する趣旨ではなく、図示するもの全ての情報を用いる趣旨でもない。また同図は、下端に示すように左端が撮像装置12、右端が表示装置16、その中間がホスト端末20という方向性で、画像処理システム10全体での画像データの変遷と情報の流れを示しており、処理の主体として撮像装置12とホスト端末20の区別を明示していない。これは、撮像装置12およびホスト端末20の処理能力やデータ転送帯域、最終的に出力する画像などによって、上述のとおりなすべき中間処理や各処理の主体が様々考えられ、両者の境界を適宜選択できることを意図している。
 まず撮像装置12の左右のカメラ13a、13bがそれぞれ共通の被写体空間を撮影することにより、左右のRAW画像202a、202bが取得される。これらの画像は上述のようにベイヤ配列を有する。図5ではRAW画像202a、202b内の各マス目が1画素を示し、各画素が有する情報が赤、緑、青のうちいずれであるかを「R」、「G」、「B」の文字で示している。
 撮像装置12の各カメラ13a、13bにおいて、デモザイク部104はRAW画像をデモザイク処理してカラー化画像、同図の場合、Y画像、Cb画像、Cr画像を生成する。それをピラミッドフィルタ部170が段階的に縮小することで、撮影画像を複数解像度で表したカラー化画像群204a、204bが生成される(S10、S12)。そのように生成したカラー化画像群204a、204bのうち送信対象として抽出された画像に対し、補正部156により所定の補正処理が施される。ただしS10、S12で生成した全ての画像を補正してもよい。
 補正部156は補正処理に際し、必要な画像処理パラメータ206を取得したり算出したりする(P10)。ここで行う補正処理は、上述のようにノイズ除去、ゲイン補正、シェーディング補正、ホワイトバランス調整、ガンマ補正、輪郭補償、色調補正など周知技術のいずれかまたはその組み合わせでよい。図5において画像処理パラメータ206として、「シェーディング補正パラメータ」、「ホワイトバランスゲイン」、「ガンマ値」、「色補正マトリクス」、「HSV調整量」、「ヒストグラム」、「フィルタ係数」、「連続性情報」が例示されているが、それらのパラメータを全て撮像装置12が取得する趣旨ではない。また、奥行き画像から求めた対象物の距離、画像解析から求めた空間周波数特性や局所高輝度領域、絞り値などの撮影条件など、別のパラメータを含めてもよい。
 特に本実施の形態では、撮影画像のうち詳細な情報を必要とする重要な領域は、ホスト端末20においてRAW画像から生成するため、撮像装置12ではホスト端末20における補正処理より簡易な処理とすることで処理効率を上げることができる。従って図示する画像処理パラメータ206のうち重要なものは、ホスト端末20自身が高精度に取得、算出することを前提に、撮像装置12ではその一部を簡易的な手法で取得すればよい。ただし撮像装置12の処理リソースが潤沢に用意できる環境にあっては、撮像装置12において画像処理パラメータ206を詳細に取得してもよい。
 また撮像装置12のデモザイク部104において、周囲の画素から重み付け係数を乗算して平均値をとるなどフィルタを用いて画素値を補間する場合は、用いたフィルタ係数を画像処理パラメータ206に含めてもよい。撮影画像中の像の連続性、すなわち輪郭線の方向によって用いるフィルタを切り替える場合は、その判断に用いた画素間の相関の程度(相関情報)に係る情報を含めてもよい。フィルタの切り替えにはそのほかにも様々なケースがあるため、採用するアルゴリズムに応じて、用いるフィルタや、切り替えのための判定結果を画像処理パラメータ206に適宜、含めてよい。
 カラー化画像群204a、204bのうち補正が施された送信対象の画像データと、その補正に係る画像処理パラメータ206は、ホスト端末20に送信される。このとき、一方のカメラが取得したRAW画像202aのうち、ホスト端末20が要求した部分画像208のデータも抽出され送信される(S14)。ホスト端末20では、送信されたRAW画像の部分画像208、またはさらにその一部の領域の画像をデモザイク処理してカラー化画像212を生成したうえ、それに補正処理を施す(S16)。
 このとき上述のように、撮像装置12から付加データとして送信された画像処理パラメータ206を利用することにより、ホスト端末20の処理の負荷を軽減するとともに、カラー化画像212のような一部の画像からでは精度が得られにくいパラメータについて、全体画像から得た精度の高い値で良好な補正結果が得られるようにする。
 例えば輝度ヒストグラムを参照画像のヒストグラムと比較し、その距離を最小とするようにHSV(色相、彩度、明度)調整を行ったりガンマ値を調整したりする場合、部分的なカラー化画像212のみでは十分な精度が得られにくい。したがって、撮像装置12から取得した全体画像のヒストグラムを参照画像の全体のヒストグラムと比較して調整量を取得し、それをカラー化画像212に適用することにより、全体画像の一部の領域として良好な調整結果が得られる。なお撮像装置12で最適なHSV調整量やガンマ値を導出した場合は、それらをそのまま用いて調整してもよい。
 ホワイトバランスのゲイン値、色補正マトリクス係数についても同様に、撮像装置12から全体領域のヒストグラムが送信された場合は、それを参照画像のヒストグラムと比較することにより周知のアルゴリズムでそれらのパラメータを導出し、それをカラー化画像212のホワイトバランス調整、色調補正に用いる。撮像装置12でそれらのパラメータを導出してホスト端末20に送信した場合は、それらをそのまま用いる。シェーディング補正に用いる近似曲線やゲイン係数は、シェーディング補正パラメータとして撮像装置12から取得したものを、簡単な計算式で部分的なカラー化画像212に当てはめることができる。
 デモザイク処理では一般に、エッジを跨ぐ画素列を平均化して画素値を補間した場合、エッジを境界とする2領域での色変化が平滑化されてしまい、色ずれやにじみが発生しやすい。そのためエッジ近傍の画素については、エッジを越えた画素の情報を補間式から極力除外するような工夫がなされる。例えば、水平方向/垂直方向で周囲の画素の画素値の相関に偏り(大小)があるか、方向によらず相関が同程度か、という判定を補間すべき画素ごとに所定の判定式により行い、相関の強い方向に像が連続していると想定して補間式に含める画素を決定する、といったことが一般的になされている。
 さらに、別の色の画素値を加味したり、より広範囲の画素を重み付け平均したりする手法が様々提案されている。一方、部分的なカラー化画像212のみでは、ノイズ等によって上記判定に誤差が生じやすく、ひいては上述の色ずれやにじみ等により望んだ画質が得られないことが考えられる。そこで撮像装置12から送信された、ノイズを除去した全体領域のカラー化画像を用いて上記判定を別途行い、その結果に従って補間式を切り替える。あるいは全体領域のカラー化画像から生成したエッジ画像や輪郭を強調した画像に基づきエッジが存在する箇所を特定しておき、それを部分画像208に当てはめることにより補間式を切り替えてもよい。図5ではそのような切り替えの根拠となる情報を総称して「相関情報」とし、画像処理パラメータ206に含めている。
 ホスト端末20ではさらに、撮像装置12から送信された同じ解像度のステレオ画像を用いて奥行き画像210を生成したり(S18)、送信されたカラー化画像に対し顔検出などの対象物検出処理を施したりすることにより、処理対象として抽出すべき領域を特定したり、撮像画像に映っている物を特定したりする(P12、P14)。抽出すべき領域の情報は、撮像装置12へ送信を要求するRAW画像の領域指定に用いるほか(P16)、送信されたRAW画像の部分画像208のうちホスト端末20でデモザイク処理を施す領域をさらに限定するのにも用いることができる。
 また、人の顔、風景など被写体の種類に係る情報は、ホスト端末20内部での補正処理に用いることができる(P18、P20)。例えば部分画像208に映っている像が人の顔である、という情報に基づき、当該像の領域のみのヒストグラムを取得し、人の顔の参照画像におけるヒストグラムと比較することにより、色調補正を行うための画像処理パラメータを別途、算出して補正を行う。風景画像であるかポートレートであるか、室内の画像か野外の画像か、日中の画像か夜景か、海の青か空の青か、といった区別により画像を適切に補正する技術は様々提案されているが、そのような分岐の基準は部分画像208のみからでは判別しにくいことが考えられる。
 撮像装置12から取得した全体領域のカラー化画像から既知の画像解析により得た情報に基づき、部分画像208のデモザイク処理や補正処理を行うことにより、部分領域であっても被写体の種類や撮影環境等に応じた適切なカラー化画像を得ることができる。なお上述のように、奥行き画像に基づき特定した対象物のカメラからの距離によって、撮像装置12へ要求するカラー化画像のサイズを指定するようにしてもよい。
 ホスト端末20はそのようにして自らがRAW画像から生成した高品質のカラー化画像212を表示装置16に表示させる。このとき例えば、撮像装置12から送信された、縮小したカラー化画像を元のサイズに拡大した画像と合成すれば、撮影画像と同じ視野で、人の顔など注目すべき領域のみが高品質な画像214を表示できる(S18、S20)。あるいは、高品質のカラー化画像212のみを表示したり、高品質のカラー化画像212を用いて顔認識処理など高画質の画像が要求される画像解析を高精度に行い、その結果に基づき、各種情報処理を行ったりいずれかのカラー化画像に加工を施して表示したりしてもよい。
 以上述べた本実施の形態によれば、撮像装置においてデモザイク処理が施された画像とRAW画像のデータをホスト端末に送信する。このときデモザイク処理自体やその補正処理において用いた条件や処理に必要なパラメータを付加データとして共に送信する。そしてホスト端末で、送信されたRAW画像をデモザイク処理したり補正したりする際、付加データをそのまま利用したり、付加データに基づき必要なパラメータを導出したりする。これにより、ホスト端末でのデモザイク処理、補正処理に必要な処理の工数を最小限に抑えつつ、RAW画像という情報損失のない画像を用いた高品質な処理を、実行するアプリケーションなどに応じて自由に行える。
 また、撮影画像の全体領域から得られたヒストグラムなどのパラメータをホスト端末で利用できることから、撮像装置からホスト端末へ送信するRAW画像を部分的な領域としても、全体領域の一部として適切にデモザイク処理、補正処理を実施できる。結果として、データの伝送帯域を抑えながら良好かつ要求にかなった画像を表示することができる。撮像装置でステレオ画像を撮影したり、それを複数段階で縮小したりし、それらから得られる情報をさらに利用したり、適切な画像を選択的にホスト端末から要求するようにしたりすることで、RAW画像の部分領域から対象物の像を特定したり、部分領域自体を適切に選択したりでき、処理の効率および精度をさらに向上させることができる。
 このように撮像装置とホスト端末でデモザイク処理を並列に行うことにより、処理が分散し、結果として、高精度、高品質の処理を低レイテンシで行える。また撮像装置とホスト端末において、中間データや処理に必要なパラメータの一部を共有することにより、両者のカラー化画像を合成しても見た目の連続性が保たれやすい。また処理に必要なパラメータが最初に得られることにより、ホスト端末においてRAW画像のデモザイク処理およびその補正処理を画素列ごとなどで並列に行えるため、画像を展開するための中間バッファが最小限ですむ。このような並列処理を並列度の高いGPUで実行するようにすれば、より処理効率が向上するため、既存のハードウェアとの親和性が高い。
 以上、本発明を実施の形態をもとに説明した。上記実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
 10 画像処理システム、 12 撮像装置、 13a カメラ、 16 表示装置、 20 ホスト端末、 22 通信部、 24 振り分け部、 28 デモザイク部、 30 補正部、 32 処理条件決定部、 34 復号部、 40 出力画像生成部、 50 画像処理部、 52 処理制御部、 54 表示制御部、 102 画像取得部、 104 デモザイク部、 108 通信部、 150 画像送出部、 154 送信データ抽出部、 156 補正部、 158 符号化部、 160 パケット化部、 162 パケットバッファ、 164 制御部、 170 ピラミッドフィルタ部。
 以上のように本発明はコンピュータ、ゲーム装置、画像処理装置、撮像装置、それらを含むシステムなどに利用可能である。

Claims (13)

  1.  撮像装置が撮影した画像を用いて表示画像を生成し表示装置に表示させる画像処理装置であって、
     前記撮像装置から、撮像素子から出力される未加工画像のデータ、当該未加工画像に対しデモザイク処理および補正処理を施してなるカラー化画像のデータ、および当該カラー化画像を生成する過程で取得した処理情報、のそれぞれ少なくとも一部のデータを受信する受信部と、
     前記未加工画像のデータにデモザイク処理および補正処理を施してカラー化画像を生成するデモザイク部と、
     前記デモザイク部が生成したカラー化画像と、前記撮像装置から送信されたカラー化画像とを用いて表示画像を生成する表示画像生成部と、を備え、
     前記デモザイク部は、前記デモザイク処理および補正処理の少なくともいずれかの過程で、前記撮像装置から送信された前記処理情報を利用することを特徴とする画像処理装置。
  2.  前記デモザイク部は、前記撮像装置におけるデモザイク処理および補正処理に含まれる処理のいずれかと同内容の処理を行う際、前記撮像装置における当該処理の過程で取得した前記処理情報を、自身の処理に利用することを特徴とする請求項1に記載の画像処理装置。
  3.  前記デモザイク部は、前記撮像装置から送信された前記カラー化画像を用いて処理情報を新たに取得し、前記デモザイク処理および補正処理の少なくともいずれかの過程で、新たに取得した処理情報をも利用することを特徴とする請求項1または2に記載の画像処理装置。
  4.  前記未加工画像のうち、前記撮像装置へデータ送信を要求する領域を決定する受信データ決定部をさらに備え、
     前記デモザイク部が行う処理の対象領域は、前記撮像装置におけるデモザイク処理および補正処理の対象領域より小さいことを特徴とする請求項1から3のいずれかに記載の画像処理装置。
  5.  前記デモザイク部は、前記撮像装置で生成された前記カラー化画像から生成されたエッジ画像を前記デモザイク処理に利用することにより、画素間の相関を考慮してカラー情報を補完することを特徴とする請求項1から4のいずれかに記載の画像処理装置。
  6.  撮像装置と、前記撮像装置が撮影した画像を用いて表示画像を生成し表示装置に表示させる画像処理装置と、を含む画像処理システムであって、
     前記撮像装置は、
     撮像素子から出力される未加工画像のデータを取得しデモザイク処理および補正処理を施してカラー化画像を生成する第1デモザイク部と、
     前記未加工画像、前記カラー化画像、当該カラー化画像を生成する過程で前記第1デモザイク部が取得した処理情報、のそれぞれ少なくとも一部のデータを、前記画像処理装置に送信する送信部と、を備え、
     前記画像処理装置は、
     前記撮像装置から送信されたデータを受信する受信部と、
     送信された前記未加工画像のデータにデモザイク処理および補正処理を施してカラー化画像を生成する第2デモザイク部と、
     前記第2デモザイク部が生成したカラー化画像と、前記撮像装置から送信されたカラー化画像とを用いて表示画像を生成する表示画像生成部と、を備え、
     前記第2デモザイク部は、前記デモザイク処理および補正処理の少なくともいずれかの過程で、前記撮像装置から送信された前記処理情報を利用することを特徴とする画像処理システム。
  7.  前記撮像装置の前記送信部は、前記処理情報として、画像を補正するために取得した、画素値に乗算するゲイン値、フィルタ係数、所定のパラメータの調整量、の少なくともいずれかを前記画像処理装置に送信し、
     前記画像処理装置の前記第2デモザイク部は、送信されたデータをそのまま用いることにより前記補正処理を行うことを特徴とする請求項6に記載の画像処理システム。
  8.  前記撮像装置の前記送信部は、前記処理情報として、前記第1デモザイク部が生成したカラー化画像のカラーヒストグラムを前記画像処理装置に送信し、
     前記画像処理装置の前記第2デモザイク部は、送信されたカラーヒストグラムを参照画像のカラーヒストグラムと比較することにより、補正処理に必要なパラメータを導出することを特徴とする請求項6または7に記載の画像処理システム。
  9.  撮影した画像を用いて表示画像を生成し表示装置に表示させる画像処理装置に撮影画像に係るデータを供給する撮像装置であって、
     撮像素子から出力される未加工画像のデータを取得しデモザイク処理および補正処理を施してカラー化画像を生成するデモザイク部と、
     前記画像処理装置においてデモザイク処理および補正処理を施す対象とされた前記未加工画像のデータの少なくとも一部と、前記表示画像の生成に用いられる前記カラー化画像のデータの少なくとも一部と、当該カラー化画像を生成する過程で前記デモザイク部が取得し前記画像処理装置におけるデモザイク処理および補正処理の少なくともいずれかの過程で利用される処理情報の少なくとも一部、のデータを、前記画像処理装置に送信する送信部と、
     を備えたことを特徴とする撮像装置。
  10.  前記送信部は前記処理情報として、前記デモザイク部が補正処理の過程で取得した、画素値に乗算するゲイン値、フィルタ係数、所定のパラメータの調整量、および、前記デモザイク部が生成したカラー化画像のカラーヒストグラム、の少なくともいずれかを、前記画像処理装置に送信することを特徴とする請求項9に記載の撮像装置。
  11.  撮像装置が撮影した画像を用いて表示画像を生成し表示装置に表示させる画像処理装置による画像処理方法であって、
     前記撮像装置から、撮像素子から出力される未加工画像のデータ、当該未加工画像に対しデモザイク処理および補正処理を施してなるカラー化画像のデータ、および当該カラー化画像を生成する過程で取得した処理情報、のそれぞれ少なくとも一部のデータを受信するステップと、
     前記未加工画像のデータにデモザイク処理および補正処理を施してカラー化画像を生成するステップと、
     前記生成するステップで生成したカラー化画像と、前記受信するステップで受信したカラー化画像とを用いて表示画像を生成し表示装置に出力するステップと、を含み、
     前記生成するステップは、前記デモザイク処理および補正処理の少なくともいずれかの過程で、前記受信するステップで受信した前記処理情報を利用することを特徴とする画像処理方法。
  12.  撮像装置が撮影した画像を用いて表示画像を生成し表示装置に表示させるコンピュータに、
     前記撮像装置から、撮像素子から出力される未加工画像のデータ、当該未加工画像に対しデモザイク処理および補正処理を施してなるカラー化画像のデータ、および当該カラー化画像を生成する過程で取得した処理情報、のそれぞれ少なくとも一部のデータを受信する機能と、
     前記未加工画像のデータにデモザイク処理および補正処理を施してカラー化画像を生成する機能と、
     前記生成する機能が生成したカラー化画像と、前記受信する機能が受信したカラー化画像とを用いて表示画像を生成し表示装置に出力する機能と、を実現させ、
     前記生成する機能は、前記デモザイク処理および補正処理の少なくともいずれかの過程で、前記受信する機能が受信した前記処理情報を利用することを特徴とするコンピュータプログラム。
  13.  撮像装置が撮影した画像を用いて表示画像を生成し表示装置に表示させるコンピュータに、
     前記撮像装置から、撮像素子から出力される未加工画像のデータ、当該未加工画像に対しデモザイク処理および補正処理を施してなるカラー化画像のデータ、および当該カラー化画像を生成する過程で取得した処理情報、のそれぞれ少なくとも一部のデータを受信する機能と、
     前記未加工画像のデータにデモザイク処理および補正処理を施してカラー化画像を生成する機能と、
     前記生成する機能が生成したカラー化画像と、前記受信する機能が受信したカラー化画像とを用いて表示画像を生成し表示装置に出力する機能と、を実現させ、
     前記生成する機能は、前記デモザイク処理および補正処理の少なくともいずれかの過程で、前記受信する機能が受信した前記処理情報を利用するコンピュータプログラムを記録したことを特徴とする、コンピュータにて読み取り可能な記録媒体。
PCT/JP2015/065448 2014-06-04 2015-05-28 画像処理装置、画像処理システム、撮像装置、および画像処理方法 WO2015186605A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/312,210 US10055815B2 (en) 2014-06-04 2015-05-28 Image processing apparatus, image processing system, imaging apparatus and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-115870 2014-06-04
JP2014115870A JP6129119B2 (ja) 2014-06-04 2014-06-04 画像処理装置、画像処理システム、撮像装置、および画像処理方法

Publications (1)

Publication Number Publication Date
WO2015186605A1 true WO2015186605A1 (ja) 2015-12-10

Family

ID=54766678

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/065448 WO2015186605A1 (ja) 2014-06-04 2015-05-28 画像処理装置、画像処理システム、撮像装置、および画像処理方法

Country Status (3)

Country Link
US (1) US10055815B2 (ja)
JP (1) JP6129119B2 (ja)
WO (1) WO2015186605A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102493746B1 (ko) * 2016-08-18 2023-02-02 삼성전자주식회사 이미지 신호 처리 방법, 이미지 신호 프로세서, 및 전자 장치
EP3571627A2 (en) 2017-01-19 2019-11-27 Mindmaze Holding S.A. Systems, methods, apparatuses and devices for detecting facial expression and for tracking movement and location including for at least one of a virtual and augmented reality system
US10943100B2 (en) 2017-01-19 2021-03-09 Mindmaze Holding Sa Systems, methods, devices and apparatuses for detecting facial expression
CN110892408A (zh) * 2017-02-07 2020-03-17 迈恩德玛泽控股股份有限公司 用于立体视觉和跟踪的系统、方法和装置
JP6792872B2 (ja) * 2017-03-15 2020-12-02 株式会社朋栄 最適カラーマッチング処理方法と画像処理装置
WO2018216538A1 (ja) * 2017-05-23 2018-11-29 ソニー株式会社 情報処理装置、情報処理方法および情報処理プログラム
US10612951B2 (en) * 2017-05-31 2020-04-07 Pixart Imaging Inc. Optical flow sensor, methods, remote controller device, and rotatable electronic device
CN109635616B (zh) * 2017-10-09 2022-12-27 阿里巴巴集团控股有限公司 互动方法和设备
US11328533B1 (en) 2018-01-09 2022-05-10 Mindmaze Holding Sa System, method and apparatus for detecting facial expression for motion capture
CN114009006A (zh) * 2019-06-28 2022-02-01 索尼半导体解决方案公司 传输装置、接收装置和传输系统
EP3823269A1 (en) * 2019-11-12 2021-05-19 Axis AB Color image reconstruction
CN114520890B (zh) * 2020-11-19 2023-07-11 华为技术有限公司 图像处理方法及装置
US11948357B2 (en) * 2021-03-24 2024-04-02 Nbcuniversal Media, Llc Image colorization systems and methods
JP2022150350A (ja) * 2021-03-26 2022-10-07 セイコーエプソン株式会社 画像処理回路、回路装置及び電子機器

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008075745A1 (ja) * 2006-12-21 2008-06-26 Panasonic Corporation 現像サーバ、現像クライアント、現像システム、および現像方法
JP2008153836A (ja) * 2006-12-15 2008-07-03 Sony Corp 撮像装置、画像処理装置、画像処理方法、画像処理方法のプログラム及び画像処理方法のプログラムを記録した記録媒体
JP2008177724A (ja) * 2007-01-17 2008-07-31 Sony Corp 画像入力装置、信号処理装置および信号処理方法
JP2011097521A (ja) * 2009-11-02 2011-05-12 Sony Computer Entertainment Inc 動画像処理プログラム、装置および方法、動画像処理装置を搭載した撮像装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2931520B2 (ja) 1993-08-31 1999-08-09 三洋電機株式会社 単板式カラービデオカメラの色分離回路
RU2000102890A (ru) 1998-05-19 2002-03-27 Сони Компьютер Энтертейнмент Инк. (Jp) Устройство и способ обработки изображений и распространяемый носитель
EP2293172A3 (en) 2005-10-26 2011-04-13 Sony Computer Entertainment Inc. System and method for interfacing and computer program
JP5045421B2 (ja) * 2007-12-21 2012-10-10 ソニー株式会社 撮像装置、色ノイズ低減方法および色ノイズ低減プログラム
JP5452242B2 (ja) * 2010-01-15 2014-03-26 オリンパス株式会社 画像処理装置、内視鏡システム、プログラム及び画像処理装置の作動方法
WO2014034486A1 (ja) * 2012-08-27 2014-03-06 富士フイルム株式会社 画像処理装置、方法、プログラム及び記録媒体並びに撮像装置
JP5775977B2 (ja) * 2012-12-11 2015-09-09 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法、及び画像処理プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008153836A (ja) * 2006-12-15 2008-07-03 Sony Corp 撮像装置、画像処理装置、画像処理方法、画像処理方法のプログラム及び画像処理方法のプログラムを記録した記録媒体
WO2008075745A1 (ja) * 2006-12-21 2008-06-26 Panasonic Corporation 現像サーバ、現像クライアント、現像システム、および現像方法
JP2008177724A (ja) * 2007-01-17 2008-07-31 Sony Corp 画像入力装置、信号処理装置および信号処理方法
JP2011097521A (ja) * 2009-11-02 2011-05-12 Sony Computer Entertainment Inc 動画像処理プログラム、装置および方法、動画像処理装置を搭載した撮像装置

Also Published As

Publication number Publication date
JP2015231103A (ja) 2015-12-21
US10055815B2 (en) 2018-08-21
JP6129119B2 (ja) 2017-05-17
US20170109864A1 (en) 2017-04-20

Similar Documents

Publication Publication Date Title
JP6129119B2 (ja) 画像処理装置、画像処理システム、撮像装置、および画像処理方法
JP5701707B2 (ja) 動画像撮影装置、情報処理システム、情報処理装置、および画像データ処理方法
US8363131B2 (en) Apparatus and method for local contrast enhanced tone mapping
US8547451B2 (en) Apparatus and method for obtaining high dynamic range image
JP7182907B2 (ja) カメラの画像データ処理方法およびカメラ
JP5017419B2 (ja) 画像生成装置、画像生成方法、およびプログラム
US11694372B2 (en) Non-linear color correction
US11317070B2 (en) Saturation management for luminance gains in image processing
WO2014044045A1 (zh) 图像处理方法及装置
JP5325745B2 (ja) 動画像処理プログラム、装置および方法、動画像処理装置を搭載した撮像装置
US10521891B2 (en) Image processing apparatus, system, image processing method, and non-transitory recording medium
US10600170B2 (en) Method and device for producing a digital image
JP6121787B2 (ja) 撮像装置、情報処理システム、および画像データ処理方法
CN107613216A (zh) 对焦方法、装置、计算机可读存储介质和电子设备
JP2011171842A (ja) 画像処理装置及び画像処理プログラム
EP2421239B1 (en) Image processing apparatus and method for applying film grain effects
JP2010521719A (ja) 画像処理システムおよび画像処理プログラム
US20240114251A1 (en) Server device and program
US20130100313A1 (en) Image processing device and storage medium storing image processing program
JP5088272B2 (ja) 画像処理装置、電子カメラおよび画像処理プログラム
JP5586031B2 (ja) 画像処理システム、画像処理方法および画像処理プログラム
JP2010055187A (ja) 画像処理装置、電子カメラおよび画像処理プログラム
JP2013175234A (ja) 画像処理装置、電子カメラおよび画像処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15803930

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15312210

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15803930

Country of ref document: EP

Kind code of ref document: A1