WO2019146419A1 - 画像処理装置、および画像処理方法、並びにプログラム - Google Patents

画像処理装置、および画像処理方法、並びにプログラム Download PDF

Info

Publication number
WO2019146419A1
WO2019146419A1 PCT/JP2019/000563 JP2019000563W WO2019146419A1 WO 2019146419 A1 WO2019146419 A1 WO 2019146419A1 JP 2019000563 W JP2019000563 W JP 2019000563W WO 2019146419 A1 WO2019146419 A1 WO 2019146419A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
area
color image
point color
composite
Prior art date
Application number
PCT/JP2019/000563
Other languages
English (en)
French (fr)
Inventor
隆宣 小走
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US16/961,165 priority Critical patent/US11330177B2/en
Publication of WO2019146419A1 publication Critical patent/WO2019146419A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3871Composing, repositioning or otherwise geometrically modifying originals the composed originals being of different kinds, e.g. low- and high-resolution originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Definitions

  • a system is a logical set composition of a plurality of devices, and the device of each composition is not limited to what exists in the same case.
  • FIG. 1 is a view for explaining an example of a process of generating a one-point color image based on a color image described in, for example, Patent Document 1 (Japanese Patent Application Laid-Open No. 2013-228689) described above.
  • Step S23 The image processing unit performs combining processing of a color image and a black and white image for a user-selected portion to generate a combined color image having both luminance information of high accuracy of the black and white image and color information of the color image. For portions other than the user selected portion, the black and white image is used as it is. Such image processing is performed to generate a one-point color image.
  • Step S24 The one-point color image generated by the image processing unit is encoded (jpg, mp4, etc.) and recorded in the storage unit.
  • the image processing unit 120 generates a composite image using captured images acquired by the color image capturing unit 111 and the black and white image capturing unit 112. That is, the image processing unit 120 performs image processing using captured images acquired by the color image capturing unit 111 and the black and white image capturing unit 112, and is individually acquired by the color image capturing unit 111 and the black and white image capturing unit 112. To generate a composite image of the captured image with high image quality, and output the composite image to the display unit (touch panel) 131 or the storage unit 132 in the output unit 130. The details of the configuration and operation of the image processing unit 120 will be described later.
  • the sensor unit 141 is configured using a gyro sensor or the like, and detects a shake generated in the image processing apparatus 100.
  • the sensor unit 141 outputs information on the detected shake to the control unit 150.
  • the display unit (touch panel) 131 displays a captured image based on the image data supplied from the image processing unit 120, and displays a menu screen, various application screens and the like based on an information signal from the control unit 150.
  • the display surface of the display unit (touch panel) 131 has a touch panel configuration, and is configured to be able to use a GUI function.
  • the graph shown in FIG. 10 is a graph in which the horizontal axis represents the occlusion area and the vertical axis represents the parallax.
  • the occlusion area on the horizontal axis corresponds to the occupancy rate (%) of the color image captured by the color image capturing unit 111, the black and white image captured by the black and white image capturing unit 112, and the occlusion area included in the image region of these two images.
  • the parallax on the vertical axis is the parallax (for example, the number of pixels) of these two images, the color image photographed by the color image pickup unit 111, the black and white image photographed by the black and white image pickup unit 112.
  • the color image reference composite image shooting mode is In this mode, after the black and white image is aligned at the image position of the color image with the color image as a reference, the image synthesis is performed to generate a synthesized image. Since the color image is used as a reference, no color shift occurs in the composite image, and the luminance can be faithfully reproduced according to the characteristics of the lens and sensor used in the black and white image capturing unit 112.
  • the black and white image standard composite image shooting mode is In this mode, after the color image is aligned with the image position of the black and white image with the black and white image as a reference, image synthesis is performed to generate a synthesized image. Also in this case, the brightness can be faithfully reproduced according to the characteristics of the lens and sensor used in the black and white image capturing unit 112.
  • the composite image generation unit (A) Color image reference composite image or (B) Black and white image reference composite image, One of the above composite images is generated,
  • the image processing apparatus according to (1), wherein one of the two combined images of (a) and (b) is determined to have high image quality by the image quality determination process.
  • the colored area of the one-point color image is configured to be automatically determined in accordance with the object included in the captured image,
  • the output image generation unit Input object-based colorization area selection information,
  • the image processing apparatus according to any one of (1) to (5), which generates a one-point color image in which a specific object (object) area is set as a colorization area according to the input coloration area selection information.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

高画質なワンポイントカラー画像の生成を可能とした装置、方法を実現する。異なる視点から撮影されたカラー画像と白黒画像の合成処理を実行して合成画像を生成する合成画像生成部と、画像の一部領域のみをカラー化したワンポイントカラー画像を生成する出力画像生成部を有する。出力画像生成部は、ワンポイントカラー画像のカラー化領域を合成画像の画素値出力領域とし、非カラー化領域を白黒画像の画素値出力領域としたワンポイントカラー画像を生成する。カラー化領域の選択は、ユーザ選択、自動選択のいずれかによって行われる。例えばユーザ指定領域情報、被写体距離情報等を用いて実行される。

Description

画像処理装置、および画像処理方法、並びにプログラム
 本開示は、画像処理装置、および画像処理方法、並びにプログラムに関する。さらに詳細には、複数の撮像部で撮影されたカラー画像と白黒画像の合成処理によって、一部の画像領域のみをカラー化したワンポイントカラー画像を生成する画像処理装置、および画像処理方法、並びにプログラムに関する。
 画像の一部領域のみをカラー化し、残りを白黒画像とした画像は、ワンポイントカラー画像と呼ぶ。
 このワンポイントカラー画像の生成処理について記載した従来技術として例えば特許文献1(特開2013-228689号公報)がある。
 この特許文献1には、カラー画像に対してユーザが領域指定を行い、指定領域のみをカラー画像として残し、その他の領域を白黒画像に変換してワンポイントカラー画像を生成する構成を開示している。
特開2013-228689号公報
 上記特許文献1は、カラー画像のみを利用してワンポイントカラー画像を生成する構成を開示している。
 これに対して本開示の構成は、カラー画像と白黒画像の2つの画像を利用してワンポイントカラー画像を生成する。
 カラー画像に比較して白黒画像は輝度情報の忠実な再現が可能であり、カラー画像に白黒画像の輝度情報を利用して合成した合成カラー画像はより高画質な画像となる。
 従って、例えば、カラー化を施したい領域のみカラー画像と白黒画像を合成した合成画像(カラー画像)とし、その他の領域を、白黒画像を利用した白黒画像とすることで、画像全体に白黒画像の高精度な輝度情報が反映された高画質なワンポイントカラー画像を生成することができる。
 本開示は、このようにカラー画像と白黒画像の2つの画像を利用して高画質なワンポイントカラー画像を生成することを可能とした画像処理装置、および画像処理方法、並びにプログラムを提供することを目的とする。
 本開示の第1の側面は、
 異なる視点から撮影されたカラー画像と白黒画像の合成処理を実行して合成画像を生成する合成画像生成部と、
 画像の一部領域のみをカラー化したワンポイントカラー画像を生成する出力画像生成部を有し、
 前記出力画像生成部は、
 ワンポイントカラー画像のカラー化領域を前記合成画像の画素値出力領域とし、
 ワンポイントカラー画像の非カラー化領域を前記白黒画像の画素値出力領域としたワンポイントカラー画像を生成する画像処理装置にある。
 さらに、本開示の第2の側面は、
 画像処理装置において実行する画像処理方法であり、
 合成画像生成部が、異なる視点から撮影されたカラー画像と白黒画像の合成処理を実行して合成画像を生成する合成画像生成ステップと、
 出力画像生成部が、画像の一部領域のみをカラー化したワンポイントカラー画像を生成する出力画像生成ステップを実行し、
 前記出力画像生成ステップにおいて、
 ワンポイントカラー画像のカラー化領域を前記合成画像の画素値出力領域とし、
 ワンポイントカラー画像の非カラー化領域を前記白黒画像の画素値出力領域としたワンポイントカラー画像を生成する画像処理方法にある。
 さらに、本開示の第3の側面は、
 画像処理装置において画像処理を実行させるプログラムであり、
 合成画像生成部に、異なる視点から撮影されたカラー画像と白黒画像の合成処理を実行して合成画像を生成させる合成画像生成ステップと、
 出力画像生成部、画像の一部領域のみをカラー化したワンポイントカラー画像を生成する出力画像生成ステップを実行させ、
 前記出力画像生成ステップにおいて、
 ワンポイントカラー画像のカラー化領域を前記合成画像の画素値出力領域とし、
 ワンポイントカラー画像の非カラー化領域を前記白黒画像の画素値出力領域としたワンポイントカラー画像を生成させるプログラムにある。
 なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
 本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 本開示の一実施例の構成によれば、本開示の一実施例の構成によれば、高画質なワンポイントカラー画像の生成を可能とした装置、方法が実現される。
 具体的には、例えば、異なる視点から撮影されたカラー画像と白黒画像の合成処理を実行して合成画像を生成する合成画像生成部と、画像の一部領域のみをカラー化したワンポイントカラー画像を生成する出力画像生成部を有する。出力画像生成部は、ワンポイントカラー画像のカラー化領域を合成画像の画素値出力領域とし、非カラー化領域を白黒画像の画素値出力領域としたワンポイントカラー画像を生成する。カラー化領域の選択は、ユーザ選択、自動選択のいずれかによって行われる。例えばユーザ指定領域情報、被写体距離情報等を用いて実行される。
 本構成により、高画質なワンポイントカラー画像の生成を可能とした装置、方法が実現される。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
ワンポイントカラー画像の生成処理例について説明する図である。 ワンポイントカラー画像の生成処理例について説明する図である。 画像処理装置の外観構成例について説明する図である。 画像処理装置の構成例について説明する図である。 撮像素子の構成例について説明する図である。 白黒画像の画質について説明する図である。 カラー画像の画質について説明する図である。 オクルージョンについて説明する図である。 画像処理部の構成例について説明する図である。 基準画像決定処理の一例について説明する図である。 基準画像決定処理の一例について説明する図である。 画像処理装置の動作モードについて説明する図である。 表示部に対するUI表示例、撮影実行中の実行モード表示例について説明する図である。 本開示の画像処理装置の構成と処理について説明する図である。 本開示の画像処理装置の構成と処理について説明する図である。 本開示の画像処理装置において実行されるカラー領域選択処理例について説明する図である。
 以下、図面を参照しながら本開示の画像処理装置、および画像処理方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行なう。
 1.カラー画像と白黒画像を利用したワンポイントカラー画像の生成処理の概要について
 2.画像処理装置の構成例について
 3.画像処理部の実行する合成画像の生成処理について
 4.画像処理装置において実行される動作モードについて
 5.ワンポイントカラー画像のカラー化領域の設定方法について
 6.その他の実施例について
 7.本開示の構成のまとめ
  [1.カラー画像と白黒画像を利用したワンポイントカラー画像の生成処理の概要について]
 まず、図1以下御を参照して、以下の2通りのワンポイントカラー画像生成処理について説明する。
 (A)カラー画像をベースとしたワンポイントカラー画像の生成処理、
 (B)本開示の画像処理装置が実行するカラー画像と白黒画像を利用したワンポイントカラー画像の生成処理、
 図1は、例えば上述した特許文献1(特開2013-228689号公報)に記載されたカラー画像をベースとしたワンポイントカラー画像の生成処理例について説明する図である。
 カラー画像をベースとしたワンポイントカラー画像の生成処理は、以下の処理手順に従って実行される。
 (ステップS11)
 カラー画像を撮影する。
 (ステップS12)
 撮影されたカラー画像を、例えばタッチパネル機能を持つ表示部(UI)に出力し、ユーザがカラー化したい部分を選択する。
 (ステップS13)
 画像処理部が、ユーザ選択部分の色情報を残し、それ以外の部分の色情報を削除する画像処理を実行してワンポイントカラー画像を生成する。
 (ステップS14)
 画像処理部が生成したワンポイントカラー画像をエンコード(jpg、mp4など)して記憶部に記録する。
 このように、従来のワンポイントカラー画像生成処理は、1つのカラー画像を利用して、ユーザ指定領域のみの色情報を残し、その他の領域の色情報を削除するという処理を行っていた。
 しかし、この方法では、白黒領域の輝度情報は、元のカラー画像から得られる輝度情報となる。
 カラー画像の輝度情報は白黒画像に比較すると忠実な輝度レベル再現性が劣るという欠点がある。これは、カラー画像撮像素子の画素各々は、RGBそれぞれ異なる色フィルタを介した光を入力しているためである。
 白黒画像撮像素子は、このような色フィルタを介していないため、各画素に入射する光の輝度レベルを忠実に再現することが可能となる。
 本開示の画像処理装置は、この白黒画像の輝度レベルの再現性を利用して高品質なワンポイントカラー画像を生成することを可能としたものである。
 図2を参照して、本開示の画像処理装置が実行するカラー画像と白黒画像を利用したワンポイントカラー画像の生成処理例について説明する。
 カラー画像と白黒画像を利用したワンポイントカラー画像の生成処理は、以下の処理手順に従って実行される。
 (ステップS21a,S21b)
 カラー画像と白黒画像を撮影する。
 (ステップS22)
 撮影されたカラー画像、または白黒画像を、例えばタッチパネル機能を持つ表示部(UI)に出力し、ユーザがカラー化したい部分を選択する。
 図に示す例では、カラー画像を表示部(UI)に出力してユーザがカラー化したい部分を選択する例を示しているが、白黒画像を表示部(UI)に出力してユーザがカラー化したい部分を選択する構成としてもよい。
 (ステップS23)
 画像処理部が、ユーザ選択部分についてはカラー画像と白黒画像の合成処理を行い白黒画像の精度の高い輝度情報とカラー画像の色情報を併せ持つ合成カラー画像を生成する。ユーザ選択部分以外の部分については、白黒画像をそのまま利用する。
 このような画像処理を実行してワンポイントカラー画像を生成する。
 (ステップS24)
 画像処理部が生成したワンポイントカラー画像をエンコード(jpg、mp4など)して記憶部に記録する。
 本開示の処理では、このように、輝度再現性の高い白黒画像を利用して、ユーザ選択部分のみカラー画像から色情報を取得して、白黒画像上に色情報を合成し、それ以外の部分は、白黒画像をそのまま利用する画像合成処理を実行してワンポイントカラー画像を生成する。
 この処理により、白黒画像の持つ忠実な輝度情報を反映した高画質なワンポイントカラー画像を生成することが可能となる。
 以下、この処理を実行する画像処理装置の具体的な構成と処理について説明する。
 なお、図2を参照して説明した処理例では、カラー化する領域をユーザが選択する設定を説明したが、カラー化領域の選択は、ユーザ選択に限らず、例えば被写体の距離、顔認識等の処理に基づいて自動的に実行する等、様々な処理が可能である。
 これらの具体例については後述する。
  [2.画像処理装置の構成例について]
 図3は、本開示の画像処理装置の一構成例を示す図である。図3は、カメラ機能を備えた情報処理端末(スマホ)であり、本開示の画像処理装置の一例である。
 なお、本開示の画像処理装置は、このような情報処理端末(スマホ)に限らず、例えばカメラ等の撮像装置や、カメラ撮影画像を入力して画像処理を実行するPC等の装置も含まれる。
 図3(a)は画像処理装置10の表側を示しており、表示部11および操作部12が表側に設けられている。図3(b)は画像処理装置10の裏側を示しており、複数の撮像部、すなわちカラー画像撮像部21、白黒画像撮像部22が裏側に設けられている。
 図4は、カラー画像撮像部111、白黒画像撮像部112を個別に有する2眼型の一般的な画像処理装置の構成例を示している。
 画像処理装置100は、撮像部110を構成するカラー画像撮像部111、白黒画像撮像部112、画像処理部120、さらに、画像処理部120の処理画像の出力部130として表示部(タッチパネル)131、記憶部132を有する。
 さらに、センサ部141、操作部142、制御部150、通信部160を有している。
 カラー画像撮像部111、白黒画像撮像部112は、図3(b)に示すように画像処理装置100の同一面側に設けられている。カラー画像撮像部111、白黒画像撮像部112は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を用いて構成されており、レンズ(図示せず)により取り込まれた光の光電変換を行い、撮像画の画像データを生成して画像処理部120へ出力する。また、カラー画像撮像部111、白黒画像撮像部112は特性差を有している。
 図5は、撮像部の画素配列を例示している。図5(a)は、白黒画像撮像部112の画素配列を示している。白黒画像撮像部112は、全画素が、可視光の全波長領域の入射光量に基づく電気信号を出力するW(ホワイト)画素によって構成される。したがって、白黒画像撮像部112は、白黒画像の画像データを生成する。
 図5(b)は、カラー画像撮像部111の画素配列を示している。カラー画像撮像部111は、例えば赤色(R)画素と青色(B)画素と緑色(G)画素をベイヤ配列としたカラーフィルタを用いて構成されている。ベイヤ配列では2×2画素の画素単位において対角位置の2つの画素が緑色(G)画素で、残りの画素が赤色(R)画素と青色(B)画素とされている。すなわち、カラー画像撮像部111は、各画素が赤色と青色と緑色のいずれか1つの色成分の入射光量に基づく電気信号を出力する色画素によって構成されている。したがって、カラー画像撮像部111は、各画素が三原色(RGB)成分のいずれかを示すカラー画像の画像データを生成する。
 画像処理部120は、カラー画像撮像部111、白黒画像撮像部112で取得された撮像画を用いて、合成画像を生成する。すなわち、画像処理部120は、カラー画像撮像部111、白黒画像撮像部112で取得された撮像画を用いて画像処理を行い、カラー画像撮像部111や、白黒画像撮像部112で個々に取得される撮像画を高画質化した合成画像を生成して、出力部130内の表示部(タッチパネル)131や記憶部132へ出力する。なお、画像処理部120の構成および動作の詳細については後述する。
 センサ部141はジャイロセンサなどを用いて構成されており、画像処理装置100に生じた揺れを検出する。センサ部141は、検出した揺れの情報を制御部150へ出力する。
 通信部160は、LAN(Local Area Network)やインターネットなどのネットワーク上の機器と通信を行う。
 表示部(タッチパネル)131は、画像処理部120から供給された画像データに基づき撮像画の表示、制御部150からの情報信号に基づきメニュー画面や各種アプリケーション画面等の表示を行う。なお、表示部(タッチパネル)131の表示面はタッチパネル構成を有し、GUI機能利用できるように構成されている。
 操作部142は操作スイッチ等を用いて構成されており、ユーザ操作に応じた操作信号を生成して制御部150へ出力する。
 記憶部132は、画像処理装置100で生成された情報例えば画像処理部120から供給された画像データや、画像処理装置100で通信やアプリケーションを実行するために用いられる各種情報を記憶する。
 制御部150は、CPU(Central Processing Unit),ROM(Read Only Memory),RAM(Random Access Memory)(図示せず)などで構成されている。制御部150は、ROMまたはRAMに記憶されたプログラムを実行して、表示部(タッチパネル)131を構成するタッチパネルや操作部142に対するユーザ操作に応じた動作が画像処理装置100で行われるように各部の動作を制御する。
 なお、画像処理装置100は、図4に示す構成に限られず、例えば画像データを符号化して記憶部132に記憶するための符号化処理部、画像データを表示部の解像度に合わせる解像度変換部等が設けられてもよい。
  [3.画像処理部の実行する合成画像の生成処理について]
 次に、画像処理部120の実行する合成画像の生成処理について説明する。
 図4に示す画像処理部120は、白黒画像撮像部112で取得された白黒画像とカラー画像撮像部111で取得されたカラー画像を用いて画像合成処理を行う。
 図6は、白黒画像を基準画像とした画像合成処理によって得られる画質を説明するための図である。例えば、白黒画像を基準として、白黒画像の画像位置にカラー画像を位置合わせした後、画像合成を行って合成画像を生成すると、白黒画像撮像部112で用いられているレンズおよびセンサの特性に応じて輝度を忠実に再現することができる。
 一方、図7は、カラー画像を基準画像とした画像合成処理によって得られる画質を説明するための図である。例えば、カラー画像を基準として、カラー画像の画像位置に白黒画像を位置合わせした後、画像合成を行って合成画像を生成すると、カラー画像を基準としていることから合成画像では色ずれを生じることがなく、白黒画像撮像部112で用いられているレンズおよびセンサの特性に応じて輝度を忠実に再現することができる。
 しかし、白黒画像撮像部112とカラー画像撮像部111では視点が異なることから、遠景に比べて近景では色ずれを生じるリスクが高くなる。また、遠景に比べて近景ではオクルージョン領域が増加する。
 オクルージョン領域は、例えば撮像部に近い障害物等によって、一方の画像にのみ撮影され、他方の画像に撮影されない領域である。
 図8は、白黒画像撮像部112で取得される白黒画像を基準としたときのオクルージョン領域を示している。視差によってオクルージョンが生じると、カラー画像撮像部111で取得されたカラー画像ではオクルージョン領域に対応する画像データがない。このため画像合成処理によって生成された合成画像ではオクルージョン領域で色情報が欠落した画像となる。さらに、遠景に比べて近景の画素では一方の撮像画における注目画素に対応する画素が視差検出の探索範囲を超えて、視差ベクトルを算出できないおそれもある。したがって、画像合成処理によって得られる合成画像は、カラー画像撮像部111で取得されたカラー画像よりも画質が劣化する場合がある。
 また、白黒画像撮像部112はカラーフィルタを用いたカラー画像撮像部111に比べて感度が高いことから、被写体の輝度が高くなると、カラー画像撮像部111に比べて画素の飽和を生じやすい。このように白黒画像において飽和した画素が多くなると、合成画像では、カラー画像撮像部111で取得されたカラー画像に比べて被写体の高輝度部分がより多く飽和している画質の劣化したカラー画像となってしまう。
 このため、画像処理部120は、撮像画に基づき視差や画素の飽和に起因する画質の劣化を生じるか否かの画像合成判定を行う。画像処理部120は、画像合成判定結果に応じて、以下の2種類の合成画像のいずれか一方を生成する。
 カラー画像撮像部111で取得されたカラー画像を基準画像とした合成画像、
 白黒画像撮像部112で取得された白黒画像を基準画像とした合成画像。
 図9は、画像処理部120の詳細構成例を示す図である。
 画像処理部120は、前処理部121,122、視差検出部123、特徴量算出部124、画質判定部125、合成画像生成部126、出力画像生成部(選択/合成)127を有している。
 前処理部121,122は、カラー画像撮像部111、白黒画像撮像部112の取得した撮像画の画像データに対して、レンズ歪補正や欠陥画素補正、ホワイトバランス調整等の画像補正処理を行う。補正後の画像データは、視差検出部123、特徴量算出部124、画質判定部125、合成画像生成部126、出力画像生成部(選択/合成)127へ出力される。
 視差検出部123は、前処理部121,122から供給された白黒画像データとカラー画像データに基づいて視差検出を行う。
 白黒画像撮像部112とカラー画像撮像部111は、図3の(b)に示すように異なる視点位置から撮像を行うため、白黒画像撮像部112とカラー画像撮像部111で取得された撮像画は視差を持つ画像となる。
 視差検出部123は、ブロックマッチングなどの対応点検出処理によって、画素単位の視差検出を行う。この検出情報は、特徴量算出部124に出力される。
 特徴量算出部124は、視差検出部123の検出した2つの画像データの画素単位または画像領域単位の視差情報を入力して、画像特徴量、具体的には、視差の部分布やオクルージョン領域の大きさ(占有率)等を算出する。
 この特徴量算出部124の具体的構成例と処理については後述する。
 特徴量算出部124の算出した特徴量情報は、画質判定部125に出力される。
 画質判定部125は、特徴量算出部124の算出した特徴量情報に基づいて、合成画像の画質等を判定する。具体的には、例えば、
 (a)カラー画像基準合成画像、
 (b)白黒画像基準合成画像、
 これらの合成画像の画質を判定する。
 この判定結果が、合成画像生成部126、および出力画像生成部(選択/合成)127に出力される。
 合成画像生成部126は、画質判定部125の判定結果に基づいて、
 (a)カラー画像基準合成画像、
 (b)白黒画像基準合成画像、
 これらのいずれかの合成画像を生成する。
 基準画像は、合成画像を生成する際の基準となる画像である。
 カラー画像を基準画像に設定した場合、合成画像生成部126では、前処理部121から供給されたカラー画像データをベースとして、白黒画像から得られる輝度情報に基づく画素値補正を行い、合成画像を生成する。
 一方、白黒画像を基準画像に設定した場合、合成画像生成部126では、前処理部122から供給された白黒画像データをベースとして、カラー画像から得られる色情報に基づく画素値補正を行い、合成画像を生成する。
 画質判定部125では、
 白黒画像を基準画像として生成した合成画像と、
 カラー画像を基準画像として生成した合成画像、
 これら2種類のいずれの合成画像が高画質な合成画像となり得るかを判定する。
 以下、この判定処理の一つの具体例について説明する。
 画質判定部125は、特徴量算出部124から入力する特徴量情報を用いて、カラー画像、白黒画像、どちらの画像を基準画像に設定するかを決定する。
 具体的には、例えば、2つの画像データの視差情報と、オクルージョン領域検出情報に基づいて、カラー画像、白黒画像、どちらの画像を基準画像に設定するかを決定する。
 この基準画像決定処理の一例について、図10を参照して説明する。
 図10に示すグラフは、横軸にオクルージョン面積、縦軸に視差を設定したグラフである。
 横軸のオクルージョン面積は、カラー画像撮像部111の撮影したカラー画像と、白黒画像撮像部112の撮影した白黒画像、これら2つの画像の画像領域に含まれるオクルージョン領域の占有率(%)に相当する。
 縦軸の視差は、カラー画像撮像部111の撮影したカラー画像と、白黒画像撮像部112の撮影した白黒画像、これら2つの画像の視差(例えば画素数)である。
 基準画像決定部124は、これらのオクルージョン領域占有率と視差を、まず、画像を分割した分割領域単位で算出する。
 図11を参照してこの処理について説明する。
 図11はカラー画像撮像部111の撮影したカラー画像、または白黒画像撮像部112の撮影した白黒画像撮影画像である。
 基準画像決定部124は、2つの画像のいずれか一方の画像を選択し、選択画像に複数の分割領域を設定する。図11に示す点線で区分けされた分割領域である。
 基準画像決定部124は、各分割領域単位のオクルージョン領域占有率と視差(平均値)を算出する。
 例えば、図11に示す例では、8×5=40個の分割領域が設定されており、40個のオクルージョン領域占有率と視差(平均値)を算出する。
 この40個のオクルージョン領域占有率と視差(平均値)を、図10に示すグラフ上に配置する。
 すなわち、
 オクルージョン領域占有率=x、
 視差(平均値)=y、
 としたときの座標(x,y)を図10に示すグラフ上に配置する。
 この処理によって、例えば、50%以上がカラー画像基準領域に含まれていれば、基準画像をカラー画像とする。
 また、50%以上が白黒画像基準領域に含まれていれば、基準画像を白黒画像とする。
 基準画像決定部124は、このような処理によって、基準画像を決定する。
 なお、上述した処理例は一例であり、その他の処理も可能である。
 例えば画像の中央領域にある分割領域に大きな重みを設定して、中央領域のオクルージョン領域占有率と視差(平均値)をより大きく反映させて基準画像を決定する処理を行ってもよい。
 あるいは、顔領域が検出された分割領域の重みを高くして基準画像を決定する処理を行ってもよい。
 図10に示すグラフから理解されるように、
 オクルージョン面積占有率がしきい値Thx未満で、視差が視差しきい値Thy未満の場合は、白黒画像を基準画像とする。
 一方、オクルージョン面積占有率がしきい値Thx以上、あるいは視差が視差しきい値Thy以上の場合は、カラー画像を基準画像とする。
 画質判定部125は、このような処理によって、基準画像を決定する。
 オクルージョン面積占有率が小さく、かつ視差が小さい場合、白黒画像を基準画像として白黒画像の忠実な輝度情報を画像全体に適用することで、高画質な画像を生成することができる。
 すなわち、オクルージョン面積占有率が小さく、かつ視差が小さい場合は、オクルージョンによってカラー画像から色情報が取得できない領域が小さく、また視差による色ずれの問題も少ないため、白黒画像を基準画像として白黒画像の忠実な輝度情報を画像全体に適用した高画質な白黒画像基準合成画像を生成する。
 一方、オクルージョン面積占有率が大きい場合、または視差が大きい場合は、オクルージョンによってカラー画像から色情報が取得できない領域が大きいか、あるいは視差による色ずれの問題が発生する領域が大きくなる可能性があり、これらの問題を低減させるためカラー画像を基準画像としたカラー画像基準合成画像を生成する。
 なお、カラー画像基準合成画像においても白黒画像の輝度情報を適用した合成画像生成処理を行う。
 なお、この図10、図11を参照して説明した基準画像決定処理は一例であり、画質判定部125は、その他の画像特徴量を用いて、
 (a)カラー画像基準合成画像、
 (b)白黒画像基準合成画像、
 これらの画像の画質を判定する。
 この判定結果情報は、出力画像生成部(選択/合成)127にも出力される。
 出力画像生成部(選択/合成)127は、この判定結果に基づいて、
 合成画像生成部126の生成した、
 (a)カラー画像基準合成画像、
 (b)白黒画像基準合成画像、
 これらの画像のいずれかを選択して出力する。
 あるいは、さらに、これらの合成画像のいずれかと、
 (c)カラー画像撮像部111の撮影したカラー単眼画像、
 (d)白黒画像撮像部112の撮影した白黒単眼画像、
 これらの画像の合成画像を生成して出力する。
 合成画像は、出力画像生成部(選択/合成)127を介して、表示部(タッチパネル)131、記憶部132に出力される。
 なお、画像の一部領域をカラー化したワンポイントカラー画像を生成する場合は、出力画像生成部(選択/合成)127は、以下の処理を行う。
 ワンポイントカラー化する画像領域を、
 (a)カラー画像基準合成画像、
 (b)白黒画像基準合成画像、
 これらの画像のいずれかの画像を用い、その他の白黒領域を、
 (d)白黒画像撮像部112の撮影した白黒単眼画像、
 この白黒画像を用いてワンポイントカラー画像を生成する。
 すなわち、出力画像生成部(選択/合成)127ワンポイントカラー画像のカラー化領域をカラー画像と白黒画像に基づいて生成した合成画像の画素値出力領域とし、ワンポイントカラー画像のカラー化しないその他の非カラー化領域を白黒画像撮像部112の撮影した白黒単眼画像の画素値出力領域としてワンポイントカラー画像を生成する。
 生成したワンポイントカラー画像は、出力画像生成部(選択/合成)127から、表示部(タッチパネル)131、記憶部132に出力される。
 上述したように、ワンポイントカラー画像を生成する場合、画像処理部120は、
 カラー化する画像領域をカラー画像と白黒画像の合成画像とし、
 カラー化しない領域を白黒画像撮像部112の撮影した白黒単眼画像とした合成画像を生成して出力する。
 この処理を行うことで、画像全体に白黒画像の有する忠実な輝度レベルの再現された高画質なワンポイントカラー画像を生成することができる。
  [4.画像処理装置において実行される動作モードについて]
 次に、本開示の画像処理装置100において実行される動作モードについて説明する。
 図12は、本開示の画像処理装置100の実行可能な動作モードについて説明する図である。図12に示すように、本開示の画像処理装置100の実行可能な動作モードには以下の各モードがある。
 (1)カラー単眼画像撮影モード
 (2)白黒単眼画像撮影モード
 (3)合成画像撮影モード
 (4)ワンポイントカラー画像撮影モード
 (5)スルーモード
 さらに、(3)合成画像撮影モードには、
 (3a)カラー画像基準合成画像撮影モード、
 (3b)白黒画像基準合成画像撮影モード、
 これら2つのモードがある。
 (1)カラー単眼画像撮影モードは、
 カラー画像撮像部111を用いてカラー単眼画像を撮影して記録するモードである。
 (2)白黒単眼画像撮影モードは、
 白黒画像撮像部112を用いて白黒単眼画像を撮影して記録するモードである。
 (3)合成画像撮影モードは、
 カラー画像撮像部111によって撮影されたカラー画像と、白黒画像撮像部112によって撮影された白黒画像を利用して合成画像を生成して生成した合成画像を記録するモードである。
 なお、この合成画像撮影モードには、
 (3a)カラー画像基準合成画像撮影モード、
 (3b)白黒画像基準合成画像撮影モード、
 この2つのモードがある。
 (3a)カラー画像基準合成画像撮影モードは、
 カラー画像を基準として、カラー画像の画像位置に白黒画像を位置合わせした後、画像合成を行って合成画像を生成するモードである。カラー画像を基準としていることから合成画像では色ずれを生じることがなく、白黒画像撮像部112で用いられているレンズおよびセンサの特性に応じて輝度を忠実に再現することができる。
 (3b)白黒画像基準合成画像撮影モードは、
 白黒画像を基準として、白黒画像の画像位置にカラー画像を位置合わせした後、画像合成を行って合成画像を生成するモードである。この場合も白黒画像撮像部112で用いられているレンズおよびセンサの特性に応じて輝度を忠実に再現することができる。
 (4)ワンポイントカラー画像撮影モードは、
 画像の一部領域のみをカラー画像とし、その他の領域(非カラー化領域)を白黒画像とした画像を生成するモードである。
 ワンポイントカラー画像におけるカラー画像領域は、カラー画像撮像部111によって撮影されたカラー画像と、白黒画像撮像部112によって撮影された白黒画像を利用した合成画像であり、その他の非カラー化領域は、白黒画像撮像部112によって撮影された白黒画像を用いて生成される。
 なお、ワンポイントカラー画像におけるカラー画像領域の合成画像は、カラー画像基準合成画像、または白黒画像基準合成画像のどちらかである。
 画像処理部120は、どちらが、より高画質な合成画像となるかの画質判定を行い、高画質な合成画像を生成可能な一方の合成画像を生成する。
 (5)スルーモードは、
 カラー画像撮像部111によって撮影されたカラー画像と、白黒画像撮像部112によって撮影された白黒画像を、そのまま記憶部に記録するモードである。
 このスルーモードで撮影されたカラー画像と白黒画像は、相互につ撮影時間に関する同期情報がメタデータとして記録される。
 この記憶部に格納された画像を利用して合成画像や、ワンポイントカラー画像を生成することができる。
 ユーザは、これらのモード、すなわち、
 (1)カラー単眼画像撮影モード
 (2)白黒単眼画像撮影モード
 (3)合成画像撮影モード
 (4)ワンポイントカラー画像撮影モード
 (5)スルーモード
 これらのどのモードでの画像撮影、記録を行うかを自由に選択することができる。
 モード選択要のUI(ユーザインタフェース)の例を図13(a)に示す。
 図13(a)は、表示部(タッチパネル)131上にモード選択UI251を表示した例である。
 ユーザはこのモード選択UI251を利用してどのモードで撮影するかを選択することができる。
 図13(a)に示す例は、ユーザがワンポイントカラーモードを選択した例である。
 なお、モード設定は、ユーザが行うことも可能であるが、例えば合成画像撮影モードでは、以下の撮影モードが自動的に切り替えられる。
 (3a)カラー画像基準合成画像撮影モード、
 (3b)白黒画像基準合成画像撮影モード、
 画像処理部120が、これらの2つのモードのいずれが高画質かを判定して高画質合成画像を生成するようにモード切り替えが自動的に行われる。
 例えば動画撮影時には、撮影状況によって、この2つのモードが自動的に切り替えられる。
 図13(b)は、ユーザがワンポイントカラーモードを選択した場合の表示部(タッチパネル)131の表示例である。この例では、撮影中の画像データに併せて実行モード情報252が表示される。
 なお、ユーザによってモード指定がなされた場合、図14にモード示すように、指定情報は、画像処理装置の制御部150を介して画像処理部120に入力される。
 図14に示すように、モード指定情報281は、表示部(タッチパネル)131、あるいは操作部142を介して入力され、制御部150を介して画像処理部120に入力される。
 画像処理部120は、入力したモード指定情報に従った処理を行う。すなわち、
 (1)カラー単眼画像撮影モードを指定するモード指定情報が入力された場合は、カラー画像撮像部111を用いて撮影されたカラー単眼画像を出力部130(表示部131、記憶部132)に出力する。
 (2)白黒単眼画像撮影モードを指定するモード指定情報が入力された場合は、白黒画像撮像部112を用いて撮影された白黒単眼画像を出力部130(表示部131、記憶部132)に出力する。
 (3)合成画像撮影モードを指定するモード指定情報が入力された場合は、カラー画像撮像部111によって撮影されたカラー画像と、白黒画像撮像部112によって撮影された白黒画像を利用して合成画像を生成して生成した合成画像を出力部130(表示部131、記憶部132)に出力する。
 この合成画像撮影モードでは、画像処理部120は、画質判定処理を実行する。すなわち、カラー画像基準合成画像と、白黒画像基準合成画像のどちらが高画質な合成画像となるかの画質判定を行い、高画質な合成画像を生成可能な一方のモードで合成画像を生成する。
 (4)ワンポイントカラー画像撮影モードを指定するモード指定情報が入力された場合は、画像の一部領域のみをカラー画像とし、その他の領域を白黒画像とした画像を生成する。画像処理部120は、ワンポイントカラー画像におけるカラー画像領域を、カラー画像撮像部111によって撮影されたカラー画像と、白黒画像撮像部112によって撮影された白黒画像を利用した合成画像とする。その他の領域は、白黒画像撮像部112によって撮影された白黒画像とする。このようにして生成したワンポイントカラー画像を出力部130(表示部131、記憶部132)に出力する。
 なお、前述したように、ワンポイントカラー画像におけるカラー画像領域の合成画像は、カラー画像基準合成画像、または白黒画像基準合成画像のどちらかであり、画像処理部120は、どちらが、より高画質な合成画像となるかの画質判定を行い、高画質な合成画像を生成可能な一方の合成画像を生成する。
 (5)スルーモードを指定するモード指定情報が入力された場合は、カラー画像撮像部111によって撮影されたカラー画像と、白黒画像撮像部112によって撮影された白黒画像を、そのまま出力部130(表示部131、記憶部132)に出力する。
  [5.ワンポイントカラー画像のカラー化領域の設定方法について]
 ワンポイントカラー画像のカラー化領域の設定方法は、先に図2を参照して説明したように、表示部(タッチパネル)131に表示された画像の一部を選択することが可能である。
 図15に示すように、ユーザによるカラー化領域指定情報285は、制御部150を介して画像処理部120の出力画像生成部(選択/合成)127に入力される。
 カラー化領域指定情報285は、例えば、表示部(タッチパネル)131に対するユーザのタッチ画素位置情報が含まれる。
 画像処理部120の出力画像生成部(選択/合成)127は、ユーザのタッチ画素位置にある被写体と同一被写体と推定される領域を画像のエッジ情報等から推定し、その被写体をカラー化する領域に設定する。
 このカラー化領域は、合成画像生成部126から入力する合成画像を用いて画素値を設定する。
 その他の領域(非カラー化領域)は、白黒画像撮像部112によって撮影された白黒画像を適用して画像を生成する。
 なお、この画像合成処理に際しては、必要に応じて各画像の接続部のずれがないように補正を行う。
 合成画像生成部126から入力する合成画像が白黒画像基準合成画像である場合は、合成画像が白黒画像の画像位置にカラー画像を位置合わせした後、画像合成を行って生成された合成画像であるため、白黒画像撮像部112によって撮影された白黒画像と位置ずれが発生しておらず、そのまま合成処理を行うことができる。
 ただし、合成画像生成部126から入力する合成画像がカラー画像基準合成画像である場合は、合成画像がカラー画像の画像位置に白黒画像を位置合わせした後、画像合成を行って生成された合成画像であるため、白黒画像撮像部112によって撮影された白黒画像と位置ずれが発生している可能性がある。この場合は、例えば、画像間の対応関係をブロックマッチングなどの対応点検出処理によって行い、位置ずれを解消して合成処理を行う。
 画像処理部120の出力画像生成部(選択/合成)127において、このようにして生成されたワンポイントカラー画像が出力部130(表示部131、記憶部132)に出力される。
 なお、ワンポイントカラー画像生成モードにおいて、カラー化する領域の選択処理のモードニは、ユーザによる選択であるマニュアルモードと、画像処理装置100が自動選択するオートモードがある。
 これらの各モードについて、図16を参照して説明する。
 図16に示すように、
 (A)マニュアルモードには、
 (a1)ユーザによる領域指定選択
 (a2)ユーザによる距離指定選択
 これらの2つの選択方法がある。
 また、(B)オートモードには、
 (b1)測距情報による特定距離範囲のオブジェクト自動選択
 (b2)物体認識による特定物体の自動選択
 (b3)顔認識による顔領域の自動選択
 (b4)暗所における明るい領域の自動選択
 これらの選択方法がある。
 なお、これらの選択処理は、すべて、静止画、動画の撮影時に適用可能であり、また画像撮影前のプレビュー画像にも適用可能である。
 例えば、画像撮影前のプレビュー画像を表示部131に表示する段階で、ワンポイントカラー画像を表示して確認することができる。その後、記録開始動作を行うことで、そのカラー化領域の設定を維持したワンポイントカラー画像としての静止画や動画を記録することが可能となる。
 また、動画の撮影実行中にも、撮影しながらその撮影画像に基づくワンポイントカラー画像を表示部131に表示して確認しながら記録することも可能である。
 (A)マニュアルモードの、
 (a1)ユーザによる領域指定選択は、
 先に図2を参照して説明したステップS22の処理に相当し、ユーザがカラー化したい部分を選択する方法である。図2を参照して説明したように、画像を表示部(UI)に出力してユーザがカラー化したい部分を選択する。
 この選択方法としては、特定の被写体領域の選択、あるいは矩形領域を指定して選択する方法等がある。
 画像処理部120は、ユーザの設定した領域指定情報を入力し、その領域にあるオブジェクトをカラー化する処理を行う。
 (a2)ユーザによる距離指定選択は、
 撮像部において撮影される画像に含まれる様々な被写体から、予めユーザがからー化したい被写体の距離範囲を設定する方法である。
 例えばカメラ(画像処理装置)から約70cmの距離(ピンポイント)、あるいは1m~2mの距離範囲等、カラー化したい被写体のあるカメラからの距離を指定する。
 画像処理部120は、撮影画像に含まれる被写体距離情報を取得した上で、ユーザの設定した距離指定情報を入力し、その距離にあるオブジェクトをカラー化する処理を行う。
 なお、ユーザは、カラー化する被写体距離範囲の指定のみならず、カラー化しない被写体距離範囲を指定することも可能である。
 また、(B)オートモードの、
 (b1)測距情報による特定距離範囲のオブジェクト自動選択は、
 ユーザ指定データを用いず、予め装置内のメモリに記録された距離情報を用いて、カラー化する距離範囲を設定する方法である。
 画像処理部120は、撮影画像に含まれる被写体距離情報を取得した上で、メモリに格納された規定の距離情報を入力し、その距離にあるオブジェクトをカラー化する処理を行う。
 (b2)物体認識による特定物体の自動選択は、
 予めカメラ(画像処理装置)の記憶部にカラー化したい物体(オブジェクト)、例えば自動車、人等の形状情報を登録しておき、この形状情報に一致または類似する物体をカラー化する。
 画像処理部120は、撮影画像に含まれる様々な物体(オブジェクト)の形状解析を実行して、登録形状情報に一致または類似するオブジェクトを選択してカラー化する。
 (b3)顔認識による顔領域の自動選択は、顔認識処理によって認識された顔領域をカラー化する方法である。
 画像処理部120は、顔認識処理によって撮影画像から選択された顔領域を選択してカラー化する。
 (b4)暗所における明るい領域の自動選択は、
 例えば、暗い環境化で撮影された画像から明るい部分を検出してカラー化する方法である。
 画像処理部120は、例えば暗い環境で撮影される画像の自動露光(AE)検波値を解析して、露光検波値の高い領域を明るい部分であると判断して、その領域をカラー化する。
 なお、図16を参照して説明した方法を行うための機能は、画像処理装置100に備えられている。
 すなわち、画像処理装置100は、例えば被写体距離検出、オブジェクト形状解析、顔領域検出、AE検波値解析等の処理機能を備えており、これらの構成を適用した解析情報が画像処理部120に入力され、画像処理部120は、この解析情報に従ってカラー化領域を決定する。
 画像処理部120の出力画像生成部(選択/合成)127は、
 カラー化する画像領域を合成画像生成部126の生成したカラー画像と白黒画像の合成画像とし、
 カラー化しない領域を白黒画像撮像部112の撮影した白黒単眼画像とした、
 ワンポイントカラー画像を生成して出力する。
 この処理を行うことで、画像全体に白黒画像の有する忠実な輝度レベルの再現された高画質なワンポイントカラー画像を生成することができる。
  [6.その他の実施例について]
 次に、その他の実施例について説明する。以下の実施例について説明する。
 (1)カラー化領域に基づくオートフォーカス(AF)処理
 (2)カラー化領域に基づく自動露光(AE)処理
 (1)カラー化領域に基づくオートフォーカス(AF)処理
 先に図16を参照して説明したように、ワンポイントカラー画像を生成する場合、様々なカラー化領域選択方法が適用可能である。
 ユーザ選択、あるいは自動選択が可能であるが、このような方法で選択されたカラー化領域にフォーカスを合せるようにオートフォーカス(AF)処理を実行させる。
 カメラ(画像処理装置)のAF制御部にカラー化領域決定情報を入力し、AF制御部が、このカラー化領域にフォーカスを合せる制御を実行する。
 このような処理を行うことで、ワンポイントカラー画像のカラー化領域に焦点のあったワンポイントカラー画像を撮影、記録することが可能となる。
 (2)カラー化領域に基づく自動露光(AE)処理
 これは、ユーザ選択、あるいは自動選択されたカラー化領域の被写体に最適な自動露光(AE)処理を実行させるものである。
 カメラ(画像処理装置)の露光制御部(AE制御部)にカラー化領域決定情報を入力し、AE制御部が、このカラー化領域の被写体に最適な露光制御(AE)を実行する。
 このような処理を行うことで、ワンポイントカラー画像のカラー化領域の被写体を最適露光で撮影可能となり、カラー領域の被写体をよりクリアな状態としたワンポイントカラー画像を撮影、記録することが可能となる。
  [7.本開示の構成のまとめ]
 以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
 なお、本明細書において開示した技術は、以下のような構成をとることができる。
 (1) 異なる視点から撮影されたカラー画像と白黒画像の合成処理を実行して合成画像を生成する合成画像生成部と、
 画像の一部領域のみをカラー化したワンポイントカラー画像を生成する出力画像生成部を有し、
 前記出力画像生成部は、
 ワンポイントカラー画像のカラー化領域を前記合成画像の画素値出力領域とし、
 ワンポイントカラー画像の非カラー化領域を前記白黒画像の画素値出力領域としたワンポイントカラー画像を生成する画像処理装置。
 (2) 前記合成画像生成部は、
 (a)カラー画像基準合成画像、または、
 (b)白黒画像基準合成画像、
 上記いずれかの合成画像を生成する構成であり、
 上記(a),(b)の2つの合成画像中、画質判定処理によって高画質と判定された一方の合成画像を生成する(1)に記載の画像処理装置。
 (3) 前記出力画像生成部は、
 ワンポイントカラー画像のカラー化領域を、前記合成画像生成部の生成した、
 (a)カラー画像基準合成画像、または、
 (b)白黒画像基準合成画像、
 上記(a),(b)いずれかの合成画像の画素値出力領域としたワンポイントカラー画像を生成する(1)または(2)に記載の画像処理装置。
 (4) 前記出力画像生成部は、
 ワンポイントカラー画像のカラー化領域選択情報を入力して、
 入力したカラー化領域選択情報に従って決定された領域をカラー化領域としたワンポイントカラー画像を生成する(1)~(3)いずれかに記載の画像処理装置。
 (5) ワンポイントカラー画像のカラー化領域の選択処理は、
 ユーザ選択を行うマニュアルモード、
 自動選択を行うオートモード、
 いずれかによって実行される(1)~(4)いずれかに記載の画像処理装置。
 (6) ワンポイントカラー画像のカラー化領域の選択処理は、
 ユーザによる領域選択、または被写体距離選択によって実行され、
 前記出力画像生成部は、
 ユーザによるカラー化領域選択情報を入力して、
 入力したカラー化領域選択情報に従って、ユーザ選択領域をカラー化領域に設定したワンポイントカラー画像を生成する(1)~(5)いずれかに記載の画像処理装置。
 (7) ワンポイントカラー画像のカラー化領域は、撮影画像に含まれる被写体距離に応じて自動的に決定する構成であり、
 前記出力画像生成部は、
 被写体距離ベースのカラー化領域選択情報を入力して、
 入力したカラー化領域選択情報に従って、特定距離の被写体領域をカラー化領域に設定したワンポイントカラー画像を生成する(1)~(5)いずれかに記載の画像処理装置。
 (8) ワンポイントカラー画像のカラー化領域は、撮影画像に含まれる物体(オブジェクト)に応じて自動的に決定する構成であり、
 前記出力画像生成部は、
 物体(オブジェクト)ベースのカラー化領域選択情報を入力して、
 入力したカラー化領域選択情報に従って、特定物体(オブジェクト)領域をカラー化領域に設定したワンポイントカラー画像を生成する(1)~(5)いずれかに記載の画像処理装置。
 (9) ワンポイントカラー画像のカラー化領域は、撮影画像からの顔認識処理によって検出された顔領域とする構成であり、
 前記出力画像生成部は、
 顔領域対応のカラー化領域選択情報を入力して、
 入力したカラー化領域選択情報に従って、顔領域をカラー化領域に設定したワンポイントカラー画像を生成する(1)~(5)いずれかに記載の画像処理装置。
 (10) ワンポイントカラー画像のカラー化領域は、露光制御時に検出する露光検波値の高い領域とする構成であり、
 前記出力画像生成部は、
 露光検波値対応のカラー化領域選択情報を入力して、
 入力したカラー化領域選択情報に従って、露光検波値の高い領域をカラー化領域に設定したワンポイントカラー画像を生成する(1)~(5)いずれかに記載の画像処理装置。
 (11) 前記画像処理装置のオートフォーカス(AF)制御部は、
 ワンポイントカラー画像のカラー化領域情報を入力し、
 カラー化領域にフォーカスを合せるようにオートフォーカス(AF)処理を実行する(1)~(10)いずれかに記載の画像処理装置。
 (12) 前記画像処理装置の露光(AE)制御部は、
 ワンポイントカラー画像のカラー化領域情報を入力し、
 カラー化領域の被写体に適合した露光に設定する露光制御を実行する(1)~(11)いずれかに記載の画像処理装置。
 (13) 画像処理装置において実行する画像処理方法であり、
 合成画像生成部が、異なる視点から撮影されたカラー画像と白黒画像の合成処理を実行して合成画像を生成する合成画像生成ステップと、
 出力画像生成部が、画像の一部領域のみをカラー化したワンポイントカラー画像を生成する出力画像生成ステップを実行し、
 前記出力画像生成ステップにおいて、
 ワンポイントカラー画像のカラー化領域を前記合成画像の画素値出力領域とし、
 ワンポイントカラー画像の非カラー化領域を前記白黒画像の画素値出力領域としたワンポイントカラー画像を生成する画像処理方法。
 (14) 画像処理装置において画像処理を実行させるプログラムであり、
 合成画像生成部に、異なる視点から撮影されたカラー画像と白黒画像の合成処理を実行して合成画像を生成させる合成画像生成ステップと、
 出力画像生成部、画像の一部領域のみをカラー化したワンポイントカラー画像を生成する出力画像生成ステップを実行させ、
 前記出力画像生成ステップにおいて、
 ワンポイントカラー画像のカラー化領域を前記合成画像の画素値出力領域とし、
 ワンポイントカラー画像の非カラー化領域を前記白黒画像の画素値出力領域としたワンポイントカラー画像を生成させるプログラム。
 また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 以上、説明したように、本開示の一実施例の構成によれば、高画質なワンポイントカラー画像の生成を可能とした装置、方法が実現される。
 具体的には、例えば、異なる視点から撮影されたカラー画像と白黒画像の合成処理を実行して合成画像を生成する合成画像生成部と、画像の一部領域のみをカラー化したワンポイントカラー画像を生成する出力画像生成部を有する。出力画像生成部は、ワンポイントカラー画像のカラー化領域を合成画像の画素値出力領域とし、非カラー化領域を白黒画像の画素値出力領域としたワンポイントカラー画像を生成する。カラー化領域の選択は、ユーザ選択、自動選択のいずれかによって行われる。例えばユーザ指定領域情報、被写体距離情報等を用いて実行される。
 本構成により、高画質なワンポイントカラー画像の生成を可能とした装置、方法が実現される。
  10 画像処理装置
  11 表示部
  12 操作部
  21 カラー画像撮像部
  22 白黒画像撮像部
 100 画像処理装置
 110 撮像部
 111 カラー画像撮像部
 112 白黒画像撮像部
 120 画像処理部
 121,122 前処理部
 123 視差検出部
 124 特徴量算出部
 125 画質判定部
 126 合成画像生成部
 127 出力画像生成部(選択/合成)
 130 出力部
 131 表示部(タッチパネル)
 132 記憶部
 141 センサ部
 142 操作部
 150 制御部
 160 通信部
 251 モード選択UI
 252 実行モード表示部
 281 モード指定情報
 285 カラー化領域指定情報

Claims (14)

  1.  異なる視点から撮影されたカラー画像と白黒画像の合成処理を実行して合成画像を生成する合成画像生成部と、
     画像の一部領域のみをカラー化したワンポイントカラー画像を生成する出力画像生成部を有し、
     前記出力画像生成部は、
     ワンポイントカラー画像のカラー化領域を前記合成画像の画素値出力領域とし、
     ワンポイントカラー画像の非カラー化領域を前記白黒画像の画素値出力領域としたワンポイントカラー画像を生成する画像処理装置。
  2.  前記合成画像生成部は、
     (a)カラー画像基準合成画像、または、
     (b)白黒画像基準合成画像、
     上記いずれかの合成画像を生成する構成であり、
     上記(a),(b)の2つの合成画像中、画質判定処理によって高画質と判定された一方の合成画像を生成する請求項1に記載の画像処理装置。
  3.  前記出力画像生成部は、
     ワンポイントカラー画像のカラー化領域を、前記合成画像生成部の生成した、
     (a)カラー画像基準合成画像、または、
     (b)白黒画像基準合成画像、
     上記(a),(b)いずれかの合成画像の画素値出力領域としたワンポイントカラー画像を生成する請求項1に記載の画像処理装置。
  4.  前記出力画像生成部は、
     ワンポイントカラー画像のカラー化領域選択情報を入力して、
     入力したカラー化領域選択情報に従って決定された領域をカラー化領域としたワンポイントカラー画像を生成する請求項1に記載の画像処理装置。
  5.  ワンポイントカラー画像のカラー化領域の選択処理は、
     ユーザ選択を行うマニュアルモード、
     自動選択を行うオートモード、
     いずれかによって実行される請求項1に記載の画像処理装置。
  6.  ワンポイントカラー画像のカラー化領域の選択処理は、
     ユーザによる領域選択、または被写体距離選択によって実行され、
     前記出力画像生成部は、
     ユーザによるカラー化領域選択情報を入力して、
     入力したカラー化領域選択情報に従って、ユーザ選択領域をカラー化領域に設定したワンポイントカラー画像を生成する請求項1に記載の画像処理装置。
  7.  ワンポイントカラー画像のカラー化領域は、撮影画像に含まれる被写体距離に応じて自動的に決定する構成であり、
     前記出力画像生成部は、
     被写体距離ベースのカラー化領域選択情報を入力して、
     入力したカラー化領域選択情報に従って、特定距離の被写体領域をカラー化領域に設定したワンポイントカラー画像を生成する請求項1に記載の画像処理装置。
  8.  ワンポイントカラー画像のカラー化領域は、撮影画像に含まれる物体(オブジェクト)に応じて自動的に決定する構成であり、
     前記出力画像生成部は、
     物体(オブジェクト)ベースのカラー化領域選択情報を入力して、
     入力したカラー化領域選択情報に従って、特定物体(オブジェクト)領域をカラー化領域に設定したワンポイントカラー画像を生成する請求項1に記載の画像処理装置。
  9.  ワンポイントカラー画像のカラー化領域は、撮影画像からの顔認識処理によって検出された顔領域とする構成であり、
     前記出力画像生成部は、
     顔領域対応のカラー化領域選択情報を入力して、
     入力したカラー化領域選択情報に従って、顔領域をカラー化領域に設定したワンポイントカラー画像を生成する請求項1に記載の画像処理装置。
  10.  ワンポイントカラー画像のカラー化領域は、露光制御時に検出する露光検波値の高い領域とする構成であり、
     前記出力画像生成部は、
     露光検波値対応のカラー化領域選択情報を入力して、
     入力したカラー化領域選択情報に従って、露光検波値の高い領域をカラー化領域に設定したワンポイントカラー画像を生成する請求項1に記載の画像処理装置。
  11.  前記画像処理装置のオートフォーカス(AF)制御部は、
     ワンポイントカラー画像のカラー化領域情報を入力し、
     カラー化領域にフォーカスを合せるようにオートフォーカス(AF)処理を実行する請求項1に記載の画像処理装置。
  12.  前記画像処理装置の露光(AE)制御部は、
     ワンポイントカラー画像のカラー化領域情報を入力し、
     カラー化領域の被写体に適合した露光に設定する露光制御を実行する請求項1に記載の画像処理装置。
  13.  画像処理装置において実行する画像処理方法であり、
     合成画像生成部が、異なる視点から撮影されたカラー画像と白黒画像の合成処理を実行して合成画像を生成する合成画像生成ステップと、
     出力画像生成部が、画像の一部領域のみをカラー化したワンポイントカラー画像を生成する出力画像生成ステップを実行し、
     前記出力画像生成ステップにおいて、
     ワンポイントカラー画像のカラー化領域を前記合成画像の画素値出力領域とし、
     ワンポイントカラー画像の非カラー化領域を前記白黒画像の画素値出力領域としたワンポイントカラー画像を生成する画像処理方法。
  14.  画像処理装置において画像処理を実行させるプログラムであり、
     合成画像生成部に、異なる視点から撮影されたカラー画像と白黒画像の合成処理を実行して合成画像を生成させる合成画像生成ステップと、
     出力画像生成部、画像の一部領域のみをカラー化したワンポイントカラー画像を生成する出力画像生成ステップを実行させ、
     前記出力画像生成ステップにおいて、
     ワンポイントカラー画像のカラー化領域を前記合成画像の画素値出力領域とし、
     ワンポイントカラー画像の非カラー化領域を前記白黒画像の画素値出力領域としたワンポイントカラー画像を生成させるプログラム。
PCT/JP2019/000563 2018-01-25 2019-01-10 画像処理装置、および画像処理方法、並びにプログラム WO2019146419A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/961,165 US11330177B2 (en) 2018-01-25 2019-01-10 Image processing apparatus and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018010643A JP2019128827A (ja) 2018-01-25 2018-01-25 画像処理装置、および画像処理方法、並びにプログラム
JP2018-010643 2018-01-25

Publications (1)

Publication Number Publication Date
WO2019146419A1 true WO2019146419A1 (ja) 2019-08-01

Family

ID=67396042

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/000563 WO2019146419A1 (ja) 2018-01-25 2019-01-10 画像処理装置、および画像処理方法、並びにプログラム

Country Status (3)

Country Link
US (1) US11330177B2 (ja)
JP (1) JP2019128827A (ja)
WO (1) WO2019146419A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102648912B1 (ko) * 2019-01-23 2024-03-19 삼성전자주식회사 영상 데이터를 분석하여 최종 영상 데이터를 생성하는 프로세서
US20220303515A1 (en) * 2021-03-17 2022-09-22 Mediatek Inc. High Sensitivity Color Image Generation Using Hybrid Sensor

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012178788A (ja) * 2011-02-28 2012-09-13 Sony Corp 画像処理装置と画像処理方法およびプログラム
JP2012244337A (ja) * 2011-05-18 2012-12-10 Sony Corp 画像処理装置、画像処理方法、プログラムおよび撮像装置
JP2013183353A (ja) * 2012-03-02 2013-09-12 Toshiba Corp 画像処理装置
JP2013228689A (ja) * 2012-03-28 2013-11-07 Panasonic Corp 表示装置
JP2014207659A (ja) * 2013-03-19 2014-10-30 パナソニック株式会社 画像処理装置及び画像処理方法及び撮像装置
JP2015197745A (ja) * 2014-03-31 2015-11-09 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012178788A (ja) * 2011-02-28 2012-09-13 Sony Corp 画像処理装置と画像処理方法およびプログラム
JP2012244337A (ja) * 2011-05-18 2012-12-10 Sony Corp 画像処理装置、画像処理方法、プログラムおよび撮像装置
JP2013183353A (ja) * 2012-03-02 2013-09-12 Toshiba Corp 画像処理装置
JP2013228689A (ja) * 2012-03-28 2013-11-07 Panasonic Corp 表示装置
JP2014207659A (ja) * 2013-03-19 2014-10-30 パナソニック株式会社 画像処理装置及び画像処理方法及び撮像装置
JP2015197745A (ja) * 2014-03-31 2015-11-09 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
US11330177B2 (en) 2022-05-10
US20200366843A1 (en) 2020-11-19
JP2019128827A (ja) 2019-08-01

Similar Documents

Publication Publication Date Title
CN111164647B (zh) 使用单个相机估算深度
US8311362B2 (en) Image processing apparatus, imaging apparatus, image processing method and recording medium
JP5445363B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US9258545B2 (en) Stereoscopic imaging apparatus
JP7285791B2 (ja) 画像処理装置、および出力情報制御方法、並びにプログラム
KR20160012743A (ko) 촬영 장치 및 그 촬영 방법
JP6574878B2 (ja) 画像処理装置及び画像処理方法、撮像装置、プログラム、並びに記憶媒体
US9185389B2 (en) Imaging device and imaging method
US11089211B2 (en) Image processing apparatus, image processing method, and program for switching between two types of composite images
CN112991245B (zh) 双摄虚化处理方法、装置、电子设备和可读存储介质
US20140184853A1 (en) Image processing apparatus, image processing method, and image processing program
WO2019146419A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
CN110324529B (zh) 图像处理设备及其控制方法
JP7052811B2 (ja) 画像処理装置、画像処理方法及び画像処理システム
JP2015177510A (ja) カメラシステム、画像処理方法及びプログラム
JP6450107B2 (ja) 画像処理装置及び画像処理方法、プログラム、記憶媒体
US11108944B2 (en) Image processing apparatus for providing information for confirming depth range of image, control method of the same, and storage medium
JPWO2005033763A1 (ja) 撮影レンズ位置制御装置
JP2005142890A (ja) ホワイトバランス調整方法および画像処理装置
JP2017182668A (ja) データ処理装置、撮像装置、及びデータ処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19743103

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19743103

Country of ref document: EP

Kind code of ref document: A1