JP2018064250A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2018064250A
JP2018064250A JP2016203093A JP2016203093A JP2018064250A JP 2018064250 A JP2018064250 A JP 2018064250A JP 2016203093 A JP2016203093 A JP 2016203093A JP 2016203093 A JP2016203093 A JP 2016203093A JP 2018064250 A JP2018064250 A JP 2018064250A
Authority
JP
Japan
Prior art keywords
scene
image
image data
data
processed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016203093A
Other languages
Japanese (ja)
Inventor
賢嗣 木村
Masatsugu Kimura
賢嗣 木村
光浩 松尾
Mitsuhiro Matsuo
光浩 松尾
敦史 宇佐美
Atsushi Usami
敦史 宇佐美
渉 梅原
Wataru Umehara
渉 梅原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brycen Co Ltd
Original Assignee
Brycen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brycen Co Ltd filed Critical Brycen Co Ltd
Priority to JP2016203093A priority Critical patent/JP2018064250A/en
Publication of JP2018064250A publication Critical patent/JP2018064250A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)

Abstract

PROBLEM TO BE SOLVED: To realize proper exposure correction by using data of an image captured with an electronic camera.SOLUTION: A processed image generating part 41 generates data of one or more processed images from data of a source image obtained as a result of imaging with a predetermined imaging device. A discrimination condition identification part 42 identifies one or more conditions for discriminating an imaging scene of the source image from the data of one or more processed images. A scene discrimination part 43 discriminates the imaging scene of the data of the source image on the basis of the identified one or more conditions.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program.

従来より、デジタルカメラ、デジタルビデオカメラ、カメラ付き通信端末(携帯電話、スマートフォン、タブレット等)等の電子機器は、レンズやCMOS(Complementary Metal Oxide Semiconductor)を有する電子カメラを備えている。このような電子機器は、ISP(Image Signal Processor)等の半導体を用いて、電子カメラから出力された画像信号に対して、画像補正処理や画像解析処理等を施している(例えば、特許文献1、特許文献2参照)。
そして、電子機器は、このような画像補正処理や画像解析処理等の結果を用いて、各種補正を行ったり、各種認識判定を行っている。
例えば、電子機器は、このような画像補正処理のうち自動露出補正について、一般的に予め固定されたブロック数で分割された各領域内の画像のデータに対して平均演算を施し、その演算値を用いて、電子カメラで撮像された画像のデータの撮影シーンを判定し、その撮影シーンに応じて補正の処理を実行している。
2. Description of the Related Art Conventionally, electronic devices such as a digital camera, a digital video camera, and a camera-equipped communication terminal (such as a mobile phone, a smartphone, and a tablet) include an electronic camera having a lens and a CMOS (Complementary Metal Oxide Semiconductor). Such an electronic device performs image correction processing, image analysis processing, and the like on an image signal output from an electronic camera using a semiconductor such as an ISP (Image Signal Processor) (for example, Patent Document 1). , See Patent Document 2).
The electronic device performs various corrections and performs various recognition determinations using the results of such image correction processing and image analysis processing.
For example, the electronic device generally performs an average operation on the image data in each region divided by a predetermined number of blocks for automatic exposure correction in such image correction processing, and the calculated value Is used to determine the shooting scene of the data of the image captured by the electronic camera, and the correction processing is executed according to the shooting scene.

特開2009−177399号公報JP 2009-177399 A 特開2002−277922号公報JP 2002-277922 A

しかしながら、特許文献1及び特許文献2を含む従来の技術では、撮影シーンを適切に判定できず、適切な露出補正を行えない場合が多々あった。なぜならば、電子カメラで撮像される画像には、太陽光の影響や他の光源、被写体個々の距離や反射等、様々な撮影シーンが存在するからである。これらの様々な撮影シーンの中から撮影シーンを適切に判定することは、特許文献1及び特許文献2を含む従来の技術では困難である。
例えば、逆光のような周辺が明るく被写体が暗い場合において、上述のような平均演算の結果を用いると、撮影シーンを適切に判定することは非常に困難である。
However, in the conventional techniques including Patent Document 1 and Patent Document 2, there are many cases where the photographing scene cannot be properly determined and appropriate exposure correction cannot be performed. This is because various shooting scenes such as the influence of sunlight, other light sources, individual subject distances and reflections exist in the image captured by the electronic camera. It is difficult for conventional techniques including Patent Document 1 and Patent Document 2 to appropriately determine a shooting scene from these various shooting scenes.
For example, when the surroundings are bright and the subject is dark, such as backlighting, it is very difficult to appropriately determine the shooting scene using the result of the above average calculation.

また、従来の別の自動露出補正の方法においては、予め決められた撮影シーンを設定した後、撮影を行う手法が採用される場合がある。この場合、実際の撮影シーンや被写体、被写体の周辺光源の状況によっては、予め決められた撮影シーンを用いると、意図せぬ補正となることがあった。   Further, in another conventional automatic exposure correction method, there is a case in which a method is used in which shooting is performed after a predetermined shooting scene is set. In this case, depending on the actual shooting scene, the subject, and the situation of the peripheral light source of the subject, unintentional correction may occur when a predetermined shooting scene is used.

本発明は、このような状況に鑑みてなされたものであり、電子カメラで撮影された画像のデータを用いて、適切な露出補正を実現することを目的とする。   The present invention has been made in view of such a situation, and an object thereof is to realize appropriate exposure correction using data of an image taken with an electronic camera.

上記目的を達成するため、本発明の一態様の情報処理装置は、
所定の撮像デバイスにより撮影された結果得られる原画像のデータから1以上の加工画像のデータを生成する加工画像生成手段と、
前記1以上の加工画像のデータから、前記原画像の撮影シーンを判別するための1以上の条件を特定する判別条件特定手段と、
特定された前記1以上の条件に基づいて、前記原画像の前記撮影シーンを判別するシーン判別手段と、
を備えることを特徴とする。
In order to achieve the above object, an information processing apparatus of one embodiment of the present invention provides:
Processed image generation means for generating one or more processed image data from original image data obtained as a result of being imaged by a predetermined imaging device;
Discrimination condition specifying means for specifying one or more conditions for discriminating a shooting scene of the original image from the data of the one or more processed images;
Scene discriminating means for discriminating the shooting scene of the original image based on the specified one or more conditions;
It is characterized by providing.

本発明の一態様としての情報処理方法及びプログラムの夫々は、上述の本発明の一態様の情報処理装置に対応する方法及びプログラムの夫々である。   Each of the information processing method and program as one aspect of the present invention is each of a method and program corresponding to the above-described information processing apparatus of one aspect of the present invention.

本発明によれば、電子カメラで撮影された画像のデータを用いて、適切な露出補正を実現することができる。   ADVANTAGE OF THE INVENTION According to this invention, appropriate exposure correction | amendment is realizable using the data of the image image | photographed with the electronic camera.

本発明の一実施形態に係る情報処理装置のハードウェアの構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the information processing apparatus which concerns on one Embodiment of this invention. 図1の情報処理装置により実行されるシーン毎露出適正処理を説明するフローチャートである。It is a flowchart explaining the exposure appropriate process for every scene performed by the information processing apparatus of FIG. 図2のシーン毎露出適正処理のうち加工画像生成処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of the process image generation process among the exposure appropriate processes for every scene of FIG. 図1のISPから出力された輝度情報の例を示す図である。It is a figure which shows the example of the luminance information output from ISP of FIG. 図4の例の輝度情報に対して二値化処理が施された結果得られる二値化画像を示す図である。It is a figure which shows the binarized image obtained as a result of performing the binarization process with respect to the luminance information of the example of FIG. 図4の例の輝度情報に対して、エッジ検出処理が施された結果得られるエッジ画像を示す図である。FIG. 5 is a diagram illustrating an edge image obtained as a result of performing edge detection processing on the luminance information in the example of FIG. 4. 図1のISPから出力された輝度情報の例であって、図4とは異なる例を示す図である。FIG. 5 is a diagram illustrating an example of luminance information output from the ISP of FIG. 1 and an example different from FIG. 4. 図7の例の輝度情報に対して二値化処理が施された結果得られる二値化画像を示す図である。It is a figure which shows the binarized image obtained as a result of performing the binarization process with respect to the luminance information of the example of FIG. 図7の例の輝度情報に対して、エッジ検出処理が施された結果得られるエッジ画像を示す図である。It is a figure which shows the edge image obtained as a result of performing the edge detection process with respect to the luminance information of the example of FIG. 図1のISPから出力された輝度情報の例であって、図4及び図7とは異なる例を示す図である。FIG. 8 is a diagram illustrating an example of luminance information output from the ISP of FIG. 1 and an example different from FIGS. 4 and 7. 図10の例の輝度情報に対して二値化処理が施された結果得られる二値化画像を示す図である。It is a figure which shows the binarized image obtained as a result of performing the binarization process with respect to the luminance information of the example of FIG. 図10の例の輝度情報に対して、エッジ検出処理が施された結果得られるエッジ画像を示す図である。It is a figure which shows the edge image obtained as a result of performing the edge detection process with respect to the luminance information of the example of FIG. 図2のシーン毎露出適正処理のうちシーン判別処理の一例としての第1判別条件用シーン判別処理の詳細を説明するフローチャートである。3 is a flowchart illustrating details of a first determination condition scene determination process as an example of a scene determination process in the exposure appropriate process for each scene in FIG. 2. 図2のシーン毎露出適正処理のうちシーン判別処理の別の一例としての第2判別条件用シーン判別処理の詳細を説明するフローチャートである。3 is a flowchart for explaining details of a second determination condition scene determination process as another example of the scene determination process in the exposure appropriate process for each scene of FIG. 2. 図1の情報処理装置により実行される画像認識処理を説明するフローチャートである。2 is a flowchart for describing image recognition processing executed by the information processing apparatus of FIG. 図1のISPから出力されたカラー画像の例を示す図である。It is a figure which shows the example of the color image output from ISP of FIG. 図16の例のカラー画像のデータに基づく輝度情報に対して二値化処理が施された結果得られる二値化画像を示す図である。It is a figure which shows the binarized image obtained as a result of performing the binarization process with respect to the luminance information based on the data of the color image of the example of FIG. 図1のISPから出力されたカラー画像の例であって、図16とは異なる例を示す図である。It is an example of the color image output from ISP of FIG. 1, Comprising: It is a figure which shows the example different from FIG. 図18の例のカラー画像のデータに基づく輝度情報に対して二値化処理が施された結果得られる二値化画像を示す図である。It is a figure which shows the binarized image obtained as a result of performing the binarization process with respect to the luminance information based on the data of the color image of the example of FIG. 図1のISPから出力されたカラー画像の例であって、図16及び図18とは異なる例を示す図である。It is an example of the color image output from ISP of FIG. 1, Comprising: It is a figure which shows the example different from FIG.16 and FIG.18. 図20の例のカラー画像のデータに基づく輝度情報に対して二値化処理が施された結果得られる二値化画像を示す図である。FIG. 21 is a diagram illustrating a binarized image obtained as a result of binarization processing performed on luminance information based on color image data in the example of FIG. 20.

図1は、本発明の一実施形態に係る情報処理装置のハードウェアの構成を示すブロック図である。
情報処理装置1Aは、電子カメラ11と、SoC(System on Chip)12とを備えている。
FIG. 1 is a block diagram showing a hardware configuration of an information processing apparatus according to an embodiment of the present invention.
The information processing apparatus 1 </ b> A includes an electronic camera 11 and a SoC (System on Chip) 12.

電子カメラ11は、レンズ21と、CMOS等の撮像素子22とを備えており、撮影された結果得られる撮像画像のデータを、RAWデータとしてSoC12に出力する。   The electronic camera 11 includes a lens 21 and an image sensor 22 such as a CMOS, and outputs captured image data obtained as a result of shooting to the SoC 12 as RAW data.

SoC12は、ISP31と、AE制御部32と、画像認識部33と、を備えている。   The SoC 12 includes an ISP 31, an AE control unit 32, and an image recognition unit 33.

ISP31は、電子カメラ11から出力されるRAWデータに対して、各種画像処理を施す。各種画像処理が施された結果得られる画像のデータは、AE制御部32又は画像認識部33に出力される。なお、本例では、AE制御部32に提供される画像のデータは、輝度情報となっている。   The ISP 31 performs various image processing on the RAW data output from the electronic camera 11. Image data obtained as a result of various image processing is output to the AE control unit 32 or the image recognition unit 33. In this example, the image data provided to the AE control unit 32 is luminance information.

AE制御部32は、ISP31から出力される輝度情報を用いて撮影シーンを適切に判別し、その判別結果に基づく露出の設定をする等のカメラ制御を実行する。AE制御部32において、このようなカメラ制御を実行すべく、加工画像生成部41と、判別条件特定部42と、シーン判別部43と、露出設定部44とが機能する。   The AE control unit 32 appropriately determines a shooting scene using luminance information output from the ISP 31, and performs camera control such as setting exposure based on the determination result. In the AE control unit 32, the processed image generation unit 41, the determination condition specifying unit 42, the scene determination unit 43, and the exposure setting unit 44 function in order to execute such camera control.

加工画像生成部41は、ISP31から出力された輝度情報に基づいて、加工画像のデータを生成する。
例えば、加工画像生成部41は、当該輝度情報に対して二値化処理を施すことで、二値化画像のデータを加工画像のデータとして生成する。具体的には例えば、加工画像生成部41は、輝度情報のうち、明るい領域の各画素値を、画像のデータで表現可能な最大値に変換する一方、暗い領域の各画素値を、画像のデータで表現可能な最小値に変換することで、二値化画像のデータを生成する。
また例えば、加工画像生成部41は、当該輝度情報に対してエッジ検出処理を施すことで、エッジ画像のデータを加工画像のデータとして生成する。具体的には例えば、加工画像生成部41は、画像の明暗が大きくなる点をエッジとして検出する。また例えば、加工画像生成部41は、エッジの領域を第1の画素値の領域(後述する図12の例では灰色の領域)とし、それ以外の領域を第2の画素値の領域(後述する図12の例では黒色の領域)とした画像のデータを、エッジ画像のデータとして生成する。
The processed image generation unit 41 generates processed image data based on the luminance information output from the ISP 31.
For example, the processed image generation unit 41 generates binarized image data as processed image data by performing binarization processing on the luminance information. Specifically, for example, the processed image generation unit 41 converts each pixel value in the bright area to the maximum value that can be expressed by the image data in the luminance information, while converting each pixel value in the dark area into the image information. By converting to the minimum value that can be expressed by data, binary image data is generated.
Further, for example, the processed image generation unit 41 generates edge image data as processed image data by performing edge detection processing on the luminance information. Specifically, for example, the processed image generation unit 41 detects a point where the brightness of the image becomes large as an edge. Further, for example, the processed image generation unit 41 sets the edge area as a first pixel value area (gray area in the example of FIG. 12 described later), and sets the other areas as second pixel value areas (described later). Data of an image that is a black region in the example of FIG. 12 is generated as edge image data.

判別条件特定部42は、加工画像生成部41により生成された加工画像のデータから、原画像(加工画像が生成された元となる電子カメラ11の撮像画像)の撮影シーンを判別するための条件を特定する。   The determination condition specifying unit 42 determines the shooting scene of the original image (the captured image of the electronic camera 11 from which the processed image is generated) from the processed image data generated by the processed image generating unit 41. Is identified.

ここで、本発明の一実施形態では、撮影シーンとして、予め複数のパターンが用意されている。これらの撮影シーンの複数のパターンの中から、原画像のパターンを判別するための条件も1以上予め用意されている。このような条件が、「撮影シーンを判別するための条件」である。なお以下、「撮影シーンを判別するための条件」を、「撮影シーンの判別条件」とも呼ぶ。
撮影シーンの複数のパターンは、2以上の任意の種類の任意の組み合わせを採用することができるが、本例では撮影シーンのパターンとして、次の(a)〜(c)等が挙げられる。
(a)画像の上側が明るく下側が暗いシーン
(b)画像の周囲が明るく中心が暗いシーン
(c)画像の周囲が暗く中心が明るいシーン
Here, in one embodiment of the present invention, a plurality of patterns are prepared in advance as shooting scenes. One or more conditions for discriminating the pattern of the original image from among a plurality of patterns of these shooting scenes are prepared in advance. Such a condition is a “condition for determining a shooting scene”. Hereinafter, the “condition for determining the shooting scene” is also referred to as “the determination condition of the shooting scene”.
As the plurality of patterns of the shooting scene, any combination of two or more arbitrary types can be adopted. In this example, the following (a) to (c) are listed as the shooting scene patterns.
(A) A scene where the upper side of the image is bright and the lower side is dark (b) A scene where the periphery of the image is bright and the center is dark (c) A scene where the periphery of the image is dark and the center is bright

本実施形態では、これらの撮影シーンのパターン(a)〜(c)を夫々判別するために、二値化画像のデータから得られる、明るい領域と暗い領域の各種分割状態(各領域間の位置関係)と、エッジ画像のデータから得られる、特定領域におけるエッジ量に基づく当該特定領域の複雑度とのうち少なくとも一方が用いられる。
つまり、本実施形態では、明るい領域と暗い領域の各種分割状態(各領域間の位置関係)に関する条件(以下、「分割状態条件」と呼ぶ)と、特定領域におけるエッジ量に基づく当該特定領域の複雑度に関する条件(以下、「複雑度条件」と呼ぶ)とが、「撮影シーンの判別条件」として用いられる。
ここで、分割状態条件と複雑度条件は、単体で用いてもよいし、組み合わせて用いてもよい。例えば、分割状態条件のみを用いた条件(以下、「第1判別条件」と呼ぶ)の一例は、後述する図13に示されている。また例えば、分割状態条件と複雑度条件を組み合わせた条件(以下、「第2判別条件」と呼ぶ)の一例は、後述する図14に示されている。
In this embodiment, in order to discriminate each of these shooting scene patterns (a) to (c), various divided states of bright areas and dark areas (positions between the areas) obtained from the data of the binarized image are obtained. Relationship) and the complexity of the specific area based on the edge amount in the specific area obtained from the data of the edge image.
In other words, in the present embodiment, a condition (hereinafter referred to as “division state condition”) regarding various division states (positional relationship between the regions) of the bright region and the dark region, and the specific region based on the edge amount in the specific region. A condition relating to complexity (hereinafter referred to as “complexity condition”) is used as a “photographing scene discrimination condition”.
Here, the division state condition and the complexity condition may be used alone or in combination. For example, an example of a condition using only the division state condition (hereinafter referred to as “first determination condition”) is illustrated in FIG. Further, for example, an example of a condition (hereinafter referred to as “second determination condition”) that combines the division state condition and the complexity condition is illustrated in FIG. 14 described later.

シーン判別部43は、判別条件特定部42により特定された「撮影シーンの判別条件」に基づいて、上述のパターン(a)〜(c)等複数のパターンの中から、原画像のデータの撮影シーンを判別する。   The scene discriminating unit 43 shoots original image data from a plurality of patterns such as the above-described patterns (a) to (c) based on the “photographing scene discrimination conditions” specified by the discrimination condition specifying unit 42. Determine the scene.

ここで、シーン判別部43は、分割状態条件を適用するにあたり、二値化画像のデータを用いて、明るい領域と暗い領域の位置関係を判断する。
つまり、シーン判別部43は、二値化画像のデータに基づいて、明るい領域と暗い領域の夫々の位置を特定する。ここで、原画像によっては明るい領域と暗い領域が複数存在することも想定される。
また、位置関係の特定手法は、特に限定されず、例えば次のような手法を採用することができる。即ち、分割領域が上下や左右(その他、対比される位置関係)に分割されているかや、分割領域が任意の位置を中心とした領域とそれ以外の周囲の領域とに分割されているか等、撮影シーン判別に必要な各種分割状態を識別する、という手法を採用することができる。
Here, when applying the division state condition, the scene determination unit 43 determines the positional relationship between the bright area and the dark area using the data of the binarized image.
That is, the scene determination unit 43 specifies the positions of the bright area and the dark area based on the binarized image data. Here, depending on the original image, there may be a plurality of bright and dark areas.
Moreover, the specific method of positional relationship is not specifically limited, For example, the following methods are employable. That is, whether the divided area is divided vertically and horizontally (other positional relationship to be compared), whether the divided area is divided into an area centered at an arbitrary position and other surrounding areas, etc. A technique of identifying various divided states necessary for shooting scene determination can be employed.

また、シーン判別部43は、複雑度条件を適用するにあたり、エッジ画像のデータを用いて、一画面又は各種領域のエッジ量を算出する。
つまり、シーン判別部43は、エッジ画像のデータに基づいて、各種領域内のエッジ数をカウントすることで、当該各種領域内の夫々のエッジ量を検出することができる。
In addition, when applying the complexity condition, the scene determination unit 43 uses the edge image data to calculate the edge amount of one screen or various regions.
That is, the scene determination unit 43 can detect the respective edge amounts in the various regions by counting the number of edges in the various regions based on the edge image data.

露出設定部44は、シーン判別部43により判別された撮影シーンにとって最適な露出となるように、電子カメラ11に対してカメラ制御を実行する。
このように、電子カメラ11に対するカメラ制御(自動露出補正)において、精度のよい撮影シーンを用いることができるので、最適な露出補正を実現することができる。
The exposure setting unit 44 performs camera control on the electronic camera 11 so that the exposure is optimal for the photographic scene determined by the scene determination unit 43.
As described above, in the camera control (automatic exposure correction) with respect to the electronic camera 11, a highly accurate shooting scene can be used, so that optimal exposure correction can be realized.

以上、AE制御部32において機能する加工画像生成部41乃至露出設定部44について説明した。なお、以下、このような加工画像生成部41乃至露出設定部44による一連の処理を、以下、「シーン毎露出適正処理」と呼ぶ。   The processed image generation unit 41 to the exposure setting unit 44 that function in the AE control unit 32 have been described above. Hereinafter, a series of processes performed by the processed image generation unit 41 to the exposure setting unit 44 is hereinafter referred to as “exposure appropriate process for each scene”.

画像認識部33は、ISP31から出力されたカラー画像のデータに基づいて、当該カラー画像に含まれる各種オブジェクトを認識する。なお、画像認識部33によるこのような処理を、以下「画像認識処理」と呼ぶ。画像認識処理の詳細については、図15を参照して後述する。   The image recognition unit 33 recognizes various objects included in the color image based on the color image data output from the ISP 31. Such processing by the image recognition unit 33 is hereinafter referred to as “image recognition processing”. Details of the image recognition processing will be described later with reference to FIG.

以上、図1を用いて、本発明の一実施形態に係る情報処理装置1Aの構成例について説明した。
次に、このような情報処理装置1Aが実行する処理のうち、シーン毎露出適正処理について、図2以降の図面を参照して説明する。
The configuration example of the information processing apparatus 1A according to the embodiment of the present invention has been described above with reference to FIG.
Next, among the processes executed by the information processing apparatus 1A, the scene appropriate exposure process will be described with reference to FIG.

図2は、図1の情報処理装置1Aにより実行されるシーン毎露出適正処理を説明するフローチャートである。   FIG. 2 is a flow chart for explaining the exposure appropriate process for each scene executed by the information processing apparatus 1A of FIG.

電子カメラ11により撮影された原画像のデータが、ISP31に入力され、輝度情報としてAE制御部32に供給されると、シーン毎露出適正処理が開始され、次のようなステップS1の処理が実行される。   When the data of the original image taken by the electronic camera 11 is input to the ISP 31 and supplied to the AE control unit 32 as luminance information, the appropriate exposure process for each scene is started, and the following process of step S1 is executed. Is done.

ステップS1において、SoC12の加工画像生成部41は、ISP31から出力された輝度情報に基づいて、加工画像のデータを生成する。このようなステップS1における加工画像生成部41の処理を、以下「加工画像生成処理」と呼ぶ。加工画像生成処理の詳細については、図3を用いて後述する。   In step S <b> 1, the processed image generation unit 41 of the SoC 12 generates processed image data based on the luminance information output from the ISP 31. Such processing of the processed image generation unit 41 in step S1 is hereinafter referred to as “processed image generation processing”. Details of the processed image generation processing will be described later with reference to FIG.

ステップS2において、判別条件特定部42は、ステップS1において生成された加工画像のデータから、撮影シーンの判別条件を特定する。   In step S <b> 2, the determination condition specifying unit 42 specifies a shooting scene determination condition from the processed image data generated in step S <b> 1.

ステップS3において、シーン判別部43は、ステップS2において特定された判別条件に基づいて、撮影シーンの複数のパターンの中から、原画像の撮影シーンを判別する。このようなステップS3におけるシーン判別部43の処理を、以下「シーン判別処理」と呼ぶ。シーン判別処理の詳細については、図13及び図14を用いて後述する。   In step S3, the scene determination unit 43 determines the photographic scene of the original image from a plurality of patterns of the photographic scene based on the determination condition specified in step S2. Such processing of the scene determination unit 43 in step S3 is hereinafter referred to as “scene determination processing”. Details of the scene determination process will be described later with reference to FIGS.

ステップS4において、露出設定部44は、ステップS3において判別された撮影シーンに応じた露出設定処理を実行する。   In step S4, the exposure setting unit 44 executes an exposure setting process according to the shooting scene determined in step S3.

以上、図2を用いてシーン毎露出適正処理の流れの概要について説明した。さらに以下、図3以降の図面を参照して、シーン毎露出適正処理のうち、ステップS1の加工画像生成処理、及びステップS3のシーン判別処理の夫々の詳細について説明する。   The outline of the process of appropriate exposure for each scene has been described above with reference to FIG. Further, details of each of the processed image generation processing in step S1 and the scene determination processing in step S3 of the appropriate exposure processing for each scene will be described below with reference to FIG. 3 and subsequent drawings.

図3は、図2のシーン毎露出適正処理のうち加工画像生成処理の詳細を説明するフローチャートである。   FIG. 3 is a flowchart for explaining the details of the processed image generation process in the appropriate exposure processing for each scene in FIG.

ステップS11において、加工画像生成部41は、ISP31から出力された輝度情報を取得する。   In step S <b> 11, the processed image generation unit 41 acquires luminance information output from the ISP 31.

ステップS12において、加工画像生成部41は、ステップS11において取得した輝度情報に対して二値化処理を施すことで、二値化画像のデータを加工画像のデータとして生成する。   In step S12, the processed image generation unit 41 generates binarized image data as processed image data by performing binarization processing on the luminance information acquired in step S11.

ステップS13において、加工画像生成部41は、ステップS12において生成した二値化画像のデータに基づいて、明るい領域と暗い領域の各種分割状態(各領域間の位置関係)を特定する。   In step S <b> 13, the processed image generation unit 41 specifies various division states (positional relationship between the areas) of the bright area and the dark area based on the binarized image data generated in step S <b> 12.

ステップS14において、加工画像生成部41は、ステップS11において取得した輝度情報に対してエッジ検出処理を施すことで、エッジ画像のデータを加工画像のデータとして生成する。   In step S14, the processed image generation unit 41 performs edge detection processing on the luminance information acquired in step S11, thereby generating edge image data as processed image data.

ステップS15において、加工画像生成部41は、ステップS14において生成したエッジ画像のデータに基づいて、一画面又は各種領域のエッジ量を算出する。   In step S15, the processed image generation unit 41 calculates the edge amount of one screen or various regions based on the edge image data generated in step S14.

これにより、加工画像生成処理は終了となる。即ち、図2のステップS1の処理が終了し、処理はステップS2に進み、それ以降の処理が実行される。   As a result, the processed image generation process ends. That is, the process of step S1 in FIG. 2 ends, the process proceeds to step S2, and the subsequent processes are executed.

ここで、図4乃至図12を用いて、加工画像生成処理により生成される加工画像のデータの幾つかの具体例について説明する。   Here, some specific examples of the processed image data generated by the processed image generation processing will be described with reference to FIGS.

図4は、図3の加工画像生成処理のステップS11において取得される輝度情報Ei1の具体例を示している。
図4の例の輝度情報Ei1は、図1のISP31から出力されると、図3の加工画像生成処理のステップS11において、加工画像生成部41により取得される。
FIG. 4 shows a specific example of the luminance information Ei1 acquired in step S11 of the processed image generation process of FIG.
The luminance information Ei1 in the example of FIG. 4 is acquired by the processed image generation unit 41 in step S11 of the processed image generation process of FIG. 3 when output from the ISP 31 of FIG.

図5は、図3の加工画像生成処理のステップS12において、図4の例の輝度情報Ei1から生成された二値化画像Ti1を示す図である。
即ち、図3の加工画像生成処理のステップS12において、加工画像生成部41は、図4の例の輝度情報Ei1に対して二値化処理を施すことで、二値化画像Ti1のデータを生成する。
具体的には、加工画像生成部41は、輝度情報Ei1のうち、明るい領域L1の各画素値を、画像のデータで表現可能な最大値に変換する一方、暗い領域B1の各画素値を、画像のデータで表現可能な最小値に変換することで、二値化画像Ti1のデータを生成する。
FIG. 5 is a diagram showing the binarized image Ti1 generated from the luminance information Ei1 of the example of FIG. 4 in step S12 of the processed image generation process of FIG.
That is, in step S12 of the processed image generation process of FIG. 3, the processed image generation unit 41 generates data of the binary image Ti1 by performing binarization processing on the luminance information Ei1 of the example of FIG. To do.
Specifically, the processed image generation unit 41 converts each pixel value of the bright area L1 into the maximum value that can be represented by image data in the luminance information Ei1, while converting each pixel value of the dark area B1 to Data of the binarized image Ti1 is generated by converting to a minimum value that can be expressed by image data.

そして、図3の加工画像生成処理のステップS13において、加工画像生成部41は、この二値化画像Ti1のデータに基づいて、明るい領域L1と暗い領域B1の各種分割状態(各領域間の位置関係)として、画像の上側が明るく下側が暗い状態となっていることを特定する。   Then, in step S13 of the processed image generation process in FIG. 3, the processed image generation unit 41 determines various division states (positions between the regions) of the bright region L1 and the dark region B1 based on the data of the binarized image Ti1. As a relation), it is specified that the upper side of the image is bright and the lower side is dark.

図6は、図3の加工画像生成処理のステップS14において、図4の例の輝度情報Ei1から生成されたエッジ画像Egi1を示す図である。
即ち、図3の加工画像生成処理のステップS12において、加工画像生成部41は、図4の例の輝度情報Ei1に対してエッジ検出処理を施すことで、エッジ画像Egi1のデータを生成する。
具体的には、加工画像生成部41は、輝度情報Ei1のうち、画像の明暗が大きくなる点(画素)をエッジE1として検出し、エッジE1の領域を第1の画素値の領域(図6の例では灰色の領域)、それ以外の領域を第2の画素値の領域(図6の例では黒色の領域)とすることで、エッジ画像Egi1のデータを生成する。
FIG. 6 is a diagram showing the edge image Egi1 generated from the luminance information Ei1 of the example of FIG. 4 in step S14 of the processed image generation process of FIG.
That is, in step S12 of the processed image generation process of FIG. 3, the processed image generation unit 41 performs edge detection processing on the luminance information Ei1 of the example of FIG. 4 to generate data of the edge image Egi1.
Specifically, the processed image generation unit 41 detects, from the luminance information Ei1, a point (pixel) where the brightness of the image becomes large as the edge E1, and the region of the edge E1 is a region of the first pixel value (FIG. 6). The data of the edge image Egi1 is generated by setting the other area as the second pixel value area (black area in the example of FIG. 6).

そして、図3の加工画像生成処理のステップS15において、加工画像生成部41は、このエッジ画像Egi1のデータに基づいて、一画面又は各種領域のエッジ量(エッジE1の領域を構成する画素の数に基づく量)を算出する。   Then, in step S15 of the processed image generation process of FIG. 3, the processed image generation unit 41, based on the data of the edge image Egi1, determines the edge amount of one screen or various regions (the number of pixels constituting the region of the edge E1). (Amount based on).

これにより、加工画像生成処理は終了となる。即ち、図2のステップS1の処理が終了し、処理はステップS2に進み、それ以降の処理が実行される。
この場合、詳細については後述するが、図2のステップS3のシーン判別処理では、上述したステップS13やステップS15の処理結果に基づいて、撮影シーンは上述の「(a)画像の上側が明るく下側が暗いシーン」であると判別される。
As a result, the processed image generation process ends. That is, the process of step S1 in FIG. 2 ends, the process proceeds to step S2, and the subsequent processes are executed.
In this case, although the details will be described later, in the scene determination process in step S3 in FIG. 2, based on the result of the process in step S13 or step S15 described above, the photographic scene is displayed with the above “(a) upper side of the image brightly down. It is determined that the scene is a “dark scene”.

図7は、図3の加工画像生成処理のステップS11において取得される輝度情報Ei2の具体例を示している。
図7の例の輝度情報Ei2は、図1のISP31から出力されると、図3の加工画像生成処理のステップS11において、加工画像生成部41により取得される。
FIG. 7 shows a specific example of the luminance information Ei2 acquired in step S11 of the processed image generation process of FIG.
When the luminance information Ei2 in the example of FIG. 7 is output from the ISP 31 of FIG. 1, the processed image generation unit 41 acquires the luminance information Ei2 in step S11 of the processed image generation process of FIG.

図8は、図3の加工画像生成処理のステップS12において、図7の例の輝度情報Ei2から生成された二値化画像Ti2を示す図である。
即ち、図3の加工画像生成処理のステップS12において、加工画像生成部41は、図7の例の輝度情報Ei2に対して二値化処理を施すことで、二値化画像Ti2のデータを生成する。
具体的には、加工画像生成部41は、輝度情報Ei2のうち、明るい領域L2の各画素値を、画像のデータで表現可能な最大値に変換する一方、暗い領域B2の各画素値を、画像のデータで表現可能な最小値に変換することで、二値化画像Ti2のデータを生成する。
FIG. 8 is a diagram showing the binarized image Ti2 generated from the luminance information Ei2 of the example of FIG. 7 in step S12 of the processed image generation process of FIG.
That is, in step S12 of the processed image generation process of FIG. 3, the processed image generation unit 41 generates data of the binarized image Ti2 by performing binarization processing on the luminance information Ei2 of the example of FIG. To do.
Specifically, the processed image generation unit 41 converts each pixel value of the bright area L2 to the maximum value that can be represented by image data in the luminance information Ei2, while converting each pixel value of the dark area B2 to Data of the binarized image Ti2 is generated by converting to the minimum value that can be expressed by the image data.

そして、図3の加工画像生成処理のステップS13において、加工画像生成部41は、この二値化画像Ti2のデータに基づいて、明るい領域L2と暗い領域B2の各種分割状態(各領域間の位置関係)として、画像の周囲が暗く中心が明るい状態となっていることを特定する。   Then, in step S13 of the processed image generation process of FIG. 3, the processed image generation unit 41 determines various division states (positions between the regions) of the bright region L2 and the dark region B2 based on the data of the binarized image Ti2. As a relation), it is specified that the periphery of the image is dark and the center is bright.

図9は、図3の加工画像生成処理のステップS14において、図7の例の輝度情報Ei2から生成されたエッジ画像Egi2を示す図である。
即ち、図3の加工画像生成処理のステップS12において、加工画像生成部41は、図7の例の輝度情報Ei2に対してエッジ検出処理を施すことで、エッジ画像Egi2のデータを生成する。
具体的には、加工画像生成部41は、輝度情報Ei2のうち、画像の明暗が大きくなる点(画素)をエッジE2として検出し、エッジE2の領域を第1の画素値の領域(図9の例では白色の領域)、それ以外の領域を第2の画素値の領域(図9の例では黒色の領域)とすることで、エッジ画像Egi2のデータを生成する。
FIG. 9 is a diagram showing the edge image Egi2 generated from the luminance information Ei2 of the example of FIG. 7 in step S14 of the processed image generation process of FIG.
That is, in step S12 of the processed image generation process of FIG. 3, the processed image generation unit 41 performs edge detection processing on the luminance information Ei2 in the example of FIG. 7, thereby generating data of the edge image Egi2.
Specifically, the processed image generation unit 41 detects, from the luminance information Ei2, a point (pixel) where the brightness of the image becomes large as the edge E2, and the region of the edge E2 is the region of the first pixel value (FIG. 9). The edge image Egi2 is generated by setting the other area as the second pixel value area (black area in the example of FIG. 9).

そして、図3の加工画像生成処理のステップS15において、加工画像生成部41は、このエッジ画像Egi2のデータに基づいて、一画面又は各種領域のエッジ量(エッジE2の領域を構成する画素の数に基づく量)を算出する。   Then, in step S15 of the processed image generation process of FIG. 3, the processed image generation unit 41, based on the data of the edge image Egi2, determines the edge amount of one screen or various regions (the number of pixels constituting the region of the edge E2). (Amount based on).

これにより、加工画像生成処理は終了となる。即ち、図2のステップS1の処理が終了し、処理はステップS2に進み、それ以降の処理が実行される。
この場合、詳細については後述するが、図2のステップS3のシーン判別処理では、上述したステップS13やステップS15の処理結果に基づいて、撮影シーンは上述の「(c)画像の周囲が暗く中心が明るいシーン」であると判別される。
As a result, the processed image generation process ends. That is, the process of step S1 in FIG. 2 ends, the process proceeds to step S2, and the subsequent processes are executed.
In this case, although the details will be described later, in the scene determination process in step S3 in FIG. 2, based on the processing results in step S13 and step S15 described above, the photographic scene is centered on the above-mentioned “(c) image with dark surroundings”. Is a bright scene ".

図10は、図3の加工画像生成処理のステップS11において取得される輝度情報Ei3の具体例を示している。
図10の例の輝度情報Ei3は、図1のISP31から出力されると、図3の加工画像生成処理のステップS11において、加工画像生成部41により取得される。
FIG. 10 shows a specific example of the luminance information Ei3 acquired in step S11 of the processed image generation process of FIG.
When the luminance information Ei3 in the example of FIG. 10 is output from the ISP 31 of FIG. 1, the processed image generation unit 41 acquires the luminance information Ei3 in step S11 of the processed image generation process of FIG.

図11は、図3の加工画像生成処理のステップS12において、図10の例の輝度情報Ei3から生成された二値化画像Ti3を示す図である。
即ち、図3の加工画像生成処理のステップS12において、加工画像生成部41は、図10の例の輝度情報Ei3に対して二値化処理を施すことで、二値化画像Ti3のデータを生成する。
具体的には、加工画像生成部41は、輝度情報Ei3のうち、明るい領域L3の各画素値を、画像のデータで表現可能な最大値に変換する一方、暗い領域B3の各画素値を、画像のデータで表現可能な最小値に変換することで、二値化画像Ti3のデータを生成する。
FIG. 11 is a diagram illustrating the binarized image Ti3 generated from the luminance information Ei3 of the example of FIG. 10 in step S12 of the processed image generation process of FIG.
That is, in step S12 of the processed image generation process of FIG. 3, the processed image generation unit 41 generates data of the binary image Ti3 by performing binarization processing on the luminance information Ei3 of the example of FIG. To do.
Specifically, the processed image generation unit 41 converts each pixel value of the bright area L3 to the maximum value that can be represented by image data in the luminance information Ei3, while converting each pixel value of the dark area B3 to Data of the binarized image Ti3 is generated by converting to the minimum value that can be expressed by the image data.

そして、図3の加工画像生成処理のステップS13において、加工画像生成部41は、この二値化画像Ti3のデータに基づいて、明るい領域L3と暗い領域B3の各種分割状態(各領域間の位置関係)として、画像の周囲が明るく中心が暗い状態となっていることを特定する。   Then, in step S13 of the processed image generation process of FIG. 3, the processed image generation unit 41 determines various division states (positions between the regions) of the bright region L3 and the dark region B3 based on the data of the binarized image Ti3. As a relation), it is specified that the periphery of the image is bright and the center is dark.

図12は、図3の加工画像生成処理のステップS14において、図10の例の輝度情報Ei3から生成されたエッジ画像Egi3を示す図である。
即ち、図3の加工画像生成処理のステップS12において、加工画像生成部41は、図10の例の輝度情報Ei3に対してエッジ検出処理を施すことで、エッジ画像Egi3のデータを生成する。
具体的には、加工画像生成部41は、輝度情報Ei3のうち、画像の明暗が大きくなる点(画素)をエッジE3として検出し、エッジE3の領域を第1の画素値の領域(図12の例では灰色の領域)、それ以外の領域を第2の画素値の領域(図12の例では黒色の領域)とすることで、エッジ画像Egi3のデータを生成する。
FIG. 12 is a diagram showing the edge image Egi3 generated from the luminance information Ei3 of the example of FIG. 10 in step S14 of the processed image generation process of FIG.
That is, in step S12 of the processed image generation process of FIG. 3, the processed image generation unit 41 performs edge detection processing on the luminance information Ei3 in the example of FIG. 10 to generate data of the edge image Egi3.
Specifically, the processed image generation unit 41 detects, from the luminance information Ei3, a point (pixel) where the brightness of the image becomes large as the edge E3, and the region of the edge E3 is a region of the first pixel value (FIG. 12). The edge image Egi3 is generated by setting the other area as the second pixel value area (black area in the example of FIG. 12).

そして、図3の加工画像生成処理のステップS15において、加工画像生成部41は、このエッジ画像Egi3のデータに基づいて、一画面又は各種領域のエッジ量(エッジE3の領域を構成する画素の数に基づく量)を算出する。   Then, in step S15 of the processed image generation process of FIG. 3, the processed image generation unit 41, based on the data of the edge image Egi3, the edge amount of one screen or various regions (the number of pixels constituting the region of the edge E3) (Amount based on).

これにより、加工画像生成処理は終了となる。即ち、図2のステップS1の処理が終了し、処理はステップS2に進み、それ以降の処理が実行される。
この場合、詳細については後述するが、図2のステップS3のシーン判別処理では、上述したステップS13やステップS15の処理結果に基づいて、撮影シーンは上述の「(b)画像の周囲が明るく中心が暗いシーン」であると判別される。
As a result, the processed image generation process ends. That is, the process of step S1 in FIG. 2 ends, the process proceeds to step S2, and the subsequent processes are executed.
In this case, although the details will be described later, in the scene determination process in step S3 in FIG. 2, based on the processing results in step S13 and step S15 described above, the photographic scene is centered on the above-mentioned “(b) the periphery of the image is bright. Is a “dark scene”.

以上、図3乃至図12を用いて、図2のシーン毎露出適正処理のステップS1の加工画像生成処理の詳細ついて説明した。
このようなステップS1の加工画像生成処理が終了すると、ステップS2において、ステップS1において生成された加工画像のデータから、撮影シーンの判別条件が特定される。
そして、ステップS3においてシーン判別処理が実行される。即ち、ステップS2において特定された判別条件に基づいて、撮影シーンの複数のパターンの中から、原画像の撮影シーンが判別される。
そこで、以下、シーン判別処理の詳細について説明する。
The details of the processed image generation processing in step S1 of the appropriate exposure processing for each scene in FIG. 2 have been described above with reference to FIGS.
When the processed image generation process in step S1 is completed, in step S2, the conditions for determining the shooting scene are specified from the processed image data generated in step S1.
In step S3, a scene determination process is executed. That is, the photographic scene of the original image is determined from the plurality of patterns of the photographic scene based on the determination condition specified in step S2.
Therefore, details of the scene determination process will be described below.

なお、ここでは、ステップS2では、撮影シーンの判別条件として、第1判別条件と第2判別条件のうち何れか一方が特定されるものとする。
第1判別条件とは、明るい領域と暗い領域の各種分割状態(各領域間の位置関係)に関する条件、即ち「分割状態条件」のみを用いる条件である。
第2判別条件とは、「分割状態条件」に加えてさらに、特定領域におけるエッジ量に基づく当該特定領域の複雑度に関する条件、即ち「複雑度条件」を組み合わせて用いる条件である。
Here, in step S2, it is assumed that one of the first discrimination condition and the second discrimination condition is specified as the shooting scene discrimination condition.
The first determination condition is a condition using only conditions relating to various divided states (positional relationship between the regions) of the bright region and the dark region, that is, the “divided state condition”.
The second determination condition is a condition in which, in addition to the “division state condition”, a condition relating to the complexity of the specific area based on the edge amount in the specific area, that is, a “complexity condition” is used in combination.

ステップS2において、第1判別条件が特定された場合には、ステップS3のシーン判別処理として、図13のフローチャートに従った処理が実行される。なお以下、図13に示すシーン判別処理を「第1判別条件用シーン判別処理」と呼ぶ。
これに対して、ステップS2において、第2判別条件が特定された場合には、ステップS3のシーン判別処理として、図14のフローチャートに従った処理が実行される。なお以下、図14に示すシーン判別処理を「第2判別条件用シーン判別処理」と呼ぶ。
When the first determination condition is specified in step S2, the process according to the flowchart of FIG. 13 is executed as the scene determination process in step S3. Hereinafter, the scene determination process shown in FIG. 13 is referred to as a “first determination condition scene determination process”.
On the other hand, when the second determination condition is specified in step S2, the process according to the flowchart of FIG. 14 is executed as the scene determination process in step S3. Hereinafter, the scene determination process shown in FIG. 14 is referred to as a “second determination condition scene determination process”.

以下、図13の第1判別条件用シーン判別処理と、図14の第2判別条件用シーン判別処理との夫々について、その順番に個別に説明していく。   Hereinafter, each of the first determination condition scene determination process in FIG. 13 and the second determination condition scene determination process in FIG. 14 will be described individually in that order.

図13は、図2のシーン毎露出適正処理のうち、ステップS2において第1判別条件が特定された場合にステップS3のシーン判別処理として実行される第1判別条件用シーン判別処理の詳細を説明するフローチャートである。   FIG. 13 illustrates the details of the first determination condition scene determination process executed as the scene determination process in step S3 when the first determination condition is specified in step S2 in the appropriate exposure processing for each scene in FIG. It is a flowchart to do.

ステップS41において、シーン判別部43は、二値化画像のデータから得られる明るい領域と暗い領域の分割状態が、閾値Aに基づく条件に一致しているか否かを判定する。
閾値Aに基づく条件に一致していないと判定された場合、ステップS41においてNOであると判定されて、処理はステップS43に進む。なお、ステップS43以降の処理は後述する。
これに対して、閾値Aに基づく条件に一致していると判定された場合、処理はステップS42に進む。
ステップS42において、シーン判別部43は、原画像の撮影シーンは撮影シーン1であると判別する。これにより、第1判別条件用シーン判別処理は終了する。即ち、図2のステップS3の処理は終了し、処理はステップS4に進む。
In step S <b> 41, the scene determination unit 43 determines whether the division state of the bright area and the dark area obtained from the binarized image data matches the condition based on the threshold A.
If it is determined that the condition based on the threshold A is not met, NO is determined in step S41, and the process proceeds to step S43. The processing after step S43 will be described later.
On the other hand, if it is determined that the condition based on the threshold value A matches, the process proceeds to step S42.
In step S <b> 42, the scene determination unit 43 determines that the shooting scene of the original image is the shooting scene 1. Thereby, the scene determination process for the first determination condition ends. That is, the process of step S3 in FIG. 2 ends, and the process proceeds to step S4.

上述したように、閾値Aに基づく条件に一致していないと判定された場合、ステップS41においてNOであると判定されて、処理はステップS43に進む。
ステップS43において、シーン判別部43は、二値化画像のデータから得られる明るい領域と暗い領域の分割状態が、閾値Bに基づく条件に一致しているか否かを判定する。
閾値Bに基づく条件に一致していないと判定された場合、ステップS43においてNOであると判定されて、処理はステップS45に進む。なお、ステップS45以降の処理は後述する。
これに対して、閾値Bに基づく条件に一致していると判定された場合、処理はステップS44に進む。
ステップS44において、シーン判別部43は、原画像の撮影シーンは撮影シーン2であると判別する。これにより、第1判別条件用シーン判別処理は終了する。即ち、図2のステップS3の処理は終了し、処理はステップS4に進む。
As described above, when it is determined that the condition based on the threshold value A does not match, it is determined NO in step S41, and the process proceeds to step S43.
In step S43, the scene determination unit 43 determines whether the division state of the bright area and the dark area obtained from the binarized image data matches a condition based on the threshold value B.
If it is determined that the condition based on the threshold value B does not match, it is determined NO in step S43, and the process proceeds to step S45. The processing after step S45 will be described later.
On the other hand, if it is determined that the condition based on the threshold value B is met, the process proceeds to step S44.
In step S44, the scene determination unit 43 determines that the shooting scene of the original image is the shooting scene 2. Thereby, the scene determination process for the first determination condition ends. That is, the process of step S3 in FIG. 2 ends, and the process proceeds to step S4.

上述したように、閾値Bに基づく条件に一致していないと判定された場合、ステップS43においてNOであると判定されて、処理はステップS45に進む。
ステップS45において、シーン判別部43は、二値化画像のデータから得られる明るい領域と暗い領域の分割状態が、閾値Cに基づく条件に一致しているか否かを判定する。
閾値Cに基づく条件に一致していないと判定された場合、ステップS45においてNOであると判定されて、処理はステップS47に進む。なお、ステップS47以降の処理は後述する。
これに対して、閾値Cに基づく条件に一致していると判定された場合、処理はステップS46に進む。
ステップS46において、シーン判別部43は、原画像の撮影シーンは撮影シーン3であると判別する。これにより、第1判別条件用シーン判別処理は終了する。即ち、図2のステップS3の処理は終了し、処理はステップS4に進む。
As described above, when it is determined that the condition based on the threshold B is not met, it is determined as NO in Step S43, and the process proceeds to Step S45.
In step S <b> 45, the scene determination unit 43 determines whether the division state of the bright area and the dark area obtained from the binarized image data matches a condition based on the threshold value C.
If it is determined that the condition based on the threshold C is not met, NO is determined in step S45, and the process proceeds to step S47. The processing after step S47 will be described later.
On the other hand, if it is determined that the condition based on the threshold C is met, the process proceeds to step S46.
In step S <b> 46, the scene determination unit 43 determines that the shooting scene of the original image is the shooting scene 3. Thereby, the scene determination process for the first determination condition ends. That is, the process of step S3 in FIG. 2 ends, and the process proceeds to step S4.

上述したように、閾値Cに基づく条件に一致していないと判定された場合、ステップS45においてNOであると判定されて、処理はステップS47に進む。
ステップS47において、シーン判別部43は、原画像の撮影シーンは撮影シーン4であると判別する。
As described above, when it is determined that the condition based on the threshold C is not met, it is determined as NO in Step S45, and the process proceeds to Step S47.
In step S <b> 47, the scene determination unit 43 determines that the shooting scene of the original image is the shooting scene 4.

これにより、第1判別条件用シーン判別処理は終了する。即ち、図2のステップS3の処理は終了し、処理はステップS4に進み、それ以降の処理が実行される。
このように、二値化画像のデータから得られる明るい領域と暗い領域の分割状態に基づいて各閾値によって撮影シーンを判断することができる。その結果、精度よく適切に撮影シーンを判定することができる。
Thereby, the scene determination process for the first determination condition ends. That is, the process of step S3 in FIG. 2 ends, the process proceeds to step S4, and the subsequent processes are executed.
In this manner, the photographic scene can be determined by each threshold based on the division state of the bright area and the dark area obtained from the binarized image data. As a result, it is possible to determine the shooting scene accurately and appropriately.

以上、図13を用いて第1判別条件用シーン判別処理の流れについて説明した。次に、図14を用いて第2判別条件用シーン判別処理の流れを説明する。   The flow of the first discrimination condition scene discrimination process has been described above with reference to FIG. Next, the flow of the second discrimination condition scene discrimination process will be described with reference to FIG.

図14は、図2のシーン毎露出適正処理のうちステップS2において第2判別条件が特定された場合にステップS3のシーン判別処理として実行される第2判別条件用シーン判別処理の詳細を説明するフローチャートである。   FIG. 14 illustrates the details of the second determination condition scene determination process executed as the scene determination process in step S3 when the second determination condition is specified in step S2 in the appropriate exposure processing for each scene in FIG. It is a flowchart.

ステップS61において、シーン判別部43は、エッジ画像のデータから得られる特定領域におけるエッジ量が、エッジ検出量Aに基づく条件に該当しているか否かを判定する。
エッジ検出量Aに基づく条件に該当していないと判定された場合、ステップS61においてNOであると判定されて、処理はステップS64に進む。なお、ステップS64以降の処理は後述する。
これに対して、エッジ検出量Aに基づく条件に該当していると判定された場合、処理はステップS62に進む。
ステップS62において、シーン判別部43は、二値化画像のデータから得られる明るい領域と暗い領域の分割状態が、閾値Aに基づく条件に該当しているか否かを判定する。
閾値Aに基づく条件に該当していないと判定された場合、ステップS62においてNOであると判定されて、処理はステップS64に進む。なお、ステップS64以降の処理は後述する。
これに対して、閾値Aに基づく条件に該当していると判定された場合、処理はステップS63に進む。
ステップS63において、シーン判別部43は、原画像の撮影シーンは撮影シーン1であると判別する。これにより、第2判別条件用シーン判別処理は終了する。即ち、図2のステップS3の処理は終了し、処理はステップS4に進む。
In step S <b> 61, the scene determination unit 43 determines whether or not the edge amount in the specific region obtained from the edge image data satisfies the condition based on the edge detection amount A.
If it is determined that the condition based on the edge detection amount A is not satisfied, NO is determined in step S61, and the process proceeds to step S64. The processing after step S64 will be described later.
On the other hand, if it is determined that the condition based on the edge detection amount A is satisfied, the process proceeds to step S62.
In step S <b> 62, the scene determination unit 43 determines whether the division state of the bright area and the dark area obtained from the binarized image data satisfies the condition based on the threshold A.
If it is determined that the condition based on the threshold A is not satisfied, it is determined as NO in Step S62, and the process proceeds to Step S64. The processing after step S64 will be described later.
On the other hand, if it is determined that the condition based on the threshold A is met, the process proceeds to step S63.
In step S63, the scene determination unit 43 determines that the shooting scene of the original image is the shooting scene 1. Thereby, the scene determination process for the second determination condition ends. That is, the process of step S3 in FIG. 2 ends, and the process proceeds to step S4.

上述したように、エッジ検出量Aに基づく条件に該当していないと判定された場合又は閾値Aに基づく条件に該当していないと判定された場合、ステップS61又はステップS62においてNOであると判定されて、処理はステップS64に進む。   As described above, when it is determined that the condition based on the edge detection amount A is not met or when it is determined that the condition based on the threshold A is not met, it is determined as NO in step S61 or step S62. Then, the process proceeds to step S64.

ステップS64において、シーン判別部43は、エッジ画像のデータから得られる特定領域におけるエッジ量が、エッジ検出量Bに基づく条件に該当しているか否かを判定する。
エッジ検出量Bに基づく条件に該当していないと判定された場合、ステップS64においてNOであると判定されて、処理はステップS67に進む。なお、ステップS67以降の処理は後述する。
これに対して、エッジ検出量Bに基づく条件に該当していると判定された場合、処理はステップS65に進む。
ステップS65において、シーン判別部43は、二値化画像のデータから得られる明るい領域と暗い領域の分割状態が、閾値Bに基づく条件に該当しているか否かを判定する。
閾値Bに基づく条件に該当していないと判定された場合、ステップS65においてNOであると判定されて、処理はステップS67に進む。なお、ステップS67以降の処理は後述する。
これに対して、閾値Bに基づく条件に該当していると判定された場合、処理はステップS66に進む。
ステップS66において、シーン判別部43は、原画像の撮影シーンは撮影シーン2であると判別する。これにより、第2判別条件用シーン判別処理は終了する。即ち、図2のステップS3の処理は終了し、処理はステップS4に進む。
In step S <b> 64, the scene determination unit 43 determines whether or not the edge amount in the specific region obtained from the edge image data satisfies the condition based on the edge detection amount B.
If it is determined that the condition based on the edge detection amount B is not satisfied, NO is determined in step S64, and the process proceeds to step S67. The processing after step S67 will be described later.
On the other hand, if it is determined that the condition based on the edge detection amount B is satisfied, the process proceeds to step S65.
In step S <b> 65, the scene determination unit 43 determines whether the division state of the bright area and the dark area obtained from the binarized image data satisfies the condition based on the threshold B.
If it is determined that the condition based on the threshold B is not met, NO is determined in step S65, and the process proceeds to step S67. The processing after step S67 will be described later.
On the other hand, if it is determined that the condition based on the threshold value B is satisfied, the process proceeds to step S66.
In step S <b> 66, the scene determination unit 43 determines that the shooting scene of the original image is the shooting scene 2. Thereby, the scene determination process for the second determination condition ends. That is, the process of step S3 in FIG. 2 ends, and the process proceeds to step S4.

上述したように、エッジ検出量Bに基づく条件に該当していないと判定された場合又は閾値Bに基づく条件に該当していないと判定された場合、ステップS64又はステップS65においてNOであると判定されて、処理はステップS67に進む。   As described above, when it is determined that the condition based on the edge detection amount B is not met or when it is determined that the condition based on the threshold B is not met, it is determined as NO in step S64 or step S65. Then, the process proceeds to step S67.

ステップS67において、シーン判別部43は、エッジ画像のデータから得られる特定領域におけるエッジ量が、エッジ検出量Cに基づく条件に該当しているか否かを判定する。
エッジ検出量Cに基づく条件に該当していないと判定された場合、ステップS67においてNOであると判定されて、処理はステップS70に進む。なお、ステップS70以降の処理は後述する。
これに対して、エッジ検出量Cに基づく条件に該当していると判定された場合、処理はステップS68に進む。
ステップS68において、シーン判別部43は、二値化画像のデータから得られる明るい領域と暗い領域の分割状態が、閾値Cに基づく条件に該当しているか否かを判定する。
閾値Cに基づく条件に該当していないと判定された場合、ステップS68においてNOであると判定されて、処理はステップS70に進む。なお、ステップS70以降の処理は後述する。
これに対して、閾値Cに基づく条件に該当していると判定された場合、処理はステップS69に進む。
ステップS69において、シーン判別部43は、原画像の撮影シーンは撮影シーン3であると判別する。これにより、第2判別条件用シーン判別処理は終了する。即ち、図2のステップS3の処理は終了し、処理はステップS4に進む。
In step S <b> 67, the scene determination unit 43 determines whether or not the edge amount in the specific area obtained from the edge image data satisfies the condition based on the edge detection amount C.
If it is determined that the condition based on the edge detection amount C is not satisfied, NO is determined in step S67, and the process proceeds to step S70. The processing after step S70 will be described later.
On the other hand, if it is determined that the condition based on the edge detection amount C is satisfied, the process proceeds to step S68.
In step S <b> 68, the scene determination unit 43 determines whether the division state of the bright area and the dark area obtained from the binarized image data satisfies the condition based on the threshold value C.
If it is determined that the condition based on the threshold value C is not satisfied, NO is determined in step S68, and the process proceeds to step S70. The processing after step S70 will be described later.
On the other hand, if it is determined that the condition based on the threshold value C is met, the process proceeds to step S69.
In step S <b> 69, the scene determination unit 43 determines that the shooting scene of the original image is the shooting scene 3. Thereby, the scene determination process for the second determination condition ends. That is, the process of step S3 in FIG. 2 ends, and the process proceeds to step S4.

上述したように、エッジ検出量Cに基づく条件に該当していないと判定された場合又は閾値Cに基づく条件に該当していないと判定された場合、ステップS67又はステップS68においてNOであると判定されて、処理はステップS70に進む。   As described above, when it is determined that the condition based on the edge detection amount C is not met or when it is determined that the condition based on the threshold C is not met, NO is determined in step S67 or step S68. Then, the process proceeds to step S70.

ステップS70において、シーン判別部43は、エッジ画像のデータから得られる特定領域におけるエッジ量が、エッジ検出量Dに基づく条件に該当しているか否かを判定する。
エッジ検出量Dに基づく条件に該当していないと判定された場合、ステップS70においてNOであると判定されて、処理はステップS73に進む。なお、ステップS73以降の処理は後述する。
これに対して、エッジ検出量Dに基づく条件に該当していると判定された場合、処理はステップS71に進む。
ステップS71において、シーン判別部43は、二値化画像のデータから得られる明るい領域と暗い領域の分割状態が、閾値Dに基づく条件に該当しているか否かを判定する。
閾値Dに基づく条件に該当していないと判定された場合、ステップS71においてNOであると判定されて、処理はステップS73に進む。なお、ステップS73以降の処理は後述する。
これに対して、閾値Dに基づく条件に該当していると判定された場合、処理はステップS72に進む。
ステップS72において、シーン判別部43は、原画像の撮影シーンは撮影シーン4であると判別する。これにより、第2判別条件用シーン判別処理は終了する。即ち、図2のステップS3の処理は終了し、処理はステップS4に進む。
In step S <b> 70, the scene determination unit 43 determines whether or not the edge amount in the specific region obtained from the edge image data satisfies the condition based on the edge detection amount D.
If it is determined that the condition based on the edge detection amount D is not satisfied, NO is determined in step S70, and the process proceeds to step S73. The processing after step S73 will be described later.
On the other hand, if it is determined that the condition based on the edge detection amount D is satisfied, the process proceeds to step S71.
In step S <b> 71, the scene determination unit 43 determines whether the division state of the bright area and the dark area obtained from the binarized image data satisfies the condition based on the threshold value D.
If it is determined that the condition based on the threshold value D is not met, NO is determined in step S71, and the process proceeds to step S73. The processing after step S73 will be described later.
On the other hand, if it is determined that the condition based on the threshold value D is met, the process proceeds to step S72.
In step S <b> 72, the scene determination unit 43 determines that the shooting scene of the original image is the shooting scene 4. Thereby, the scene determination process for the second determination condition ends. That is, the process of step S3 in FIG. 2 ends, and the process proceeds to step S4.

上述したように、エッジ検出量Dに基づく条件に該当していないと判定された場合又は閾値Dに基づく条件に該当していないと判定された場合、ステップS70又はステップS71においてNOであると判定されて、処理はステップS73に進む。   As described above, when it is determined that the condition based on the edge detection amount D is not met or when it is determined that the condition based on the threshold D is not met, it is determined as NO in step S70 or step S71. Then, the process proceeds to step S73.

ステップS73において、シーン判別部43は、原画像の撮影シーンは撮影シーン5であると判別する。   In step S <b> 73, the scene determination unit 43 determines that the shooting scene of the original image is the shooting scene 5.

これにより、第2判別条件用シーン判別処理は終了する。即ち、図2のステップS3の処理は終了し、処理はステップS4に進み、それ以降の処理が実行される。
このように、二値化画像のデータから得られる明るい領域と暗い領域との分割状態及びエッジ画像のデータから得られる特定領域におけるエッジ量による当該特定領域の複雑度に基づいて撮影シーンを判断することができる。その結果、精度よく適切に撮影シーンを判定することができる。
Thereby, the scene determination process for the second determination condition ends. That is, the process of step S3 in FIG. 2 ends, the process proceeds to step S4, and the subsequent processes are executed.
As described above, the shooting scene is determined based on the division state of the bright area and the dark area obtained from the binary image data and the complexity of the specific area based on the edge amount in the specific area obtained from the edge image data. be able to. As a result, it is possible to determine the shooting scene accurately and appropriately.

以上、図2乃至図14を用いて、情報処理装置1Aが実行する処理のうちシーン毎露出適正処理について説明した。次に、情報処理装置1Aが実行する処理のうち、画像認識処理について、図15を参照して説明する。   Heretofore, the exposure appropriate process for each scene among the processes executed by the information processing apparatus 1A has been described with reference to FIGS. Next, image recognition processing among the processing executed by the information processing apparatus 1A will be described with reference to FIG.

図15は、図1の情報処理装置1Aにより実行される画像認識処理を説明するフローチャートである。   FIG. 15 is a flowchart for describing image recognition processing executed by the information processing apparatus 1A of FIG.

ここで、図15の画像認識処理では、画像認識部33は、ISP31から出力されたカラー画像のデータに基づいて、当該カラー画像に含まれる各種オブジェクトを、次の(A)〜(C)の夫々のパターンのうち何に該当するのかを、パターン判定A〜Cの夫々を用いて認識するものとする。
(A)顔
(B)信号機
(C)標識
なお、画像認識処理で認識可能なオブジェクトのパターンは、各種パターン認識を採用することで、上述のパターン(A)〜(C)を含め2以上の任意の種類の任意の組み合わせを採用することができる。
Here, in the image recognition processing of FIG. 15, the image recognition unit 33 converts various objects included in the color image into the following (A) to (C) based on the color image data output from the ISP 31. It is assumed that what corresponds to each pattern is recognized using each of the pattern determinations A to C.
(A) Face (B) Traffic light (C) Marking It should be noted that the object patterns that can be recognized by the image recognition processing are two or more including the above-mentioned patterns (A) to (C) by adopting various pattern recognitions. Any combination of any type can be employed.

電子カメラ11により撮影された原画像のデータが、ISP31に入力され、カラー画像のデータとして画像認識部33に供給されると、画像認識処理が開始され、次のようなステップS81の処理が実行される。   When the original image data photographed by the electronic camera 11 is input to the ISP 31 and supplied to the image recognition unit 33 as color image data, the image recognition process is started, and the following process of step S81 is executed. Is done.

ステップS81において、画像認識部33は、ISP31から出力されたカラー画像のデータに対してパターン判定Aにて「(A)顔」のパターンとマッチングするか否かを判定する。
パターン判定Aにて「(A)顔」のパターンとマッチングしないと判定された場合、ステップS81においてNOであると判定されて、処理はステップS85に進む。なお、ステップS85以降の処理は後述する。
これに対して、パターン判定Aにて「(A)顔」のパターンとマッチングすると判定された場合、処理はステップS82に進む。
ステップS82において、画像認識部33は、ISP31から出力されたカラー画像のデータに基づく輝度情報に対して二値化処理を施すことで、二値化画像のデータを加工画像のデータとして生成する。
ステップS83において、画像認識部33は、ステップS82において生成した二値化画像のデータに対して、色判定Aに必要な条件を有しているか否かを判定する。
色判定Aに必要な条件を有していないと判定された場合、ステップS83においてNOであると判定されて、処理はステップS85に進む。なお、ステップS85以降の処理は後述する。
これに対して、色判定Aに必要な条件を有していると判定された場合、画像認識部33は、ISP31から出力されたカラー画像のデータのうち所定の領域が「(A)顔」のパターンの色を有しているか否かという判定を、色判定Aとして行う。「(A)顔」のパターンの色を有していないと判定された場合、ステップS83においてNOであると判定されて、処理はステップS85に進む。「(A)顔」のパターンの色を有していると判定された場合、処理はステップS84に進む。
ステップS84において、画像認識部33は、ISP31から出力されたカラー画像のデータ(原画像のデータ)には、「(A)顔」のパターンのオブジェクトが含まれていると認識する。
In step S <b> 81, the image recognizing unit 33 determines whether or not the color image data output from the ISP 31 is matched with the “(A) face” pattern in the pattern determination A.
If it is determined in the pattern determination A that it does not match the “(A) face” pattern, it is determined NO in step S81, and the process proceeds to step S85. The processing after step S85 will be described later.
On the other hand, if it is determined in the pattern determination A that the pattern matches with the “(A) face” pattern, the process proceeds to step S82.
In step S <b> 82, the image recognition unit 33 performs binarization processing on the luminance information based on the color image data output from the ISP 31, thereby generating binarized image data as processed image data.
In step S83, the image recognition unit 33 determines whether the binary image data generated in step S82 has a condition necessary for color determination A.
If it is determined that the condition necessary for color determination A is not satisfied, NO is determined in step S83, and the process proceeds to step S85. The processing after step S85 will be described later.
On the other hand, when it is determined that the condition necessary for the color determination A is satisfied, the image recognition unit 33 determines that the predetermined area of the color image data output from the ISP 31 is “(A) face”. It is determined as color determination A whether or not it has the color of the pattern. If it is determined that the color of the “(A) face” pattern is not included, NO is determined in step S83, and the process proceeds to step S85. If it is determined that the pattern has the color “(A) face”, the process proceeds to step S84.
In step S <b> 84, the image recognition unit 33 recognizes that the color image data (original image data) output from the ISP 31 includes an object having the pattern “(A) face”.

上述したように、ステップS81又はステップS83においてNOであると判定された場合、処理はステップS85に進む。
ステップS85において、画像認識部33は、ISP31から出力されたカラー画像のデータに対してパターン判定Bにて「(B)信号機」のパターンとマッチングするか否かを判定する。
パターン判定Bにて「(B)信号機」のパターンとマッチングしないと判定された場合、ステップS85においてNOであると判定されて、処理はステップS89に進む。なお、ステップS89以降の処理は後述する。
これに対して、パターン判定Bにて「(B)信号機」のパターンとマッチングすると判定された場合、処理はステップS86に進む。
ステップS86において、画像認識部33は、ISP31から出力されたカラー画像のデータに基づく輝度情報に対して二値化処理を施すことで、二値化画像のデータを加工画像のデータとして生成する。
ステップS87において、画像認識部33は、ステップS86において生成した二値化画像のデータに対して、色判定Bに必要な条件を有しているか否かを判定する。
色判定Bに必要な条件を有していないと判定された場合、ステップS87においてNOであると判定されて、処理はステップS89に進む。なお、ステップS89以降の処理は後述する。
これに対して、色判定Bに必要な条件を有していると判定された場合、画像認識部33は、ISP31から出力されたカラー画像のデータのうち所定の領域が「(B)信号機」のパターンの色を有しているか否かという判定を、色判定Bとして行う。「(B)信号機」のパターンの色を有していないと判定された場合、ステップS87においてNOであると判定されて、処理はステップS89に進む。「(B)信号機」のパターンの色を有していると判定された場合、処理はステップS88に進む。
ステップS88において、画像認識部33は、ISP31から出力されたカラー画像のデータ(原画像のデータ)には、「(B)信号機」のパターンのオブジェクトが含まれていると認識する。
As described above, if it is determined as NO in step S81 or step S83, the process proceeds to step S85.
In step S <b> 85, the image recognition unit 33 determines whether or not the color image data output from the ISP 31 is matched with the pattern “(B) traffic light” in the pattern determination B.
If it is determined in the pattern determination B that the pattern does not match the “(B) traffic light” pattern, it is determined NO in step S85, and the process proceeds to step S89. The processing after step S89 will be described later.
On the other hand, when it is determined in pattern determination B that the pattern of “(B) traffic light” is matched, the process proceeds to step S86.
In step S86, the image recognition unit 33 performs binarization processing on the luminance information based on the color image data output from the ISP 31, thereby generating binarized image data as processed image data.
In step S87, the image recognition unit 33 determines whether the binary image data generated in step S86 has a condition necessary for the color determination B.
If it is determined that the condition necessary for color determination B is not satisfied, NO is determined in step S87, and the process proceeds to step S89. The processing after step S89 will be described later.
On the other hand, when it is determined that the condition necessary for the color determination B is satisfied, the image recognition unit 33 determines that the predetermined area of the color image data output from the ISP 31 is “(B) traffic light”. It is determined as a color determination B whether or not it has the pattern color. If it is determined that the color of the “(B) traffic light” pattern is not included, NO is determined in step S87, and the process proceeds to step S89. If it is determined that the pattern has the color “(B) traffic light”, the process proceeds to step S88.
In step S <b> 88, the image recognition unit 33 recognizes that the color image data (original image data) output from the ISP 31 includes an object having a pattern of “(B) traffic light”.

上述したように、ステップS85又はステップS87においてNOであると判定された場合、処理はステップS89に進む。
ステップS89において、画像認識部33は、ISP31から出力されたカラー画像のデータに対してパターン判定Cにて「(C)標識」のパターンとマッチングするか否かを判定する。
パターン判定Cにて「(C)標識」のパターンとマッチングしないと判定された場合、ステップS89においてNOであると判定されて、処理はステップS102に進む。なお、ステップS102以降の処理は後述する。
これに対して、パターン判定Cにて「(C)標識」のパターンとマッチングすると判定された場合、処理はステップS99に進む。
ステップS99において、画像認識部33は、ISP31から出力されたカラー画像のデータに基づく輝度情報に対して二値化処理を施すことで、二値化画像のデータを加工画像のデータとして生成する。
ステップS100において、画像認識部33は、ステップS99において生成した二値化画像のデータに対して、色判定Cに必要な条件を有しているか否かを判定する。
色判定Cに必要な条件を有していないと判定された場合、ステップS100においてNOであると判定されて、処理はステップS102に進む。なお、ステップS102以降の処理は後述する。
これに対して、色判定Cに必要な条件を有していると判定された場合、画像認識部33は、ISP31から出力されたカラー画像のデータのうち所定の領域が「(C)標識」のパターンの色を有しているか否かという判定を、色判定Cとして行う。「(C)標識」のパターンの色を有していないと判定された場合、ステップS100においてNOであると判定されて、処理はステップS102に進む。「(C)標識」のパターンの色を有していると判定された場合、処理はステップS101に進む。
ステップS101において、画像認識部33は、ISP31から出力されたカラー画像のデータ(原画像のデータ)には、「(C)標識」のパターンのオブジェクトが含まれていると認識する。
As described above, if it is determined as NO in step S85 or step S87, the process proceeds to step S89.
In step S89, the image recognizing unit 33 determines whether or not the color image data output from the ISP 31 is matched with the pattern “(C) sign” in the pattern determination C.
If it is determined in the pattern determination C that the pattern does not match the “(C) sign” pattern, NO is determined in step S89, and the process proceeds to step S102. The processing after step S102 will be described later.
On the other hand, if it is determined in the pattern determination C that the pattern matches with the “(C) sign” pattern, the process proceeds to step S99.
In step S99, the image recognition unit 33 generates binarized image data as processed image data by performing binarization processing on luminance information based on the color image data output from the ISP 31.
In step S100, the image recognition unit 33 determines whether the binary image data generated in step S99 has a condition necessary for color determination C.
If it is determined that the condition necessary for the color determination C is not satisfied, NO is determined in step S100, and the process proceeds to step S102. The processing after step S102 will be described later.
On the other hand, when it is determined that the condition necessary for the color determination C is satisfied, the image recognition unit 33 determines that a predetermined area of the color image data output from the ISP 31 is “(C) indicator”. It is determined as a color determination C whether or not it has the pattern color. When it is determined that the color of the “(C) sign” pattern is not included, it is determined NO in step S100, and the process proceeds to step S102. If it is determined that the pattern has the color “(C) sign”, the process proceeds to step S101.
In step S <b> 101, the image recognition unit 33 recognizes that the color image data (original image data) output from the ISP 31 includes an object having a pattern of “(C) sign”.

上述したように、ステップS89又はステップS100においてNOであると判定された場合、処理はステップS102に進む。
ステップS102において、画像認識部33は、ISP31から出力されたカラー画像のデータ(原画像のデータ)には、その他のパターンのオブジェクトが含まれていると認識する。これにより、画像認識処理は終了する。
従って、色情報からの画像解析と、二値化処理による輪郭抽出が可能なため、認識判定へ応用することができる。その結果、顔認識や道路の信号機、標識等を画像認識することができる。
As described above, when it is determined as NO in step S89 or step S100, the process proceeds to step S102.
In step S102, the image recognition unit 33 recognizes that the color image data (original image data) output from the ISP 31 includes objects of other patterns. As a result, the image recognition process ends.
Therefore, since image analysis from color information and contour extraction by binarization processing are possible, it can be applied to recognition determination. As a result, face recognition, road traffic lights, signs and the like can be recognized as images.

ここで、図16乃至図21を用いて、画像認識処理により認識されるカラー画像の幾つかの具体例について説明する。   Here, some specific examples of the color image recognized by the image recognition process will be described with reference to FIGS.

図16は、図15の画像認識処理の認識対象のカラー画像Ci1の具体例を示している。
図16の例のカラー画像Ci1のデータは、図1のISP31から出力されると、画像認識部33により取得される。
カラー画像Ci1は、パターン判定Aにて「(A)顔」のパターンとマッチングすると判定される(図15のステップS81YES)。
これにより、図15のステップS82において図17に示される二値化画像Ct1のデータが生成される。
図17は、図15の画像認識処理のステップS82において、図16の例のカラー画像Ci1に基づく輝度情報から生成された二値化画像Ct1を示す図である。
図17の例の二値化画像Ct1のデータに対して、色判定Aに必要な条件を有していると判定され、色判定Aが行われる(ステップS83YES)。色判定Aに必要な条件とは、二値化画像Ct1の中に領域Fのような領域が存在することである。色判定Aとは、二値化画像Ct1のうち領域Fが「(A)顔」のパターンの色を有しているか否かを判定するものをいう。
そして、図16の例のカラー画像Ci1には「(A)顔」が含まれていると認識される(ステップS84)。
FIG. 16 shows a specific example of the color image Ci1 to be recognized in the image recognition process of FIG.
The data of the color image Ci1 in the example of FIG. 16 is acquired by the image recognition unit 33 when output from the ISP 31 of FIG.
The color image Ci1 is determined to match the “(A) face” pattern in the pattern determination A (YES in step S81 in FIG. 15).
Thereby, the data of the binarized image Ct1 shown in FIG. 17 is generated in step S82 of FIG.
FIG. 17 is a diagram showing the binarized image Ct1 generated from the luminance information based on the color image Ci1 in the example of FIG. 16 in step S82 of the image recognition process of FIG.
With respect to the data of the binarized image Ct1 in the example of FIG. 17, it is determined that the condition necessary for the color determination A is satisfied, and the color determination A is performed (YES in step S83). The condition necessary for the color determination A is that an area such as the area F exists in the binarized image Ct1. The color determination A refers to determination of whether or not the region F has a “(A) face” pattern color in the binarized image Ct1.
Then, it is recognized that “(A) face” is included in the color image Ci1 in the example of FIG. 16 (step S84).

図18は、図15の画像認識処理の認識対象のカラー画像Ci2の具体例を示している。
図18の例のカラー画像Ci2のデータは、図1のISP31から出力されると、画像認識部33により取得される。
カラー画像Ci2は、パターン判定Bにて「(B)信号機」のパターンとマッチングすると判定される(図15のステップS85YES)。
これにより、図15のステップS86において図19に示される二値化画像Ct2のデータが生成される。
図19は、図15の画像認識処理のステップS86において、図18の例のカラー画像Ci2に基づく輝度情報から生成された二値化画像Ct2を示す図である。
図19の例の二値化画像Ct2のデータに対して、色判定Bに必要な条件を有していると判定され、色判定Bが行われる(ステップS87YES)。色判定Bに必要な条件とは、二値化画像Ct2の中に領域Sのような領域が存在することである。色判定Bとは、二値化画像Ct2のうち領域Sが「(B)信号機」のパターンの色を有しているか否かを判定するものをいう。
そして、図18の例のカラー画像Ci2には「(B)信号機」が含まれていると認識される(ステップS88)。
FIG. 18 shows a specific example of the color image Ci2 to be recognized in the image recognition process of FIG.
The data of the color image Ci2 in the example of FIG. 18 is acquired by the image recognition unit 33 when output from the ISP 31 of FIG.
The color image Ci2 is determined to be matched with the pattern “(B) traffic light” in the pattern determination B (YES in step S85 in FIG. 15).
Thereby, the data of the binarized image Ct2 shown in FIG. 19 is generated in step S86 of FIG.
FIG. 19 is a diagram showing the binarized image Ct2 generated from the luminance information based on the color image Ci2 of the example of FIG. 18 in step S86 of the image recognition process of FIG.
For the data of the binarized image Ct2 in the example of FIG. 19, it is determined that the condition necessary for the color determination B is satisfied, and the color determination B is performed (YES in step S87). The condition necessary for the color determination B is that an area such as the area S exists in the binarized image Ct2. The color determination B refers to determination of whether or not the region S in the binarized image Ct2 has the color of the “(B) traffic light” pattern.
Then, it is recognized that “(B) traffic light” is included in the color image Ci2 in the example of FIG. 18 (step S88).

図20は、図15の画像認識処理の認識対象のカラー画像Ci3の具体例を示している。
図20の例のカラー画像Ci3のデータは、図1のISP31から出力されると、画像認識部33により取得される。
カラー画像Ci3は、パターン判定Cにて「(C)標識」のパターンとマッチングすると判定される(図15のステップS89YES)。
これにより、図15のステップS99において図21に示される二値化画像Ct3のデータが生成される。
図21は、図15の画像認識処理のステップS99において、図20の例のカラー画像Ci3に基づく輝度情報から生成された二値化画像Ct3を示す図である。
図21の例の二値化画像Ct3のデータに対して、色判定Cに必要な条件を有していると判定され、色判定Cが行われる(ステップS100YES)。色判定Cに必要な条件とは、二値化画像Ct3の中に領域H1と領域H2の夫々のような領域が存在することである。色判定Cとは、二値化画像Ct3のうち領域H1と領域H2の夫々が「(C)標識」のパターンの色を有しているか否かを判定するものをいう。
そして、図20の例のカラー画像Ci3には「(C)標識」が含まれていると認識される(ステップS101)。
FIG. 20 shows a specific example of the color image Ci3 to be recognized in the image recognition process of FIG.
When the color image Ci3 in the example of FIG. 20 is output from the ISP 31 of FIG.
The color image Ci3 is determined to match with the pattern “(C) sign” in the pattern determination C (YES in step S89 in FIG. 15).
Thereby, the data of the binarized image Ct3 shown in FIG. 21 is generated in step S99 of FIG.
FIG. 21 is a diagram showing the binarized image Ct3 generated from the luminance information based on the color image Ci3 of the example of FIG. 20 in step S99 of the image recognition process of FIG.
For the data of the binarized image Ct3 in the example of FIG. 21, it is determined that the condition necessary for the color determination C is satisfied, and the color determination C is performed (YES in step S100). The condition necessary for the color determination C is that a region such as the region H1 and the region H2 exists in the binarized image Ct3. The color determination C refers to determining whether or not each of the region H1 and the region H2 of the binarized image Ct3 has the color of the “(C) label” pattern.
Then, it is recognized that “(C) sign” is included in the color image Ci3 in the example of FIG. 20 (step S101).

以上本発明の情報処理装置の一実施形態について説明したが、本発明は上述した本実施形態に限るものではない。また、本実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙に過ぎず、本発明による効果は、本実施形態に記載されたものに限定されるものではない。   Although one embodiment of the information processing apparatus of the present invention has been described above, the present invention is not limited to the above-described embodiment. In addition, the effects described in the present embodiment are merely a list of the most preferable effects resulting from the present invention, and the effects according to the present invention are not limited to those described in the present embodiment.

例えば、上述の本実施形態では、撮影シーンの判別結果の用途として露出補正を用いているが、これに特に制限されない。例えばホワイトバランス(AWB:Auto White Balance)の処理、ノイズリダクション、自動車等の運転の補助に用いられてもよい。   For example, in the above-described embodiment, exposure correction is used as an application of the determination result of the photographic scene, but is not particularly limited thereto. For example, it may be used for assisting white balance (AWB: Auto White Balance) processing, noise reduction, driving of an automobile or the like.

また、図1に示すハードウェア構成は、本発明の目的を達成するための例示に過ぎず、特に限定されない。   The hardware configuration shown in FIG. 1 is merely an example for achieving the object of the present invention, and is not particularly limited.

また、図1に示すブロック図は、例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が情報処理装置1Aに備えられていれば足り、この機能を実現するためにどのようなブロックを用いるのかは、特に図1の例に限定されない。
さらに、ブロックの存在場所も、図1に限定されず、任意でよい。
そして、1つのブロックは、ハードウェア単体で構成してもよいし、ソフトウェアとの組み合わせで構成してもよい。
Further, the block diagram shown in FIG. 1 is merely an example, and is not particularly limited. That is, it is sufficient that the information processing apparatus 1A has a function capable of executing the above-described series of processes as a whole, and what block is used to realize this function is not particularly limited to the example of FIG. .
Furthermore, the location of the block is not limited to that shown in FIG.
One block may be constituted by hardware alone or in combination with software.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.
Further, in the present specification, the term “system” means an overall apparatus configured by a plurality of devices, a plurality of means, and the like.

以上まとめると、本発明が適用される情報処理装置1Aは、次のような構成を取れば足り、各種各様な実施形態を取ることができる。
即ち、本発明が適用される情報処理装置(例えば図1の情報処理装置1A)は、
所定の撮像デバイスにより撮影された結果得られる原画像のデータから1以上の加工画像のデータを生成する加工画像生成手段(例えば図1の加工画像生成部41)と、
前記1以上の加工画像のデータから、前記原画像の撮影シーンを判別するための1以上の条件を特定する判別条件特定手段(例えば図1の判別条件特定部42)と、
特定された前記1以上の条件に基づいて、前記原画像の前記撮影シーンを判別するシーン判別手段(例えば図1のシーン判別部43)と、
を備える、情報処理装置であれば足りる。
これにより、電子カメラで撮影された画像のデータを用いて、精度よく適切に撮影シーンを判定することができる。その結果、適切な露出補正を実現することができる。
In summary, the information processing apparatus 1A to which the present invention is applied only needs to have the following configuration, and can take various embodiments.
That is, the information processing apparatus to which the present invention is applied (for example, the information processing apparatus 1A in FIG. 1)
Processed image generation means (for example, the processed image generation unit 41 in FIG. 1) that generates one or more processed image data from original image data obtained as a result of being imaged by a predetermined imaging device;
A determination condition specifying means (for example, a determination condition specifying unit 42 in FIG. 1) for specifying one or more conditions for determining a shooting scene of the original image from the data of the one or more processed images;
Scene discriminating means (eg, the scene discriminating unit 43 in FIG. 1) for discriminating the shooting scene of the original image based on the one or more specified conditions;
An information processing apparatus provided with
As a result, it is possible to determine the shooting scene accurately and appropriately using the data of the image shot by the electronic camera. As a result, appropriate exposure correction can be realized.

また、情報処理装置は、
前記加工画像生成手段が前記原画像のデータのうち輝度情報に対して、前記原画像を動的に明るい領域と暗い領域に分割する二値化処理を施すことで、二値化画像のデータを前記加工画像のデータとして生成するようにしてもよい。
これにより、二値化画像のデータから得られる明るい領域と暗い領域の分割状態に基づいて各閾値によって撮影シーンを判定することができる。その結果、精度よく適切に撮影シーンを判定することができる。
In addition, the information processing device
The processed image generation means performs binarization processing on the luminance information in the original image data to dynamically divide the original image into a bright area and a dark area, thereby converting the binarized image data. You may make it produce | generate as the data of the said processed image.
As a result, the photographic scene can be determined by each threshold based on the division state of the bright area and the dark area obtained from the binarized image data. As a result, it is possible to determine the shooting scene accurately and appropriately.

また、情報処理装置は、
前記加工画像生成手段が前記原画像の明暗が大きくなる点を検出し、検出した前記点をエッジとして認識することで、エッジ画像のデータを前記加工画像のデータとして生成するようにしてもよい。
これにより、エッジ画像のデータから得られる特定領域におけるエッジ量による当該特定領域の複雑度に基づいて撮影シーンを判定することができる。その結果、精度よく適切に撮影シーンを判定することができる。
In addition, the information processing device
The processed image generation means may detect a point where the brightness of the original image becomes large, and recognize the detected point as an edge, thereby generating edge image data as the processed image data.
Thereby, a photographic scene can be determined based on the complexity of the specific area based on the edge amount in the specific area obtained from the data of the edge image. As a result, it is possible to determine the shooting scene accurately and appropriately.

また、情報処理装置は、
前記原画像のデータのうち色情報に対する画像解析及び輝度情報に対する二値化処理を実行し、その実行結果に基づいて前記原画像に含まれる1以上のオブジェクトを認識する
画像認識手段(例えば、図1の画像認識部33)をさらに備えるようにしてもよい。
これにより、色情報からの画像解析と、二値化処理による輪郭抽出が可能となる。その結果、認識判定へ応用することができ、顔認識や道路の信号機、標識等を画像認識することができる。
In addition, the information processing device
Image recognition means (for example, FIG. 5) that executes image analysis for color information and binarization processing for luminance information in the original image data, and recognizes one or more objects included in the original image based on the execution result. 1 image recognition unit 33) may be further provided.
Thereby, image analysis from color information and contour extraction by binarization processing are possible. As a result, it can be applied to recognition determination, and face recognition, road traffic lights, signs and the like can be recognized as images.

1A・・・ 情報処理装置
11・・・ 電子カメラ
12・・・ SoC
21・・・ レンズ
22・・・ 撮像素子
31・・・ ISP
32・・・ AE制御部
33・・・ 画像認識部
41・・・ 加工画像生成部
42・・・ 判別条件特定部
43・・・ シーン判別部
44・・・ 露出設定部
1A ... Information processing device 11 ... Electronic camera 12 ... SoC
21 ... Lens 22 ... Imaging element 31 ... ISP
32 ... AE control unit 33 ... Image recognition unit 41 ... Processed image generation unit 42 ... Discrimination condition specifying unit 43 ... Scene discrimination unit 44 ... Exposure setting unit

Claims (6)

所定の撮像デバイスにより撮影された結果得られる原画像のデータから1以上の加工画像のデータを生成する加工画像生成手段と、
前記1以上の加工画像のデータから、前記原画像の撮影シーンを判別するための1以上の条件を特定する判別条件特定手段と、
特定された前記1以上の条件に基づいて、前記原画像の前記撮影シーンを判別するシーン判別手段と、
を備える情報処理装置。
Processed image generation means for generating one or more processed image data from original image data obtained as a result of being imaged by a predetermined imaging device;
Discrimination condition specifying means for specifying one or more conditions for discriminating a shooting scene of the original image from the data of the one or more processed images;
Scene discriminating means for discriminating the shooting scene of the original image based on the specified one or more conditions;
An information processing apparatus comprising:
前記加工画像生成手段は、前記原画像のデータのうち輝度情報に対して、前記原画像を動的に明るい領域と暗い領域に分割する二値化処理を施すことで、二値化画像のデータを前記加工画像のデータとして生成する、
請求項1に記載の情報処理装置。
The processed image generation means performs binarization processing that dynamically divides the original image into bright regions and dark regions with respect to luminance information in the original image data, thereby generating binarized image data. Is generated as data of the processed image,
The information processing apparatus according to claim 1.
前記加工画像生成手段は、前記原画像の明暗が大きくなる点を検出し、検出した前記点をエッジとして認識することで、エッジ画像のデータを前記加工画像のデータとして生成する、
請求項1又は2に記載の情報処理装置。
The processed image generation means detects a point where the brightness of the original image increases, and recognizes the detected point as an edge, thereby generating edge image data as the processed image data.
The information processing apparatus according to claim 1 or 2.
前記原画像のデータのうち色情報に対する画像解析及び輝度情報に対する二値化処理を実行し、その実行結果に基づいて前記原画像に含まれる1以上のオブジェクトを認識する画像認識手段
をさらに備える請求項1乃至3のうち何れか1項に記載の情報処理装置。
An image recognition unit that executes image analysis for color information and binarization processing for luminance information in the original image data, and recognizes one or more objects included in the original image based on the execution result. Item 4. The information processing apparatus according to any one of Items 1 to 3.
情報処理が実行する情報処理方法において、
所定の撮像デバイスにより撮影された結果得られる原画像のデータから1以上の加工画像のデータを生成する加工画像生成ステップと、
前記1以上の加工画像のデータから、前記原画像の撮影シーンを判別するための1以上の条件を特定する判別条件特定ステップと、
特定された前記1以上の条件に基づいて、前記原画像の前記撮影シーンを判別するシーン判別ステップと、
を含む情報処理方法。
In an information processing method executed by information processing,
A processed image generation step for generating one or more processed image data from original image data obtained as a result of being imaged by a predetermined imaging device;
A determination condition specifying step for specifying one or more conditions for determining a shooting scene of the original image from the data of the one or more processed images;
A scene determination step of determining the shooting scene of the original image based on the specified one or more conditions;
An information processing method including:
コンピュータに、
所定の撮像デバイスにより撮影された結果得られる原画像のデータから1以上の加工画像のデータを生成する加工画像生成ステップと、
前記1以上の加工画像のデータから、前記原画像の撮影シーンを判別するための1以上の条件を特定する判別条件特定ステップと、
特定された前記1以上の条件に基づいて、前記原画像の前記撮影シーンを判別するシーン判別ステップと、
を含む制御処理を実行させるプログラム。
On the computer,
A processed image generation step for generating one or more processed image data from original image data obtained as a result of being imaged by a predetermined imaging device;
A determination condition specifying step for specifying one or more conditions for determining a shooting scene of the original image from the data of the one or more processed images;
A scene determination step of determining the shooting scene of the original image based on the specified one or more conditions;
A program that executes control processing including
JP2016203093A 2016-10-14 2016-10-14 Information processing device, information processing method, and program Pending JP2018064250A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016203093A JP2018064250A (en) 2016-10-14 2016-10-14 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016203093A JP2018064250A (en) 2016-10-14 2016-10-14 Information processing device, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2018064250A true JP2018064250A (en) 2018-04-19

Family

ID=61966968

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016203093A Pending JP2018064250A (en) 2016-10-14 2016-10-14 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2018064250A (en)

Similar Documents

Publication Publication Date Title
EP3198852B1 (en) Image processing apparatus and control method thereof
US20190236404A1 (en) Image processing apparatus image processing method and storage medium for lighting processing on image using model data
US8854489B2 (en) Image processing method and image processing apparatus
JP7262021B2 (en) Depth Acquisition Device, Depth Acquisition Method and Program
JP6800628B2 (en) Tracking device, tracking method, and program
US9576372B2 (en) Object detecting apparatus, object detecting method, and program
US9002061B2 (en) Image processing device, image processing method and computer-readable medium
EP3113112A1 (en) Apparatus for and method of processing image based on object region
US10015374B2 (en) Image capturing apparatus and photo composition method thereof
JP5246078B2 (en) Object location program and camera
US10121067B2 (en) Image processing apparatus that determines processing target area of an image based on degree of saliency, image processing method, and storage medium
US9020269B2 (en) Image processing device, image processing method, and recording medium
JP5619124B2 (en) Image processing apparatus, imaging apparatus, image processing program, and image processing method
CN111126108A (en) Training method and device of image detection model and image detection method and device
CN111598065A (en) Depth image acquisition method, living body identification method, apparatus, circuit, and medium
JP2017229061A (en) Image processing apparatus, control method for the same, and imaging apparatus
AU2020323956B2 (en) Image processing method and apparatus, electronic device, and storage medium
CN112507767B (en) Face recognition method and related computer system
JP6922399B2 (en) Image processing device, image processing method and image processing program
US10929960B2 (en) Method and image processing device for detecting a portion of an image
JP2011034311A (en) Image processor and method
US20150262382A1 (en) Image processing apparatus and image processing method
JP2018064250A (en) Information processing device, information processing method, and program
US10192311B2 (en) Methods and apparatus for codeword boundary detection for generating depth maps
US10565712B2 (en) Image processing apparatus and method for controlling the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200616

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201222