JP2013062711A - Photographing device, photographed image processing method, and program - Google Patents

Photographing device, photographed image processing method, and program Download PDF

Info

Publication number
JP2013062711A
JP2013062711A JP2011200350A JP2011200350A JP2013062711A JP 2013062711 A JP2013062711 A JP 2013062711A JP 2011200350 A JP2011200350 A JP 2011200350A JP 2011200350 A JP2011200350 A JP 2011200350A JP 2013062711 A JP2013062711 A JP 2013062711A
Authority
JP
Japan
Prior art keywords
scene
image
odor
data
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011200350A
Other languages
Japanese (ja)
Inventor
Masaki Kuroiwa
正樹 黒岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2011200350A priority Critical patent/JP2013062711A/en
Publication of JP2013062711A publication Critical patent/JP2013062711A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a photographing device enabling finer specification of a scene to be photographed.SOLUTION: A photographing device comprises: image detection means that detects a scene on the basis of image data; odor detection means that detects a scene on the basis of odor data; and scene detection means that detects a scene on the basis of the scene detected by the image detection means and the scene detected by the odor detection means.

Description

本発明は、撮影装置、撮影画像処理方法、およびコンピュータに実行させるためのプログラムに関する。   The present invention relates to a photographing apparatus, a photographed image processing method, and a program to be executed by a computer.

近年、デジタルスチルカメラおよびデジタルビデオカメラ等の撮影装置には、画像処理情報から撮影シーンを判定し、判定した撮影シーンに最適な露出値を算出する機能を有しているものがある(特許文献1参照)。特許文献1に開示されたカメラは、主被写体が画面上に占める主被写体領域と背景が画面上に占める背景領域との占有比率にしたがって、判別対象の撮影シーンが接写シーン、ポートレートシーンおよび風景シーンのうち、いずれの撮影シーンに該当するかを判別している。   2. Description of the Related Art In recent years, some photographing apparatuses such as digital still cameras and digital video cameras have a function of determining a photographing scene from image processing information and calculating an optimum exposure value for the determined photographing scene (Patent Document). 1). In the camera disclosed in Patent Document 1, the shooting scene to be determined is a close-up scene, a portrait scene, and a landscape according to the occupation ratio of the main subject area occupied by the main subject on the screen and the background area occupied by the background on the screen. It is determined which of the scenes corresponds to the shooting scene.

なお、撮影した画像データと共に、検知した匂いに関する情報を記録可能にしたカメラが特許文献2に開示されている。また、匂いを検知する匂いセンサの一例が非特許文献1に開示されている。   Japanese Patent Application Laid-Open No. H10-228867 discloses a camera that can record information about sensed odor along with photographed image data. An example of an odor sensor that detects an odor is disclosed in Non-Patent Document 1.

特開2000−75351号公報JP 2000-75351 A 特開2010−87940号公報JP 2010-87940 A

瀬山倫子,外1名,「プラズマ有機薄膜を用いたニオイセンサ」,NTT技術ジャーナル,日本電信電話株式会社,2003年12月1日,2003 vol.15 No.12,p.47−50Tomoko Seyama, 1 other, “odor sensor using plasma organic thin film”, NTT Technical Journal, Nippon Telegraph and Telephone Corporation, December 1, 2003, 2003 vol. 15 No. 12, p. 47-50

特許文献1に開示されたカメラでは、撮影シーンの判別が正しく行われたとしても、撮影シーンが大まかにしか分類されていないため、より細かく撮影条件を設定することができないという問題があった。   The camera disclosed in Patent Document 1 has a problem that even if the shooting scene is correctly determined, the shooting scenes are only roughly classified, so that shooting conditions cannot be set more finely.

本発明は上述したような技術が有する問題点を解決するためになされたものであり、撮影対象のシーンをより細かく特定することを可能にした撮影装置、撮影画像処理方法、およびコンピュータに実行させるためのプログラムを提供することを目的とする。   The present invention has been made in order to solve the above-described problems of the technology, and causes a photographing apparatus, a photographed image processing method, and a computer that can more specifically specify a scene to be photographed. It aims at providing the program for.

上記目的を達成するための本発明の撮影装置は、
画像データに基づいてシーンを検出する画像検出手段と、
匂いデータに基づいてシーンを検出する匂い検出手段と、
前記画像検出手段で検出されたシーンと前記匂い検出手段で検出されたシーンとに基づいてシーンを特定するシーン検出手段と、
を有する構成である。
In order to achieve the above object, a photographing apparatus of the present invention provides:
Image detection means for detecting a scene based on image data;
Odor detection means for detecting a scene based on odor data;
Scene detection means for specifying a scene based on the scene detected by the image detection means and the scene detected by the odor detection means;
It is the structure which has.

また、本発明の撮影画像処理方法は、
画像データに基づいてシーンを検出し、
匂いデータに基づいてシーンを検出し、
前記画像データで検出されたシーンと前記匂いデータで検出されたシーンとに基づいてシーンを特定するものである。
The captured image processing method of the present invention includes:
Detect scenes based on image data,
Detect scenes based on odor data,
The scene is specified based on the scene detected from the image data and the scene detected from the odor data.

さらに、本発明のプログラムは、コンピュータに実行させるためのプログラムであって、
画像データに基づいてシーンを検出し、
匂いデータに基づいてシーンを検出し、
前記画像データで検出されたシーンと前記匂いデータで検出されたシーンとに基づいてシーンを特定する処理を前記コンピュータに実行させるものである。
Furthermore, the program of the present invention is a program for causing a computer to execute,
Detect scenes based on image data,
Detect scenes based on odor data,
The computer is caused to execute processing for specifying a scene based on a scene detected from the image data and a scene detected from the odor data.

本発明によれば、シーンがより細かく特定されるので、シーンに特化した効果を画像に対してかけることができる。   According to the present invention, since the scene is specified in more detail, an effect specialized for the scene can be applied to the image.

本発明の一実施形態の撮影装置の一構成例を示すブロック図である。It is a block diagram which shows one structural example of the imaging device of one Embodiment of this invention. 図1に示した撮影装置の動作を説明するためのフローチャートである。3 is a flowchart for explaining the operation of the photographing apparatus shown in FIG. 1. 本実施形態のデジタルカメラの一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the digital camera of this embodiment. 本実施形態のデジタルカメラの動作の一例を示すシーケンス図である。It is a sequence diagram which shows an example of operation | movement of the digital camera of this embodiment. 画像データに基づくシーン検出条件の例を示す表である。It is a table | surface which shows the example of the scene detection conditions based on image data. 画像信号処理部が実行するシーン検出動作の手順を示すフローチャートである。It is a flowchart which shows the procedure of the scene detection operation | movement which an image signal process part performs. 匂いデータに基づくシーン検出の例を示す図である。It is a figure which shows the example of the scene detection based on odor data. シーン判定画像データとシーン判定匂いデータを組み合わせることで特定されるシーンの例を示す表である。It is a table | surface which shows the example of the scene specified by combining scene determination image data and scene determination odor data. 特定されたシーンに対応する、画像処理の設定情報の例を示す表である。It is a table | surface which shows the example of the setting information of image processing corresponding to the specified scene.

本発明の一実施形態の撮影装置の構成を説明する。図1は本発明の一実施形態の撮影装置の一構成例を示すブロック図である。   A configuration of a photographing apparatus according to an embodiment of the present invention will be described. FIG. 1 is a block diagram showing an example of the configuration of a photographing apparatus according to an embodiment of the present invention.

図1に示すように、撮影装置11は、画像データに基づいてシーンを検出する画像検出手段12と、検出される匂いに関する情報である匂いデータに基づいてシーンを検出する匂い検出手段13と、画像検出手段12で検出されたシーンと匂い検出手段13で検出されたシーンとに基づいてシーンを特定するシーン検出手段14と、を有する。   As shown in FIG. 1, the photographing apparatus 11 includes an image detection unit 12 that detects a scene based on image data, an odor detection unit 13 that detects a scene based on odor data that is information related to the detected odor, A scene detection unit for specifying a scene based on the scene detected by the image detection unit and the scene detected by the odor detection unit;

図1に示した撮影装置11が実行する撮影画像処理方法を説明する。図2は図1に示した撮影装置の動作を説明するためのフローチャートである。   A captured image processing method executed by the imaging apparatus 11 shown in FIG. 1 will be described. FIG. 2 is a flowchart for explaining the operation of the photographing apparatus shown in FIG.

図2に示すように、画像検出手段12が画像データに基づいてシーンを検出し(ステップ101)、匂い検出手段13が匂いデータに基づいてシーンを検出する(ステップ102)。さらに、シーン検出手段14が画像データで検出されたシーンと匂いデータで検出されたシーンとに基づいてシーンを特定する(ステップ103)。   As shown in FIG. 2, the image detection means 12 detects a scene based on the image data (step 101), and the odor detection means 13 detects a scene based on the odor data (step 102). Further, the scene detection unit 14 specifies a scene based on the scene detected from the image data and the scene detected from the odor data (step 103).

なお、本発明の撮影装置を、スマートフォンを含むカメラ付き携帯電話のカメラに適用することも可能である。また、本発明の撮影装置の機能を、例えば、ゲーム機、タブレットPC(Personal Computer)、ノートPC、DVD(Digital Versatile Disk)レコーダおよびブルーレイディスク(登録商標)レコーダなどの情報処理装置に設けてもよい。以下では、本発明の撮影装置の機能を備えたデジタルカメラの場合についての実施形態を説明する。   Note that the photographing apparatus of the present invention can also be applied to a camera of a camera-equipped mobile phone including a smartphone. Further, the function of the photographing apparatus of the present invention may be provided in an information processing apparatus such as a game machine, a tablet PC (Personal Computer), a notebook PC, a DVD (Digital Versatile Disk) recorder, and a Blu-ray Disc (registered trademark) recorder. Good. In the following, an embodiment in the case of a digital camera having the function of the photographing apparatus of the present invention will be described.

本実施形態のデジタルカメラの構成を説明する。図3は本実施形態のデジタルカメラの一構成例を示すブロック図である。   The configuration of the digital camera of this embodiment will be described. FIG. 3 is a block diagram illustrating a configuration example of the digital camera of the present embodiment.

図3に示すように、本実施形態のデジタルカメラは、レンズ1および撮像素子2を含むモジュール21と、撮像素子2から受信する信号を処理する画像信号処理部3と、撮像素子2で取り込まれた画像を表示する表示デバイス5と、画像データを保存する記憶部6と、録音用のマイク7と、匂いを検出する匂いセンサ8と、各部を構成するMPU(Micro Processing Unit)4とを有する。   As shown in FIG. 3, the digital camera of the present embodiment is captured by the module 21 including the lens 1 and the image sensor 2, the image signal processing unit 3 that processes a signal received from the image sensor 2, and the image sensor 2. A display device 5 for displaying the image, a storage unit 6 for storing the image data, a recording microphone 7, an odor sensor 8 for detecting the odor, and an MPU (Micro Processing Unit) 4 constituting each unit. .

太陽光などの光が被写体で反射した光がレンズ1を介して撮像素子2の受光部(不図示)に入力される。モジュール21には、位置制御に関する制御信号を画像信号処理部3から受信すると、レンズ1を光軸方向に移動させる駆動機構(不図示)が設けられ、駆動機構は撮像素子2の受光部で被写体の像のピントが合うようにレンズ1の位置を調節する。撮像素子2は、レンズ1を介して受光部に入力される光を電気信号に変換して画像信号処理部3に送信する。表示デバイス5は、例えば、液晶ディスプレイである。記憶部6は、例えば、不揮発性メモリおよびハードディスクドライブなどの記憶装置である。   Light reflected by the subject such as sunlight is input to the light receiving unit (not shown) of the image sensor 2 through the lens 1. The module 21 is provided with a drive mechanism (not shown) that moves the lens 1 in the optical axis direction when a control signal related to position control is received from the image signal processing unit 3. The position of the lens 1 is adjusted so that the image is in focus. The imaging element 2 converts light input to the light receiving unit via the lens 1 into an electrical signal and transmits the electrical signal to the image signal processing unit 3. The display device 5 is, for example, a liquid crystal display. The storage unit 6 is a storage device such as a nonvolatile memory and a hard disk drive.

匂いセンサ8は、匂い物質を捕捉すると電気信号を発生するセンサがアレイ化して複数設けられている。この複数のセンサのそれぞれは、発生する電気信号の大きさが匂い物質の種類で異なるため、検出対象の匂いに応じて、複数のセンサから出力される電気信号のパターンが異なる。匂いセンサ8は、匂いを検出したときに複数のセンサから出力される電気信号のパターンを、匂いデータとしてMPU4に送信する。なお、本実施形態の匂いセンサ8に、特許文献2に開示された匂いセンサを用いてもよく、この場合、特許文献2の図2の表に示される検出値のパターンが匂いデータに相当する。   The odor sensor 8 includes a plurality of sensors that generate an electrical signal when an odor substance is captured. Each of the plurality of sensors has different electric signal patterns output from the plurality of sensors depending on the odor to be detected because the magnitude of the generated electric signal differs depending on the type of odor substance. The odor sensor 8 transmits, to the MPU 4 as odor data, patterns of electric signals output from a plurality of sensors when the odor is detected. Note that the odor sensor disclosed in Patent Document 2 may be used as the odor sensor 8 of the present embodiment. In this case, the detection value pattern shown in the table of FIG. 2 of Patent Document 2 corresponds to the odor data. .

画像信号処理部3は、静止画/動画のライブビューモードの動作開始の指示を含む制御信号をMPU4から受信すると、撮像素子2およびレンズ1を起動する。画像信号処理部3は、撮像素子2からBayer画像データを受信すると、Bayer画像データを用いてAE(Auto Exposure:自動露出)/AF(Auto Focus)の検波を行い、ピントが合うようにレンズ1の位置制御を行い、適切な光量になるように撮像素子2の露光制御を行う。また、画像信号処理部3は、静止画のライブビュー、動画のライブビュー/録画のいずれのモードでも、Bayer画像データに対して、WB(ホワイトバランス)、ガンマ補正、エッジ強調、ノイズリダクションおよび色処理等の処理を行った後、最終的に映像データであるYUV画像データに変換してMPU4に送信する。YUVは、画像の色情報を表す形式の一種であり、輝度信号(Y)と、輝度信号と青色成分の差(U)、および輝度信号と赤色成分の差(V)の3つの情報を意味する。画像信号処理部3は、MPU4から静止画のライブビューのモードで静止画キャプチャの指示を受け取ると、表示デバイス5で表示される1画像分のYUV画像データを最終的にJPEG(Joint Photograph Experts Group)データに変換してMPU4に送信する。   The image signal processing unit 3 activates the image sensor 2 and the lens 1 when receiving from the MPU 4 a control signal including an instruction to start the operation of the still image / moving image live view mode. When the Bayer image data is received from the image sensor 2, the image signal processing unit 3 performs detection of AE (Auto Exposure) / AF (Auto Focus) using the Bayer image data, and the lens 1 so as to be in focus. The exposure control of the image sensor 2 is performed so as to obtain an appropriate light amount. Further, the image signal processing unit 3 applies WB (white balance), gamma correction, edge enhancement, noise reduction, and color to Bayer image data in both the still image live view mode and the moving image live view / recording mode. After processing such as processing, it is finally converted into YUV image data that is video data and transmitted to the MPU 4. YUV is a type of image color information, and means three types of information: luminance signal (Y), luminance signal and blue component difference (U), and luminance signal and red component difference (V). To do. When the image signal processing unit 3 receives an instruction for capturing a still image from the MPU 4 in the still image live view mode, the image signal processing unit 3 finally converts the YUV image data for one image displayed on the display device 5 into a JPEG (Joint Photograph Experts Group). ) Convert to data and send to MPU4.

また、画像信号処理部3は、一定の周期でBayer画像データを受信すると、被写体までの距離および画像データの明るさ等の情報から利用者が撮影しようとしているシーンを検出し、被写体に人物を含むか否か等の情報を含む検出結果をMPU4に送信する。以下では、この検出結果の情報を「シーン判定画像データ」と称する。また、画像信号処理部3は、MPU4から画像処理に関する設定情報を受け取ると、その設定情報を反映させたYUV画像データをMPU4に送信する。画像信号処理部3のシーン検出動作およびシーン判定画像データについては、図5および図6を参照して詳しく説明する。   Further, when receiving the Bayer image data at a constant cycle, the image signal processing unit 3 detects a scene that the user is going to shoot from information such as the distance to the subject and the brightness of the image data, and a person is detected as the subject. A detection result including information such as whether or not to include is transmitted to the MPU 4. Hereinafter, this detection result information is referred to as “scene determination image data”. Further, when receiving the setting information related to the image processing from the MPU 4, the image signal processing unit 3 transmits YUV image data reflecting the setting information to the MPU 4. The scene detection operation and scene determination image data of the image signal processing unit 3 will be described in detail with reference to FIGS.

MPU4は、プログラムを格納するメモリ41を有し、プログラムにしたがって処理を実行することで、図3に示す制御部42、シーン検出部43およびシーン判定部44が仮想的に構成される。メモリ41には、匂いデータからシーンを特定するための匂い基準テーブルが予め格納されている。匂い基準テーブルには、複数のシーンのそれぞれに対応して、各種匂いの典型的な電気信号のパターンを示す匂いパターンが登録されている。匂いパターンの電気信号のパターンは、匂いデータの電子信号のパターンに対応している。   The MPU 4 includes a memory 41 that stores a program. By executing processing according to the program, the control unit 42, the scene detection unit 43, and the scene determination unit 44 illustrated in FIG. 3 are virtually configured. The memory 41 stores in advance an odor reference table for specifying a scene from odor data. In the odor reference table, odor patterns indicating typical electric signal patterns of various odors are registered corresponding to each of a plurality of scenes. The electric signal pattern of the odor pattern corresponds to the electronic signal pattern of the odor data.

制御部42は、利用者から操作部(不図示)を介して静止画/動画のライブビューモードを起動する旨の指示が入力されると、動作開始の指示を含む制御信号を画像信号処理部3に送信し、画像信号処理部3からYUV画像データを受信すると、YUV画像データを表示デバイス5に送信し、画像を表示デバイス5に表示させる。利用者から操作部(不図示)を介して静止画キャプチャの指示が入力されると、制御部42は、画像信号処理部3から受信するJPEGデータを記憶部6に格納する。動画録画時、制御部42は、画像信号処理部3から受信するYUV画像データと、マイク7を介して入力される音のデータであるサウンドデータとを結合して動画データを作成し、動画データを記憶部6に格納する。   When an instruction for starting a still image / moving image live view mode is input from the user via an operation unit (not shown), the control unit 42 receives a control signal including an operation start instruction from the image signal processing unit. When the YUV image data is received from the image signal processing unit 3, the YUV image data is transmitted to the display device 5 and the image is displayed on the display device 5. When an instruction for capturing a still image is input from the user via an operation unit (not shown), the control unit 42 stores the JPEG data received from the image signal processing unit 3 in the storage unit 6. At the time of moving image recording, the control unit 42 combines the YUV image data received from the image signal processing unit 3 and sound data that is sound data input via the microphone 7 to create moving image data, Is stored in the storage unit 6.

続いて、シーン検出部43とシーン判定部44について説明する。匂いデータに基づくシーン検出処理、および2種類のデータに基づくシーン特定処理は、静止画のライブビュー/キャプチャ時、動画のライブビュー/録画時のいずれでの場合でも行うことが可能であるが、ここでは、静止画ライブビューの場合で説明する。   Next, the scene detection unit 43 and the scene determination unit 44 will be described. The scene detection process based on odor data and the scene identification process based on two types of data can be performed in either live view / capture of a still image or live view / recording of a video. Here, a case of a still image live view will be described.

シーン検出部43は、匂いセンサ8から受信する匂いデータに対して、一定の周期で、メモリ41に予め格納されている匂い基準テーブルを参照し、受信した匂いデータを匂い基準テーブルに登録された匂いパターンと照合する。そして、シーン検出部43は、受信した匂いデータに最も近い匂いパターンを選択し、選択した匂いパターンに対応するシーンを匂い基準テーブルから読み出し、読み出したシーンを検出結果として保持する。以下では、この検出結果の情報を「シーン判定匂いデータ」と称する。   The scene detection unit 43 refers to the odor reference table stored in advance in the memory 41 with respect to the odor data received from the odor sensor 8 and registers the received odor data in the odor reference table. Check against odor pattern. Then, the scene detection unit 43 selects an odor pattern closest to the received odor data, reads a scene corresponding to the selected odor pattern from the odor reference table, and holds the read scene as a detection result. Hereinafter, this detection result information is referred to as “scene determination odor data”.

シーン検出部43は、シーン判定匂いデータを保持している状態で、シーン判定部44からシーン判定匂いデータの要求があると、保持していたシーン判定匂いデータをシーン判定部44に渡す。本実施形態では、シーン判定匂いデータを、シーンを特定するためのデータの1つとして利用することに特徴がある。   When the scene determination unit 44 requests the scene determination odor data from the scene determination unit 44 while holding the scene determination odor data, the scene detection unit 43 passes the stored scene determination odor data to the scene determination unit 44. This embodiment is characterized in that the scene determination odor data is used as one of data for specifying a scene.

なお、本実施形態では、メモリ41に格納された匂い基準テーブルに、森林、潮、火薬、ミルク、化粧品、動物、花および食べ物のそれぞれの匂いパターンが予め登録されているものとする。ここでは、化粧品、動物、花および食べ物の匂いについては詳しく記載しないが、化粧品、動物、花および食べ物のジャンルのそれぞれについて、複数種の匂いが登録されていてもよい。   In the present embodiment, it is assumed that odor patterns of forest, tide, gunpowder, milk, cosmetics, animals, flowers, and food are registered in advance in the odor reference table stored in the memory 41. Here, the odors of cosmetics, animals, flowers, and food are not described in detail, but multiple types of odors may be registered for each of the genres of cosmetics, animals, flowers, and food.

シーン判定部44は、画像信号処理部3からシーン判定画像データを受信すると、シーン検出部43にシーン判定匂いデータを要求し、シーン検出部43から受信するシーン判定匂いデータと画像信号処理部3から受信したシーン判定画像データとを用いてシーンを特定する。つまり、シーン判定部44は、画像信号処理部3がBayer画像データから検出したシーンと、シーン検出部43が匂いセンサ8を介して受信した匂いデータから検出したシーンとの2種類のデータに基づいて、シーンを特定する。そして、シーン判定部44は、特定したシーンに対応する設定情報を画像信号処理部3に送信する。   When the scene determination unit 44 receives the scene determination image data from the image signal processing unit 3, the scene determination unit 44 requests the scene detection odor data from the scene detection unit 43, and receives the scene determination odor data and the image signal processing unit 3 from the scene detection unit 43. The scene is specified using the scene determination image data received from the above. In other words, the scene determination unit 44 is based on two types of data: a scene detected by the image signal processing unit 3 from the Bayer image data and a scene detected by the scene detection unit 43 from the odor data received via the odor sensor 8. Identify the scene. Then, the scene determination unit 44 transmits setting information corresponding to the identified scene to the image signal processing unit 3.

画像処理に関する設定情報として、シーン毎に最適な設定情報を記述した設定情報テーブルをメモリ41に予め保存しておいてもよい。この場合、シーン判定部44は、シーンを特定すると、設定情報テーブルを参照し、特定したシーンに応じた設定情報を読み出して画像信号処理部3に送信し、画像信号処理部3に対して設定変更を実行させる。   As setting information related to image processing, a setting information table describing optimum setting information for each scene may be stored in the memory 41 in advance. In this case, when the scene is specified, the scene determination unit 44 refers to the setting information table, reads setting information corresponding to the specified scene, transmits the setting information to the image signal processing unit 3, and sets the setting to the image signal processing unit 3. Make the change happen.

シーン判定部44が特定したシーンに対応して、画像処理の設定変更を行うことで、レンズ1の位置、撮像素子2の露光、および画像信号処理部3の画像処理が、シーンに応じて変更される。その結果、設定変更が反映されたYUV画像データがMPU4を介して表示デバイス5に送られ、そのデータの画像が表示デバイス5に表示される。また、設定変更は静止画キャプチャモードのキャプチャ画像にも反映されるため、キャプチャした場合は、設定変更が反映されたJPEGデータが記憶部6に保存される。   By changing the setting of image processing corresponding to the scene specified by the scene determination unit 44, the position of the lens 1, the exposure of the image sensor 2, and the image processing of the image signal processing unit 3 are changed according to the scene. Is done. As a result, the YUV image data reflecting the setting change is sent to the display device 5 via the MPU 4, and an image of the data is displayed on the display device 5. In addition, since the setting change is also reflected in the captured image in the still image capture mode, the JPEG data reflecting the setting change is saved in the storage unit 6 when captured.

次に、本実施形態のデジタルカメラの動作を説明する。図4は本実施形態のデジタルカメラの動作の一例を示すシーケンス図であり、本実施形態のデジタルカメラがシーンの特定を一定の周期で繰り返し行う場合を示す。ここでは、静止画ライブビューモードの場合で説明する。   Next, the operation of the digital camera of this embodiment will be described. FIG. 4 is a sequence diagram showing an example of the operation of the digital camera of this embodiment, and shows a case where the digital camera of this embodiment repeatedly specifies a scene at a constant cycle. Here, the case of the still image live view mode will be described.

利用者が本実施形態のデジタルカメラに静止画ライブビューモードを起動する旨の指示を入力すると、画像信号処理部3およびMPU4のシーン検出部43のそれぞれはシーンの検出を開始する。画像信号処理部3およびシーン検出部43は一定の周期でシーンの検出を繰り返す。図4に示す例では、シーン検出にかかる時間が画像信号処理部3よりもシーン検出部43の方が短いため、シーン検出部43は、匂いデータからシーンを検出すると、検出したシーンの情報を含むシーン判定匂いデータを保持する(図4に示す番号201)。シーン検出にかかる時間は、画像信号処理部3の方がシーン検出部43よりも短くてもよい。   When the user inputs an instruction to activate the still image live view mode to the digital camera of this embodiment, each of the image signal processing unit 3 and the scene detection unit 43 of the MPU 4 starts scene detection. The image signal processing unit 3 and the scene detection unit 43 repeat scene detection at a constant cycle. In the example shown in FIG. 4, since the scene detection unit 43 takes a shorter time for scene detection than the image signal processing unit 3, the scene detection unit 43, when detecting a scene from odor data, displays information on the detected scene. Including scene determination odor data is included (number 201 shown in FIG. 4). The time required for scene detection may be shorter for the image signal processing unit 3 than for the scene detection unit 43.

続いて、画像信号処理部3がBayer画像データからシーンを検出すると、検出したシーンの情報を含むシーン判定画像データをMPU4のシーン判定部44に送信する(図4に示す番号202)。シーン判定部44は、シーン判定画像データを画像信号処理部3から受信すると、シーン判定匂いデータをシーン検出部43に要求し、シーン判定匂いデータをシーン検出部43から受け取る(図4に示す番号203)。   Subsequently, when the image signal processing unit 3 detects a scene from the Bayer image data, it transmits scene determination image data including information of the detected scene to the scene determination unit 44 of the MPU 4 (number 202 shown in FIG. 4). When the scene determination unit 44 receives the scene determination image data from the image signal processing unit 3, the scene determination unit 44 requests the scene detection odor data from the scene detection unit 43, and receives the scene determination odor data from the scene detection unit 43 (the numbers shown in FIG. 4). 203).

シーン判定部44は、シーン判定画像データおよびシーン判定匂いデータの2種類のデータに基づいてシーンを特定する(図4に示す番号204)。その後、シーン判定部44は、特定したシーンに対応する設定情報を画像信号処理部3に送信する(図4に示す番号205)。その結果、画像処理に関する設定情報の最適値が画像信号処理部3に通知される。さらに、シーン判定部44は、シーンの特定が終了したことを画像信号処理部3に通知する(図4に示す番号206)。画像信号処理部3は、シーンの特定が終了した旨の情報をシーン判定部44から受信すると、撮像素子2から受信するBayer画像データを用いて、次のシーンの検出を行う。   The scene determination unit 44 specifies a scene based on two types of data, that is, scene determination image data and scene determination odor data (number 204 shown in FIG. 4). Thereafter, the scene determination unit 44 transmits setting information corresponding to the specified scene to the image signal processing unit 3 (number 205 shown in FIG. 4). As a result, the optimum value of the setting information related to image processing is notified to the image signal processing unit 3. Further, the scene determination unit 44 notifies the image signal processing unit 3 that the scene has been identified (number 206 shown in FIG. 4). When the image signal processing unit 3 receives information from the scene determination unit 44 that the scene identification has been completed, the image signal processing unit 3 detects the next scene using the Bayer image data received from the image sensor 2.

このようにして、利用者が本実施形態のデジタルカメラに静止画ライブビューモード停止の指示を入力するまで、画像信号処理部3およびシーン検出部43のそれぞれが同じ周期であるが、非同期でシーンの検出を繰り返し、シーン判定部44が2種類のデータに基づいてシーンを特定し、特定したシーンに対応して画像処理の設定を行う。   In this way, the image signal processing unit 3 and the scene detection unit 43 have the same cycle until the user inputs an instruction to stop the still image live view mode to the digital camera of the present embodiment. The scene determination unit 44 identifies a scene based on two types of data, and sets image processing corresponding to the identified scene.

次に、図4に示したフロー図において、画像信号処理部3がBayer画像データからシーンを検出する際の動作を説明する。図5は画像データに基づくシーン検出条件の例を示す表であり、図6は画像信号処理部が実行するシーン検出動作の手順を示すフローチャートである。   Next, the operation when the image signal processing unit 3 detects a scene from the Bayer image data in the flowchart shown in FIG. 4 will be described. FIG. 5 is a table showing an example of scene detection conditions based on image data, and FIG. 6 is a flowchart showing a procedure of a scene detection operation executed by the image signal processing unit.

図5に示す表には、検出シーンがNo.1〜7に分類され、各検出シーンに対応して、検出条件が記述されている。No.1〜7のいずれにも該当しない場合、シーン検出対象外(No.8)として判定される。図5に示す表がメモリ41に予め格納されている。   In the table shown in FIG. The detection conditions are described corresponding to each detection scene. No. When it does not correspond to any of 1 to 7, it is determined that the scene is not detected (No. 8). The table shown in FIG. 5 is stored in the memory 41 in advance.

図5に示す表において、Dは本実施形態のデジタルカメラから被写体までの距離がマクロ距離であるか否かの閾値である。Bv1、Bv2、Bv3およびBv4のそれぞれは、明るさ(ブライトバリュー)を判定するための閾値であり、画像に風景、トワイライトおよび夜景のうち、いずれが含まれているかを判定するための基準値となる。大きさの関係は、Bv4<Bv3<Bv2<Bv1である。T1およびT2は色温度を判定するための閾値である。大きさの関係は、T2<T1である。   In the table shown in FIG. 5, D is a threshold value indicating whether or not the distance from the digital camera of the present embodiment to the subject is a macro distance. Each of Bv1, Bv2, Bv3, and Bv4 is a threshold value for determining brightness (bright value), and a reference value for determining which one of landscape, twilight, and night view is included in the image. Become. The size relationship is Bv4 <Bv3 <Bv2 <Bv1. T1 and T2 are threshold values for determining the color temperature. The magnitude relationship is T2 <T1.

表5のNo.5〜No.7の検出シーンの検出条件を比較すると、夜間の風景である夜景よりも昼間の風景の方が明るいので、明るさについて、No.5の検出条件はBv1以上になっており、No.7の検出条件はBv4より小さい。このことは、表5のNo.2とNo.3の検出条件についても同様である。   No. in Table 5 5-No. When the detection conditions of the detection scene of No. 7 are compared, the daytime scenery is brighter than the nighttime scenery, which is a nighttime scenery. No. 5 detection condition is Bv1 or higher. The detection condition of 7 is smaller than Bv4. This is shown in Table 5. 2 and No. The same applies to the third detection condition.

また、トワイライト(No.6の検出シーン)の撮影では、明るさが昼間の風景の場合よりも暗く、夜景の場合よりも明るいので、明るさの検出条件はBv3以上、Bv2未満となっている。このことは、色温度にも反映され、色温度での検出条件は、昼間の風景の場合がT1以上であるのに対し、トワイライトの場合はT2(<T1)以上になっている。色情報での検出条件では、トワイライトの撮影では空が赤みを帯びているので、画像に「赤色」が含まれるのに対し、昼間の風景では「緑色」や「青色」が画像に含まれている。   Also, in the shooting of twilight (No. 6 detection scene), the brightness is darker than in the case of daytime scenes and brighter than in the case of night scenes, so the brightness detection condition is Bv3 or more and less than Bv2. . This is also reflected in the color temperature, and the detection condition at the color temperature is T1 or more in the case of a landscape in the daytime, whereas T2 (<T1) or more in the case of twilight. In the detection condition with color information, the sky is reddish in twilight shooting, so the image contains “red”, whereas the daytime landscape contains “green” and “blue”. Yes.

図6に示すように、画像信号処理部3は、自装置から被写体までの距離がD以下か否かを調べることで、その距離がマクロ距離か否かを判定する(ステップ301)。画像信号処理部3は、ステップ301において、自装置から被写体までの距離がD以下で、マクロ距離と判定すると、画像から人物の顔を検出できるか否かを調べる(ステップ302)。画像信号処理部3は、画像から顔を検出した場合、人物を接写するシーンと判定し(ステップ303)、画像から顔を検出できない場合、利用者がマクロで人物以外の被写体を撮影するシーンと判定する(ステップ304)。なお、ステップ303の場合は、図5に示すNo.4の検出シーンに含まれる。   As shown in FIG. 6, the image signal processing unit 3 determines whether or not the distance is a macro distance by checking whether or not the distance from the own device to the subject is equal to or less than D (step 301). If the image signal processing unit 3 determines in step 301 that the distance from the device to the subject is equal to or less than D and is a macro distance, the image signal processing unit 3 checks whether or not a human face can be detected from the image (step 302). When the face is detected from the image, the image signal processing unit 3 determines that the person is a close-up scene (step 303). When the face cannot be detected from the image, the user captures a subject other than the person with a macro. Determination is made (step 304). In the case of step 303, No. 1 shown in FIG. 4 detection scenes.

ステップ301において、画像信号処理部3は、自装置から被写体までの距離がDより小さく、マクロ距離でないと判定すると、画像から人物の顔を検出できるか否かを調べる(ステップ305)。画像信号処理部3は、画像から顔を検出すると、画像データから明るさ、色温度および色情報を参照し、画像から風景を検出できるか否かを調べる(ステップ306)。画像信号処理部3は、画像データから明るさ≧Bv1、および色温度≧T1を検出し、色情報として青色および緑色を検出すると、利用者が人物と風景を撮影するシーンと判定する(ステップ307)。ステップ306で風景を検出できなければ、画像信号処理部3は、明るさ、色温度および色情報を参照し、画像から夜景を検出できるか否かを調べる(ステップ308)。画像信号処理部3は、画像データから明るさ<Bv4を検出すると、利用者が人物と夜景を撮影するシーンと判定する(ステップ309)。画像から風景も夜景も検出できない場合、画像信号処理部3は、利用者が人物を主にして撮影するシーンと判定する(ステップ310)。   In step 301, when the image signal processing unit 3 determines that the distance from the apparatus to the subject is smaller than D and is not the macro distance, the image signal processing unit 3 checks whether or not a human face can be detected from the image (step 305). When detecting a face from the image, the image signal processing unit 3 refers to brightness, color temperature, and color information from the image data, and checks whether or not a landscape can be detected from the image (step 306). When the image signal processing unit 3 detects brightness ≧ Bv1 and color temperature ≧ T1 from the image data and detects blue and green as the color information, it determines that the scene is a scene where the user captures a person and a landscape (step 307). ). If the landscape cannot be detected in step 306, the image signal processing unit 3 refers to the brightness, color temperature, and color information to check whether the night scene can be detected from the image (step 308). When the image signal processing unit 3 detects brightness <Bv4 from the image data, the image signal processing unit 3 determines that the scene is a scene where the user captures a person and a night view (step 309). When neither a landscape nor a night view can be detected from the image, the image signal processing unit 3 determines that the scene is a scene in which the user mainly photographs a person (step 310).

一方、ステップ305において、画像信号処理部3は、画像から人物の顔を検出できない場合、画像データから明るさ、色温度および色情報を参照し、画像から風景、トワイライトおよび夜景のいずれかが検出できるか判定する(ステップ311、313、315)。画像信号処理部3は、画像データから明るさ≧Bv1、および色温度≧T1を検出し、色情報として青色および緑色を検出すると、利用者が風景を撮影するシーンと判定する(ステップ312)。画像信号処理部3は、画像データからBv3≦明るさ<Bv2、および色温度≧T2を検出し、色情報として赤色を検出すると、利用者がトワイライトを撮影するシーンと判定する(ステップ314)。画像信号処理部3は、画像データから明るさ<Bv4を検出すると、利用者が夜景を撮影するシーンと判定する(ステップ316)。画像信号処理部3は、画像から風景、トワイライトおよび夜景のいずれも検出できない場合、シーン検出の対象外であると判定する(ステップ317)。   On the other hand, in step 305, when the image signal processing unit 3 cannot detect the human face from the image, the image signal processing unit 3 refers to the brightness, color temperature, and color information from the image data, and detects any of landscape, twilight, and night view from the image. It is determined whether it can be performed (steps 311, 313, 315). The image signal processing unit 3 detects brightness ≧ Bv1 and color temperature ≧ T1 from the image data, and when blue and green are detected as color information, the image signal processing unit 3 determines that the scene is a scene in which the user captures a landscape (step 312). When the image signal processing unit 3 detects Bv3 ≦ brightness <Bv2 and color temperature ≧ T2 from the image data, and detects red as the color information, the image signal processing unit 3 determines that the scene is a scene where the user captures twilight (step 314). If the image signal processing unit 3 detects brightness <Bv4 from the image data, the image signal processing unit 3 determines that the user is shooting a night scene (step 316). If none of the landscape, twilight, and night view can be detected from the image, the image signal processing unit 3 determines that the scene is not subject to scene detection (step 317).

画像信号処理部3は、図5に示す表を参照しながら、図6に示す手順にしたがって利用者の撮影シーンを検出すると、図5に示す表における検出シーンの項目の「マクロ」、「人物+風景」、・・・、「夜景」のうちのいずれかのシーンまたは「シーン外」を、検出したシーンの情報として、シーン判定画像データに含める。   When the image signal processing unit 3 detects the user's shooting scene according to the procedure shown in FIG. 6 while referring to the table shown in FIG. 5, the items “macro” and “person” of the detected scene in the table shown in FIG. Any scene of “+ landscape”,..., “Night view” or “outside scene” is included in the scene determination image data as information of the detected scene.

次に、図4に示したシーケンス図において、シーン検出部43が匂いデータからシーンを検出する際の動作を、図7を参照して説明する。図7は匂いデータに基づくシーン検出の例を示す図である。図7は、検出される匂いと匂い基準テーブルに登録されているシーンとの組み合わせを示す表の一例である。   Next, the operation when the scene detection unit 43 detects a scene from odor data in the sequence diagram shown in FIG. 4 will be described with reference to FIG. FIG. 7 is a diagram showing an example of scene detection based on odor data. FIG. 7 is an example of a table showing combinations of detected odors and scenes registered in the odor reference table.

図7に示すように、シーン検出部43は、匂いデータに最も近い匂いパターンが森林の匂いのパターンであると、森林が被写体に含まれていると判定する。また、シーン検出部43は、匂いデータに最も近い匂いパターンが潮の匂いのパターンであると、海が被写体に含まれていると判定する。   As illustrated in FIG. 7, the scene detection unit 43 determines that the forest is included in the subject when the odor pattern closest to the odor data is the odor pattern of the forest. In addition, the scene detection unit 43 determines that the sea is included in the subject when the odor pattern closest to the odor data is a tidal odor pattern.

また、シーン検出部43は、匂いデータに最も近い匂いパターンが火薬の匂いのパターンであると、花火が被写体に含まれていると判定する。シーン検出部43は、匂いデータに最も近い匂いパターンがミルクの匂いのパターンであると、赤ちゃんが被写体に含まれていると判定する。シーン検出部43は、匂いデータに最も近い匂いパターンが化粧品の匂いのパターンであると、女性が被写体に含まれていると判定する。シーン検出部43は、匂いデータに最も近い匂いパターンが動物の匂いのパターンであると、ペットが被写体に含まれていると判定する。   Further, the scene detection unit 43 determines that fireworks are included in the subject when the odor pattern closest to the odor data is the explosive odor pattern. The scene detection unit 43 determines that the baby is included in the subject when the odor pattern closest to the odor data is the odor pattern of milk. The scene detection unit 43 determines that a woman is included in the subject when the odor pattern closest to the odor data is the odor pattern of cosmetics. The scene detection unit 43 determines that the pet is included in the subject when the odor pattern closest to the odor data is an animal odor pattern.

図7では、「各種花」の匂いに対応して「各種花」が記述されている。これは、複数種の花のそれぞれの匂いに、複数種の花のそれぞれが対応していることを意味しており、花の種類に応じて匂いと花の名前を組み合わせて記述することを、省略している。図7に示す「各種食べ物」についても、花の場合と同様に、複数種の食べ物のそれぞれの匂いに、複数種の食べ物のそれぞれが対応している。   In FIG. 7, “various flowers” are described corresponding to the smell of “various flowers”. This means that each of the multiple types of flowers corresponds to the odor of each of the multiple types of flowers, and that the odor and the name of the flower are combined according to the type of flower. Omitted. As for “various foods” shown in FIG. 7, as in the case of flowers, each of the plurality of types of food corresponds to the odor of each of the plurality of types of food.

シーン検出部43は、匂いデータからシーンを検出すると、図7に示す表における検出シーンの「森林」、「海」、・・・、「各種食べ物」のうち、1以上の要素を、検出したシーンの情報として、シーン判定匂いデータに含める。シーン判定匂いデータには、被写体の情報が含まれることになる。また、シーン検出部43が匂いデータから複数の要素を検出した場合、シーン判定匂いデータに2以上の要素が含まれることになる。   When the scene detection unit 43 detects a scene from odor data, it detects one or more elements of “forest”, “sea”,..., “Various foods” of the detection scene in the table shown in FIG. Included in scene determination odor data as scene information. The scene determination odor data includes subject information. When the scene detection unit 43 detects a plurality of elements from the odor data, the scene determination odor data includes two or more elements.

なお、本実施形態では、シーン検出部43が匂いデータから複数の要素を検出すると、検出した要素を全てシーン判定匂いデータに含める場合で説明しているが、予め決められた優先順位にしたがって、シーン判定匂いデータに含める要素の数を絞ってもよい。例えば、優先度が大きいほど優先順位が高いとすると、優先度を「赤ちゃん>女性>ペット>森林>海」のように予め決めておき、優先度の最も大きい2つの要素をシーン判定匂いデータに含めるようにしてもよい。優先度の順位はこの場合に限らない。ただし、検出シーンが図5に示した「人物+風景」および「風景」の場合には、シーン特定の際、「森林」または「海」の要素が必要になるため、シーン検出部43は、「森林」または「海」の要素を検出した場合、その要素を常にシーン判定匂いデータに含めるようにしてもよい。   In the present embodiment, when the scene detection unit 43 detects a plurality of elements from the odor data, a case has been described in which all detected elements are included in the scene determination odor data, but according to a predetermined priority order, The number of elements included in the scene determination odor data may be reduced. For example, if the priority is higher as the priority is higher, the priority is determined in advance as “baby> female> pet> forest> sea”, and the two elements having the highest priority are used as scene determination odor data. It may be included. The priority order is not limited to this case. However, in the case where the detected scene is “person + landscape” and “landscape” shown in FIG. 5, an element of “forest” or “sea” is required when specifying the scene. When the “forest” or “sea” element is detected, the element may always be included in the scene determination odor data.

次に、シーン判定部44が2種類のデータに基づいてシーンを特定する際の動作を説明する。図8はシーン判定画像データとシーン判定匂いデータを組み合わせることで特定されるシーンの例を示す表である。図8に示す表がメモリ41に予め格納されている。   Next, an operation when the scene determination unit 44 specifies a scene based on two types of data will be described. FIG. 8 is a table showing an example of a scene specified by combining scene determination image data and scene determination odor data. A table shown in FIG. 8 is stored in the memory 41 in advance.

図8に示すように、シーン判定画像データのシーンの情報に対応して、特定されるシーンが「マクロ」〜「夜景」および「シーン外」の8つのグループに分類されている。図8に示すように、シーン判定画像データで特定される各グループについて、シーン判定匂いデータのシーンの情報に対応して、「花火」、「海」、・・・、および「各種食べ物」などに分類されている。例えば、シーン判定画像データで「マクロ」に分類されたグループでは、匂いデータで「花火」、「各種花」、「各種食べ物」、および「それ以外」に細分化されている。   As shown in FIG. 8, the scenes to be identified are classified into eight groups of “macro” to “night view” and “outside scene” corresponding to the scene information of the scene determination image data. As shown in FIG. 8, for each group specified by the scene determination image data, “fireworks”, “sea”,..., “Various foods”, etc., corresponding to the scene information of the scene determination odor data It is classified. For example, in a group classified as “macro” in the scene determination image data, the odor data is subdivided into “fireworks”, “various flowers”, “various foods”, and “other than that”.

シーン判定画像データに基づいて、人物が含まれると判定されたシーンのグループでは、シーン判定匂いデータに基づいて、人物が赤ちゃん/女性に細分化され、風景が森林/海/花火に細分化され、人物以外に含まれる被写体としてペット/各種花/各種食べ物に細分化されている。   In a group of scenes determined to contain a person based on the scene determination image data, the person is subdivided into babies / women and the landscape is subdivided into forest / sea / fireworks based on the scene determination odor data. The subjects included other than the person are subdivided into pets / various flowers / various foods.

シーン判定画像データに基づいて「風景」と判定されたシーンのグループでは、シーン判定匂いデータに基づいて、風景が森林/海に細分化され、風景と共に画像に含まれる被写体がペット/各種花に細分化されている。シーン判定画像データに基づいて「トワイライト」と判定されたシーンのグループでは、シーン判定匂いデータに基づいて、海とそれ以外に細分化されている。   In a group of scenes determined to be “landscape” based on the scene determination image data, the landscape is subdivided into forest / sea based on the scene determination odor data, and the subject included in the image together with the landscape is a pet / various flower. It is subdivided. A group of scenes determined to be “twilight” based on the scene determination image data is subdivided into the sea and other areas based on the scene determination odor data.

シーン判定画像データに基づいて「夜景」と判定されたシーンのグループでは、シーン判定匂いデータに基づいて、花火とそれ以外に細分化されている。シーン判定画像データからは、「マクロ」〜「夜景」の7つのグループのいずれにも該当しないと判定されたシーンのグループでは、シーン判定匂いデータに基づいて、被写体が森林/海/花火/ペット/各種花/各種食べもの/それ以外に細分化されている。   The group of scenes determined to be “night scene” based on the scene determination image data is subdivided into fireworks and others based on the scene determination odor data. From the scene determination image data, in the group of scenes determined not to correspond to any of the seven groups “macro” to “night view”, the subject is forest / sea / fireworks / pet based on the scene determination odor data. / Various flowers / Various foods / Others.

シーン判定部44は、図8の表に示すように、シーン判定画像データの情報に基づいて、8つの分類から1つのグループを選択し、シーン判定匂いデータの情報に基づいて、画像に含まれる被写体となる要素を選択することで、最終的なシーンを特定する。例えば、シーン判定画像データに「人物+風景」の情報が含まれており、シーン判定匂いデータに「女性」の情報が含まれている場合、シーン判定部44は、図8の表に示すNo.8の「女性+風景」のシーンと特定する。   As shown in the table of FIG. 8, the scene determination unit 44 selects one group from eight classifications based on the information of the scene determination image data, and is included in the image based on the information of the scene determination odor data. The final scene is specified by selecting an element to be a subject. For example, when the scene determination image data includes information of “person + landscape” and the scene determination odor data includes information of “female”, the scene determination unit 44 performs No No. shown in the table of FIG. . It is identified as a scene of 8 “women + landscape”.

次に、シーン判定部44が特定したシーンに対応して、画像信号処理部3に通知する設定情報の具体例を説明する。図9は、シーン判定部が特定したシーンに対応する、画像処理の設定情報の例を示す表である。図9に示す表がメモリ41に予め格納されている。   Next, a specific example of the setting information notified to the image signal processing unit 3 corresponding to the scene specified by the scene determination unit 44 will be described. FIG. 9 is a table showing an example of image processing setting information corresponding to the scene specified by the scene determination unit. A table shown in FIG. 9 is stored in the memory 41 in advance.

シーン判定部44は、特定したシーンに応じて、画像のコントラスト、明るさ、シャープネス、および色合いなどを、シーン判定匂いデータで特定される被写体に応じて最適化する設定情報を画像信号処理部3に通知する。また、シーン判定部44は、被写体に応じて、画像信号処理部3に対して画像変換の処理を指示してもよい。画像変換の処理とは、例えば、被写体が女性であれば、検出した顔の小じわ、シミおよびくすみなどを消去したり、顔の中で目や口などのパーツを大きくしたりすることである。小じわ、シミおよびくすみなどを消去することで、透明感のある肌にする効果が得られ、目や口を大きくすることで、目や口元の存在感がアップする効果が得られる。   The scene determination unit 44 sets setting information for optimizing the contrast, brightness, sharpness, and hue of the image according to the subject specified by the scene determination odor data according to the specified scene. Notify Further, the scene determination unit 44 may instruct the image signal processing unit 3 to perform image conversion processing according to the subject. For example, if the subject is a woman, the image conversion processing is to erase detected face fine lines, spots, dullness, etc., or to enlarge parts such as eyes and mouth in the face. By eliminating fine lines, spots, dullness, etc., an effect of making the skin transparent is obtained, and by enlarging the eyes and mouth, an effect of increasing the presence of the eyes and mouth can be obtained.

図9に示す小項目が「赤ちゃん」の場合の設定に示すように、シーン判定部44は、被写体の人物が笑顔になったことを検出したときの画像をキャプチャする「スマイルシャッター」をONにする旨の設定を、画像信号処理部3に対して行ってもよい。   As shown in the setting when the small item shown in FIG. 9 is “baby”, the scene determination unit 44 turns on “smile shutter” for capturing an image when it is detected that the subject person is smiling. The setting to do so may be performed on the image signal processing unit 3.

本実施形態によれば、シーン特定のための情報として、画像データだけでなく、画像とは情報の種類が異なる匂いデータも使用しているため、シーンをより細かく特定することが可能になる。シーンを細かく特定することで、シーンに特化した効果を画像に対してかけることができる。また、シーン特定に使用する匂いデータに被写体の情報が反映されているので、画像データの被写体に対して画像処理を設定することが可能である。よって、本実施形態では、画像処理が間違って設定されてしまうことを抑制でき、利用者は自分が想定するシーンにより合致したシーンの画像を取得できる。   According to the present embodiment, not only image data but also odor data having a type of information different from that of an image is used as information for specifying a scene, so that a scene can be specified more finely. By specifying the scene in detail, an effect specific to the scene can be applied to the image. In addition, since the subject information is reflected in the odor data used for scene specification, it is possible to set image processing for the subject of the image data. Therefore, in this embodiment, it can suppress that an image process is set incorrectly, and the user can acquire the image of the scene which matched with the scene which he assumes.

なお、本実施形態では、Bayer画像データからのシーン検出および匂いデータからのシーン検出を、画像信号処理部3およびMPU4で別々に実行させる場合で説明したが、これらのシーン検出の両方をMPU4に実行させてもよい。この場合、MPU4は、画像信号処理部3からシーン検出に使用するBayer画像データを受け取り、図5および図6を参照して説明したように、画像データからシーンの検出を行う。   In the present embodiment, the scene detection from the Bayer image data and the scene detection from the odor data have been described as being separately executed by the image signal processing unit 3 and the MPU 4, but both of these scene detections are performed by the MPU 4. It may be executed. In this case, the MPU 4 receives the Bayer image data used for scene detection from the image signal processing unit 3, and detects a scene from the image data as described with reference to FIGS.

また、匂いデータでは赤ちゃんが検出されているが、画像データでは人物の顔が検出されていない場合や、匂いデータから森林が検出されているが、画像データでは風景が検出されていない場合など、匂いデータで検出されたシーンと画像データで検出されたシーンとが合致しない場合も起こり得る。このような場合に、画像処理をどのように設定するかを決めておいてもよい。シーンをより細かく特定できるようになるため、シーンの細分化およびシーン検出精度の向上を図ることができる。   In addition, baby is detected in odor data, but human face is not detected in image data, forest is detected from odor data, but landscape is not detected in image data, etc. There may be a case where the scene detected by the odor data and the scene detected by the image data do not match. In such a case, how to set the image processing may be determined. Since the scene can be specified more finely, the scene can be subdivided and the scene detection accuracy can be improved.

また、画像データの圧縮形式はJPEGに限らず、画像データの形式はBayer画像データおよびYUV画像データに限らない。例えば、表示部デバイス5に画像を表示させる際、制御部42がYUV画像データをRGB画像データに変換して表示デバイス5に送信してもよい。   The compression format of image data is not limited to JPEG, and the format of image data is not limited to Bayer image data and YUV image data. For example, when displaying an image on the display unit device 5, the control unit 42 may convert the YUV image data into RGB image data and transmit it to the display device 5.

また、本実施形態では、説明を簡単にするために、被写体が動いている場合や撮影が逆光の場合を除外し、検出対象のシーンが一般的なシーンの場合で説明したが、本実施形態のデジタルカメラに加速度センサを設け、加速度センサが行う手ブレ検出、ならびに画像信号処理部3が行う動体検出および逆光判定のうち、少なくともいずれかの要素を、画像データおよび匂いデータのそれぞれから検出されるシーンに組み合わせることで、特定するシーンをより細分化してもよい。   Further, in this embodiment, for the sake of simplicity of explanation, the case where the subject is moving or the case where shooting is backlit is excluded, and the case where the scene to be detected is a general scene has been described. The digital camera is provided with an acceleration sensor, and at least one of the camera shake detection performed by the acceleration sensor and the moving object detection and backlight determination performed by the image signal processing unit 3 is detected from each of the image data and the odor data. The scene to be identified may be further subdivided by combining the scenes.

1 レンズ
2 撮像素子
3 画像信号処理部
4 MPU
5 表示デバイス
6 記憶部
7 マイク
8 匂いセンサ
11 撮影装置
12 画像検出手段
13 匂い検出手段
14 シーン検出手段
1 Lens 2 Image Sensor 3 Image Signal Processing Unit 4 MPU
DESCRIPTION OF SYMBOLS 5 Display device 6 Memory | storage part 7 Microphone 8 Odor sensor 11 Imaging device 12 Image detection means 13 Odor detection means 14 Scene detection means

Claims (6)

画像データに基づいてシーンを検出する画像検出手段と、
匂いデータに基づいてシーンを検出する匂い検出手段と、
前記画像検出手段で検出されたシーンと前記匂い検出手段で検出されたシーンとに基づいてシーンを特定するシーン検出手段と、
を有する撮影装置。
Image detection means for detecting a scene based on image data;
Odor detection means for detecting a scene based on odor data;
Scene detection means for specifying a scene based on the scene detected by the image detection means and the scene detected by the odor detection means;
A photographing apparatus having
請求項1記載の撮影装置において、
前記画像検出手段は、前記画像データに基づいてシーンを検出した後、前記画像データに対して所定の設定に基づいて画像処理を行うものであり、
前記シーン検出手段は、特定したシーンに対応して、前記画像処理の設定を前記画像検出手段に変更させる、撮影装置。
The imaging device according to claim 1,
The image detecting means detects a scene based on the image data and then performs image processing on the image data based on a predetermined setting.
The scene detection unit causes the image detection unit to change the setting of the image processing corresponding to the specified scene.
請求項2記載の撮影装置において、
前記シーン検出手段は、
前記画像データに基づいて検出されるシーンと前記匂いデータに基づいて検出されるシーンとの組み合わせで特定されるシーン毎に、前記画像処理に関する設定情報が記述されたテーブルを予め保持し、該テーブルを参照して、前記特定したシーンに対応する前記設定情報を前記テーブルから読み出して前記画像検出手段に通知することで、前記画像処理の設定を該画像検出手段に変更させる、撮影装置。
The imaging device according to claim 2,
The scene detection means includes
For each scene specified by a combination of a scene detected based on the image data and a scene detected based on the odor data, a table in which setting information related to the image processing is described is stored in advance. Referring to FIG. 4, the image capturing apparatus reads the setting information corresponding to the identified scene from the table and notifies the image detecting unit to change the image processing setting to the image detecting unit.
請求項2または3記載の撮影装置において、
前記シーン検出手段は、
前記匂いデータに基づいて検出されたシーンから被写体を特定し、特定した被写体に対応して、該被写体に対する前記画像処理の設定を前記画像検出手段に変更させる、撮影装置。
In the imaging device according to claim 2 or 3,
The scene detection means includes
An imaging apparatus that identifies a subject from a scene detected based on the odor data, and causes the image detection unit to change the image processing setting corresponding to the identified subject.
画像データに基づいてシーンを検出し、
匂いデータに基づいてシーンを検出し、
前記画像データで検出されたシーンと前記匂いデータで検出されたシーンとに基づいてシーンを特定する、撮影画像処理方法。
Detect scenes based on image data,
Detect scenes based on odor data,
A captured image processing method for specifying a scene based on a scene detected from the image data and a scene detected from the odor data.
コンピュータに実行させるためのプログラムであって、
画像データに基づいてシーンを検出し、
匂いデータに基づいてシーンを検出し、
前記画像データで検出されたシーンと前記匂いデータで検出されたシーンとに基づいてシーンを特定する処理を前記コンピュータに実行させるためのプログラム。
A program for causing a computer to execute,
Detect scenes based on image data,
Detect scenes based on odor data,
A program for causing a computer to execute a process of specifying a scene based on a scene detected from the image data and a scene detected from the odor data.
JP2011200350A 2011-09-14 2011-09-14 Photographing device, photographed image processing method, and program Withdrawn JP2013062711A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011200350A JP2013062711A (en) 2011-09-14 2011-09-14 Photographing device, photographed image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011200350A JP2013062711A (en) 2011-09-14 2011-09-14 Photographing device, photographed image processing method, and program

Publications (1)

Publication Number Publication Date
JP2013062711A true JP2013062711A (en) 2013-04-04

Family

ID=48187010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011200350A Withdrawn JP2013062711A (en) 2011-09-14 2011-09-14 Photographing device, photographed image processing method, and program

Country Status (1)

Country Link
JP (1) JP2013062711A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014184541A (en) * 2013-03-25 2014-10-02 Denso Wave Inc Arm operation method and arm operation device
JP2014184540A (en) * 2013-03-25 2014-10-02 Denso Wave Inc Arm operation method and arm operation device
JP2014184538A (en) * 2013-03-25 2014-10-02 Denso Wave Inc Arm operation method and arm operation device
JP2016052092A (en) * 2014-09-02 2016-04-11 カシオ計算機株式会社 Imaging device, image processing device, display control device, image correction method and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014184541A (en) * 2013-03-25 2014-10-02 Denso Wave Inc Arm operation method and arm operation device
JP2014184540A (en) * 2013-03-25 2014-10-02 Denso Wave Inc Arm operation method and arm operation device
JP2014184538A (en) * 2013-03-25 2014-10-02 Denso Wave Inc Arm operation method and arm operation device
JP2016052092A (en) * 2014-09-02 2016-04-11 カシオ計算機株式会社 Imaging device, image processing device, display control device, image correction method and program

Similar Documents

Publication Publication Date Title
TWI511558B (en) Image sensor having hdr capture capability
US8786749B2 (en) Digital photographing apparatus for displaying an icon corresponding to a subject feature and method of controlling the same
JP6401324B2 (en) Dynamic photo shooting method and apparatus
JP6720881B2 (en) Image processing apparatus and image processing method
US9253406B2 (en) Image capture apparatus that can display review image, image capture method, and storage medium
JP5125734B2 (en) Imaging apparatus, image selection method, and image selection program
US20150189142A1 (en) Electronic apparatus and method of capturing moving subject by using the same
WO2015180683A1 (en) Mobile terminal, method and device for setting image pickup parameters, and computer storage medium
CN116744120B (en) Image processing method and electronic device
JP7110406B2 (en) IMAGING DEVICE, IMAGING METHOD, AND PROGRAM
JP2007124292A (en) Imaging apparatus, imaging method, and imaging program
JP2013062711A (en) Photographing device, photographed image processing method, and program
US8681245B2 (en) Digital photographing apparatus, and method for providing bokeh effects
KR102351496B1 (en) Image processing apparatus and method for operating thereof
JP2014179920A (en) Imaging apparatus, control method thereof, program, and storage medium
JP2019169985A (en) Image processing apparatus
CN113891008B (en) Exposure intensity adjusting method and related equipment
JP5392336B2 (en) Imaging apparatus, imaging method, and imaging program
US20210400192A1 (en) Image processing apparatus, image processing method, and storage medium
JP2015041865A (en) Image processing apparatus and image processing method
JP2013046217A (en) Photographing device, photographed image processing method, and program
JP2015119436A (en) Imaging apparatus
CN116051368B (en) Image processing method and related device
WO2023160221A1 (en) Image processing method and electronic device
JP2008271181A (en) Imaging apparatus and imaging method, reproducing device and reproducing method, and imaged image processing system

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141202