JP2013062711A - Photographing device, photographed image processing method, and program - Google Patents
Photographing device, photographed image processing method, and program Download PDFInfo
- Publication number
- JP2013062711A JP2013062711A JP2011200350A JP2011200350A JP2013062711A JP 2013062711 A JP2013062711 A JP 2013062711A JP 2011200350 A JP2011200350 A JP 2011200350A JP 2011200350 A JP2011200350 A JP 2011200350A JP 2013062711 A JP2013062711 A JP 2013062711A
- Authority
- JP
- Japan
- Prior art keywords
- scene
- image
- odor
- data
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Studio Devices (AREA)
- Details Of Cameras Including Film Mechanisms (AREA)
Abstract
Description
本発明は、撮影装置、撮影画像処理方法、およびコンピュータに実行させるためのプログラムに関する。 The present invention relates to a photographing apparatus, a photographed image processing method, and a program to be executed by a computer.
近年、デジタルスチルカメラおよびデジタルビデオカメラ等の撮影装置には、画像処理情報から撮影シーンを判定し、判定した撮影シーンに最適な露出値を算出する機能を有しているものがある(特許文献1参照)。特許文献1に開示されたカメラは、主被写体が画面上に占める主被写体領域と背景が画面上に占める背景領域との占有比率にしたがって、判別対象の撮影シーンが接写シーン、ポートレートシーンおよび風景シーンのうち、いずれの撮影シーンに該当するかを判別している。
2. Description of the Related Art In recent years, some photographing apparatuses such as digital still cameras and digital video cameras have a function of determining a photographing scene from image processing information and calculating an optimum exposure value for the determined photographing scene (Patent Document). 1). In the camera disclosed in
なお、撮影した画像データと共に、検知した匂いに関する情報を記録可能にしたカメラが特許文献2に開示されている。また、匂いを検知する匂いセンサの一例が非特許文献1に開示されている。
Japanese Patent Application Laid-Open No. H10-228867 discloses a camera that can record information about sensed odor along with photographed image data. An example of an odor sensor that detects an odor is disclosed in
特許文献1に開示されたカメラでは、撮影シーンの判別が正しく行われたとしても、撮影シーンが大まかにしか分類されていないため、より細かく撮影条件を設定することができないという問題があった。
The camera disclosed in
本発明は上述したような技術が有する問題点を解決するためになされたものであり、撮影対象のシーンをより細かく特定することを可能にした撮影装置、撮影画像処理方法、およびコンピュータに実行させるためのプログラムを提供することを目的とする。 The present invention has been made in order to solve the above-described problems of the technology, and causes a photographing apparatus, a photographed image processing method, and a computer that can more specifically specify a scene to be photographed. It aims at providing the program for.
上記目的を達成するための本発明の撮影装置は、
画像データに基づいてシーンを検出する画像検出手段と、
匂いデータに基づいてシーンを検出する匂い検出手段と、
前記画像検出手段で検出されたシーンと前記匂い検出手段で検出されたシーンとに基づいてシーンを特定するシーン検出手段と、
を有する構成である。
In order to achieve the above object, a photographing apparatus of the present invention provides:
Image detection means for detecting a scene based on image data;
Odor detection means for detecting a scene based on odor data;
Scene detection means for specifying a scene based on the scene detected by the image detection means and the scene detected by the odor detection means;
It is the structure which has.
また、本発明の撮影画像処理方法は、
画像データに基づいてシーンを検出し、
匂いデータに基づいてシーンを検出し、
前記画像データで検出されたシーンと前記匂いデータで検出されたシーンとに基づいてシーンを特定するものである。
The captured image processing method of the present invention includes:
Detect scenes based on image data,
Detect scenes based on odor data,
The scene is specified based on the scene detected from the image data and the scene detected from the odor data.
さらに、本発明のプログラムは、コンピュータに実行させるためのプログラムであって、
画像データに基づいてシーンを検出し、
匂いデータに基づいてシーンを検出し、
前記画像データで検出されたシーンと前記匂いデータで検出されたシーンとに基づいてシーンを特定する処理を前記コンピュータに実行させるものである。
Furthermore, the program of the present invention is a program for causing a computer to execute,
Detect scenes based on image data,
Detect scenes based on odor data,
The computer is caused to execute processing for specifying a scene based on a scene detected from the image data and a scene detected from the odor data.
本発明によれば、シーンがより細かく特定されるので、シーンに特化した効果を画像に対してかけることができる。 According to the present invention, since the scene is specified in more detail, an effect specialized for the scene can be applied to the image.
本発明の一実施形態の撮影装置の構成を説明する。図1は本発明の一実施形態の撮影装置の一構成例を示すブロック図である。 A configuration of a photographing apparatus according to an embodiment of the present invention will be described. FIG. 1 is a block diagram showing an example of the configuration of a photographing apparatus according to an embodiment of the present invention.
図1に示すように、撮影装置11は、画像データに基づいてシーンを検出する画像検出手段12と、検出される匂いに関する情報である匂いデータに基づいてシーンを検出する匂い検出手段13と、画像検出手段12で検出されたシーンと匂い検出手段13で検出されたシーンとに基づいてシーンを特定するシーン検出手段14と、を有する。
As shown in FIG. 1, the photographing apparatus 11 includes an
図1に示した撮影装置11が実行する撮影画像処理方法を説明する。図2は図1に示した撮影装置の動作を説明するためのフローチャートである。 A captured image processing method executed by the imaging apparatus 11 shown in FIG. 1 will be described. FIG. 2 is a flowchart for explaining the operation of the photographing apparatus shown in FIG.
図2に示すように、画像検出手段12が画像データに基づいてシーンを検出し(ステップ101)、匂い検出手段13が匂いデータに基づいてシーンを検出する(ステップ102)。さらに、シーン検出手段14が画像データで検出されたシーンと匂いデータで検出されたシーンとに基づいてシーンを特定する(ステップ103)。
As shown in FIG. 2, the image detection means 12 detects a scene based on the image data (step 101), and the odor detection means 13 detects a scene based on the odor data (step 102). Further, the
なお、本発明の撮影装置を、スマートフォンを含むカメラ付き携帯電話のカメラに適用することも可能である。また、本発明の撮影装置の機能を、例えば、ゲーム機、タブレットPC(Personal Computer)、ノートPC、DVD(Digital Versatile Disk)レコーダおよびブルーレイディスク(登録商標)レコーダなどの情報処理装置に設けてもよい。以下では、本発明の撮影装置の機能を備えたデジタルカメラの場合についての実施形態を説明する。 Note that the photographing apparatus of the present invention can also be applied to a camera of a camera-equipped mobile phone including a smartphone. Further, the function of the photographing apparatus of the present invention may be provided in an information processing apparatus such as a game machine, a tablet PC (Personal Computer), a notebook PC, a DVD (Digital Versatile Disk) recorder, and a Blu-ray Disc (registered trademark) recorder. Good. In the following, an embodiment in the case of a digital camera having the function of the photographing apparatus of the present invention will be described.
本実施形態のデジタルカメラの構成を説明する。図3は本実施形態のデジタルカメラの一構成例を示すブロック図である。 The configuration of the digital camera of this embodiment will be described. FIG. 3 is a block diagram illustrating a configuration example of the digital camera of the present embodiment.
図3に示すように、本実施形態のデジタルカメラは、レンズ1および撮像素子2を含むモジュール21と、撮像素子2から受信する信号を処理する画像信号処理部3と、撮像素子2で取り込まれた画像を表示する表示デバイス5と、画像データを保存する記憶部6と、録音用のマイク7と、匂いを検出する匂いセンサ8と、各部を構成するMPU(Micro Processing Unit)4とを有する。
As shown in FIG. 3, the digital camera of the present embodiment is captured by the
太陽光などの光が被写体で反射した光がレンズ1を介して撮像素子2の受光部(不図示)に入力される。モジュール21には、位置制御に関する制御信号を画像信号処理部3から受信すると、レンズ1を光軸方向に移動させる駆動機構(不図示)が設けられ、駆動機構は撮像素子2の受光部で被写体の像のピントが合うようにレンズ1の位置を調節する。撮像素子2は、レンズ1を介して受光部に入力される光を電気信号に変換して画像信号処理部3に送信する。表示デバイス5は、例えば、液晶ディスプレイである。記憶部6は、例えば、不揮発性メモリおよびハードディスクドライブなどの記憶装置である。
Light reflected by the subject such as sunlight is input to the light receiving unit (not shown) of the
匂いセンサ8は、匂い物質を捕捉すると電気信号を発生するセンサがアレイ化して複数設けられている。この複数のセンサのそれぞれは、発生する電気信号の大きさが匂い物質の種類で異なるため、検出対象の匂いに応じて、複数のセンサから出力される電気信号のパターンが異なる。匂いセンサ8は、匂いを検出したときに複数のセンサから出力される電気信号のパターンを、匂いデータとしてMPU4に送信する。なお、本実施形態の匂いセンサ8に、特許文献2に開示された匂いセンサを用いてもよく、この場合、特許文献2の図2の表に示される検出値のパターンが匂いデータに相当する。
The
画像信号処理部3は、静止画/動画のライブビューモードの動作開始の指示を含む制御信号をMPU4から受信すると、撮像素子2およびレンズ1を起動する。画像信号処理部3は、撮像素子2からBayer画像データを受信すると、Bayer画像データを用いてAE(Auto Exposure:自動露出)/AF(Auto Focus)の検波を行い、ピントが合うようにレンズ1の位置制御を行い、適切な光量になるように撮像素子2の露光制御を行う。また、画像信号処理部3は、静止画のライブビュー、動画のライブビュー/録画のいずれのモードでも、Bayer画像データに対して、WB(ホワイトバランス)、ガンマ補正、エッジ強調、ノイズリダクションおよび色処理等の処理を行った後、最終的に映像データであるYUV画像データに変換してMPU4に送信する。YUVは、画像の色情報を表す形式の一種であり、輝度信号(Y)と、輝度信号と青色成分の差(U)、および輝度信号と赤色成分の差(V)の3つの情報を意味する。画像信号処理部3は、MPU4から静止画のライブビューのモードで静止画キャプチャの指示を受け取ると、表示デバイス5で表示される1画像分のYUV画像データを最終的にJPEG(Joint Photograph Experts Group)データに変換してMPU4に送信する。
The image
また、画像信号処理部3は、一定の周期でBayer画像データを受信すると、被写体までの距離および画像データの明るさ等の情報から利用者が撮影しようとしているシーンを検出し、被写体に人物を含むか否か等の情報を含む検出結果をMPU4に送信する。以下では、この検出結果の情報を「シーン判定画像データ」と称する。また、画像信号処理部3は、MPU4から画像処理に関する設定情報を受け取ると、その設定情報を反映させたYUV画像データをMPU4に送信する。画像信号処理部3のシーン検出動作およびシーン判定画像データについては、図5および図6を参照して詳しく説明する。
Further, when receiving the Bayer image data at a constant cycle, the image
MPU4は、プログラムを格納するメモリ41を有し、プログラムにしたがって処理を実行することで、図3に示す制御部42、シーン検出部43およびシーン判定部44が仮想的に構成される。メモリ41には、匂いデータからシーンを特定するための匂い基準テーブルが予め格納されている。匂い基準テーブルには、複数のシーンのそれぞれに対応して、各種匂いの典型的な電気信号のパターンを示す匂いパターンが登録されている。匂いパターンの電気信号のパターンは、匂いデータの電子信号のパターンに対応している。
The
制御部42は、利用者から操作部(不図示)を介して静止画/動画のライブビューモードを起動する旨の指示が入力されると、動作開始の指示を含む制御信号を画像信号処理部3に送信し、画像信号処理部3からYUV画像データを受信すると、YUV画像データを表示デバイス5に送信し、画像を表示デバイス5に表示させる。利用者から操作部(不図示)を介して静止画キャプチャの指示が入力されると、制御部42は、画像信号処理部3から受信するJPEGデータを記憶部6に格納する。動画録画時、制御部42は、画像信号処理部3から受信するYUV画像データと、マイク7を介して入力される音のデータであるサウンドデータとを結合して動画データを作成し、動画データを記憶部6に格納する。
When an instruction for starting a still image / moving image live view mode is input from the user via an operation unit (not shown), the
続いて、シーン検出部43とシーン判定部44について説明する。匂いデータに基づくシーン検出処理、および2種類のデータに基づくシーン特定処理は、静止画のライブビュー/キャプチャ時、動画のライブビュー/録画時のいずれでの場合でも行うことが可能であるが、ここでは、静止画ライブビューの場合で説明する。
Next, the
シーン検出部43は、匂いセンサ8から受信する匂いデータに対して、一定の周期で、メモリ41に予め格納されている匂い基準テーブルを参照し、受信した匂いデータを匂い基準テーブルに登録された匂いパターンと照合する。そして、シーン検出部43は、受信した匂いデータに最も近い匂いパターンを選択し、選択した匂いパターンに対応するシーンを匂い基準テーブルから読み出し、読み出したシーンを検出結果として保持する。以下では、この検出結果の情報を「シーン判定匂いデータ」と称する。
The
シーン検出部43は、シーン判定匂いデータを保持している状態で、シーン判定部44からシーン判定匂いデータの要求があると、保持していたシーン判定匂いデータをシーン判定部44に渡す。本実施形態では、シーン判定匂いデータを、シーンを特定するためのデータの1つとして利用することに特徴がある。
When the
なお、本実施形態では、メモリ41に格納された匂い基準テーブルに、森林、潮、火薬、ミルク、化粧品、動物、花および食べ物のそれぞれの匂いパターンが予め登録されているものとする。ここでは、化粧品、動物、花および食べ物の匂いについては詳しく記載しないが、化粧品、動物、花および食べ物のジャンルのそれぞれについて、複数種の匂いが登録されていてもよい。
In the present embodiment, it is assumed that odor patterns of forest, tide, gunpowder, milk, cosmetics, animals, flowers, and food are registered in advance in the odor reference table stored in the
シーン判定部44は、画像信号処理部3からシーン判定画像データを受信すると、シーン検出部43にシーン判定匂いデータを要求し、シーン検出部43から受信するシーン判定匂いデータと画像信号処理部3から受信したシーン判定画像データとを用いてシーンを特定する。つまり、シーン判定部44は、画像信号処理部3がBayer画像データから検出したシーンと、シーン検出部43が匂いセンサ8を介して受信した匂いデータから検出したシーンとの2種類のデータに基づいて、シーンを特定する。そして、シーン判定部44は、特定したシーンに対応する設定情報を画像信号処理部3に送信する。
When the
画像処理に関する設定情報として、シーン毎に最適な設定情報を記述した設定情報テーブルをメモリ41に予め保存しておいてもよい。この場合、シーン判定部44は、シーンを特定すると、設定情報テーブルを参照し、特定したシーンに応じた設定情報を読み出して画像信号処理部3に送信し、画像信号処理部3に対して設定変更を実行させる。
As setting information related to image processing, a setting information table describing optimum setting information for each scene may be stored in the
シーン判定部44が特定したシーンに対応して、画像処理の設定変更を行うことで、レンズ1の位置、撮像素子2の露光、および画像信号処理部3の画像処理が、シーンに応じて変更される。その結果、設定変更が反映されたYUV画像データがMPU4を介して表示デバイス5に送られ、そのデータの画像が表示デバイス5に表示される。また、設定変更は静止画キャプチャモードのキャプチャ画像にも反映されるため、キャプチャした場合は、設定変更が反映されたJPEGデータが記憶部6に保存される。
By changing the setting of image processing corresponding to the scene specified by the
次に、本実施形態のデジタルカメラの動作を説明する。図4は本実施形態のデジタルカメラの動作の一例を示すシーケンス図であり、本実施形態のデジタルカメラがシーンの特定を一定の周期で繰り返し行う場合を示す。ここでは、静止画ライブビューモードの場合で説明する。 Next, the operation of the digital camera of this embodiment will be described. FIG. 4 is a sequence diagram showing an example of the operation of the digital camera of this embodiment, and shows a case where the digital camera of this embodiment repeatedly specifies a scene at a constant cycle. Here, the case of the still image live view mode will be described.
利用者が本実施形態のデジタルカメラに静止画ライブビューモードを起動する旨の指示を入力すると、画像信号処理部3およびMPU4のシーン検出部43のそれぞれはシーンの検出を開始する。画像信号処理部3およびシーン検出部43は一定の周期でシーンの検出を繰り返す。図4に示す例では、シーン検出にかかる時間が画像信号処理部3よりもシーン検出部43の方が短いため、シーン検出部43は、匂いデータからシーンを検出すると、検出したシーンの情報を含むシーン判定匂いデータを保持する(図4に示す番号201)。シーン検出にかかる時間は、画像信号処理部3の方がシーン検出部43よりも短くてもよい。
When the user inputs an instruction to activate the still image live view mode to the digital camera of this embodiment, each of the image
続いて、画像信号処理部3がBayer画像データからシーンを検出すると、検出したシーンの情報を含むシーン判定画像データをMPU4のシーン判定部44に送信する(図4に示す番号202)。シーン判定部44は、シーン判定画像データを画像信号処理部3から受信すると、シーン判定匂いデータをシーン検出部43に要求し、シーン判定匂いデータをシーン検出部43から受け取る(図4に示す番号203)。
Subsequently, when the image
シーン判定部44は、シーン判定画像データおよびシーン判定匂いデータの2種類のデータに基づいてシーンを特定する(図4に示す番号204)。その後、シーン判定部44は、特定したシーンに対応する設定情報を画像信号処理部3に送信する(図4に示す番号205)。その結果、画像処理に関する設定情報の最適値が画像信号処理部3に通知される。さらに、シーン判定部44は、シーンの特定が終了したことを画像信号処理部3に通知する(図4に示す番号206)。画像信号処理部3は、シーンの特定が終了した旨の情報をシーン判定部44から受信すると、撮像素子2から受信するBayer画像データを用いて、次のシーンの検出を行う。
The
このようにして、利用者が本実施形態のデジタルカメラに静止画ライブビューモード停止の指示を入力するまで、画像信号処理部3およびシーン検出部43のそれぞれが同じ周期であるが、非同期でシーンの検出を繰り返し、シーン判定部44が2種類のデータに基づいてシーンを特定し、特定したシーンに対応して画像処理の設定を行う。
In this way, the image
次に、図4に示したフロー図において、画像信号処理部3がBayer画像データからシーンを検出する際の動作を説明する。図5は画像データに基づくシーン検出条件の例を示す表であり、図6は画像信号処理部が実行するシーン検出動作の手順を示すフローチャートである。
Next, the operation when the image
図5に示す表には、検出シーンがNo.1〜7に分類され、各検出シーンに対応して、検出条件が記述されている。No.1〜7のいずれにも該当しない場合、シーン検出対象外(No.8)として判定される。図5に示す表がメモリ41に予め格納されている。
In the table shown in FIG. The detection conditions are described corresponding to each detection scene. No. When it does not correspond to any of 1 to 7, it is determined that the scene is not detected (No. 8). The table shown in FIG. 5 is stored in the
図5に示す表において、Dは本実施形態のデジタルカメラから被写体までの距離がマクロ距離であるか否かの閾値である。Bv1、Bv2、Bv3およびBv4のそれぞれは、明るさ(ブライトバリュー)を判定するための閾値であり、画像に風景、トワイライトおよび夜景のうち、いずれが含まれているかを判定するための基準値となる。大きさの関係は、Bv4<Bv3<Bv2<Bv1である。T1およびT2は色温度を判定するための閾値である。大きさの関係は、T2<T1である。 In the table shown in FIG. 5, D is a threshold value indicating whether or not the distance from the digital camera of the present embodiment to the subject is a macro distance. Each of Bv1, Bv2, Bv3, and Bv4 is a threshold value for determining brightness (bright value), and a reference value for determining which one of landscape, twilight, and night view is included in the image. Become. The size relationship is Bv4 <Bv3 <Bv2 <Bv1. T1 and T2 are threshold values for determining the color temperature. The magnitude relationship is T2 <T1.
表5のNo.5〜No.7の検出シーンの検出条件を比較すると、夜間の風景である夜景よりも昼間の風景の方が明るいので、明るさについて、No.5の検出条件はBv1以上になっており、No.7の検出条件はBv4より小さい。このことは、表5のNo.2とNo.3の検出条件についても同様である。 No. in Table 5 5-No. When the detection conditions of the detection scene of No. 7 are compared, the daytime scenery is brighter than the nighttime scenery, which is a nighttime scenery. No. 5 detection condition is Bv1 or higher. The detection condition of 7 is smaller than Bv4. This is shown in Table 5. 2 and No. The same applies to the third detection condition.
また、トワイライト(No.6の検出シーン)の撮影では、明るさが昼間の風景の場合よりも暗く、夜景の場合よりも明るいので、明るさの検出条件はBv3以上、Bv2未満となっている。このことは、色温度にも反映され、色温度での検出条件は、昼間の風景の場合がT1以上であるのに対し、トワイライトの場合はT2(<T1)以上になっている。色情報での検出条件では、トワイライトの撮影では空が赤みを帯びているので、画像に「赤色」が含まれるのに対し、昼間の風景では「緑色」や「青色」が画像に含まれている。 Also, in the shooting of twilight (No. 6 detection scene), the brightness is darker than in the case of daytime scenes and brighter than in the case of night scenes, so the brightness detection condition is Bv3 or more and less than Bv2. . This is also reflected in the color temperature, and the detection condition at the color temperature is T1 or more in the case of a landscape in the daytime, whereas T2 (<T1) or more in the case of twilight. In the detection condition with color information, the sky is reddish in twilight shooting, so the image contains “red”, whereas the daytime landscape contains “green” and “blue”. Yes.
図6に示すように、画像信号処理部3は、自装置から被写体までの距離がD以下か否かを調べることで、その距離がマクロ距離か否かを判定する(ステップ301)。画像信号処理部3は、ステップ301において、自装置から被写体までの距離がD以下で、マクロ距離と判定すると、画像から人物の顔を検出できるか否かを調べる(ステップ302)。画像信号処理部3は、画像から顔を検出した場合、人物を接写するシーンと判定し(ステップ303)、画像から顔を検出できない場合、利用者がマクロで人物以外の被写体を撮影するシーンと判定する(ステップ304)。なお、ステップ303の場合は、図5に示すNo.4の検出シーンに含まれる。
As shown in FIG. 6, the image
ステップ301において、画像信号処理部3は、自装置から被写体までの距離がDより小さく、マクロ距離でないと判定すると、画像から人物の顔を検出できるか否かを調べる(ステップ305)。画像信号処理部3は、画像から顔を検出すると、画像データから明るさ、色温度および色情報を参照し、画像から風景を検出できるか否かを調べる(ステップ306)。画像信号処理部3は、画像データから明るさ≧Bv1、および色温度≧T1を検出し、色情報として青色および緑色を検出すると、利用者が人物と風景を撮影するシーンと判定する(ステップ307)。ステップ306で風景を検出できなければ、画像信号処理部3は、明るさ、色温度および色情報を参照し、画像から夜景を検出できるか否かを調べる(ステップ308)。画像信号処理部3は、画像データから明るさ<Bv4を検出すると、利用者が人物と夜景を撮影するシーンと判定する(ステップ309)。画像から風景も夜景も検出できない場合、画像信号処理部3は、利用者が人物を主にして撮影するシーンと判定する(ステップ310)。
In step 301, when the image
一方、ステップ305において、画像信号処理部3は、画像から人物の顔を検出できない場合、画像データから明るさ、色温度および色情報を参照し、画像から風景、トワイライトおよび夜景のいずれかが検出できるか判定する(ステップ311、313、315)。画像信号処理部3は、画像データから明るさ≧Bv1、および色温度≧T1を検出し、色情報として青色および緑色を検出すると、利用者が風景を撮影するシーンと判定する(ステップ312)。画像信号処理部3は、画像データからBv3≦明るさ<Bv2、および色温度≧T2を検出し、色情報として赤色を検出すると、利用者がトワイライトを撮影するシーンと判定する(ステップ314)。画像信号処理部3は、画像データから明るさ<Bv4を検出すると、利用者が夜景を撮影するシーンと判定する(ステップ316)。画像信号処理部3は、画像から風景、トワイライトおよび夜景のいずれも検出できない場合、シーン検出の対象外であると判定する(ステップ317)。
On the other hand, in
画像信号処理部3は、図5に示す表を参照しながら、図6に示す手順にしたがって利用者の撮影シーンを検出すると、図5に示す表における検出シーンの項目の「マクロ」、「人物+風景」、・・・、「夜景」のうちのいずれかのシーンまたは「シーン外」を、検出したシーンの情報として、シーン判定画像データに含める。
When the image
次に、図4に示したシーケンス図において、シーン検出部43が匂いデータからシーンを検出する際の動作を、図7を参照して説明する。図7は匂いデータに基づくシーン検出の例を示す図である。図7は、検出される匂いと匂い基準テーブルに登録されているシーンとの組み合わせを示す表の一例である。
Next, the operation when the
図7に示すように、シーン検出部43は、匂いデータに最も近い匂いパターンが森林の匂いのパターンであると、森林が被写体に含まれていると判定する。また、シーン検出部43は、匂いデータに最も近い匂いパターンが潮の匂いのパターンであると、海が被写体に含まれていると判定する。
As illustrated in FIG. 7, the
また、シーン検出部43は、匂いデータに最も近い匂いパターンが火薬の匂いのパターンであると、花火が被写体に含まれていると判定する。シーン検出部43は、匂いデータに最も近い匂いパターンがミルクの匂いのパターンであると、赤ちゃんが被写体に含まれていると判定する。シーン検出部43は、匂いデータに最も近い匂いパターンが化粧品の匂いのパターンであると、女性が被写体に含まれていると判定する。シーン検出部43は、匂いデータに最も近い匂いパターンが動物の匂いのパターンであると、ペットが被写体に含まれていると判定する。
Further, the
図7では、「各種花」の匂いに対応して「各種花」が記述されている。これは、複数種の花のそれぞれの匂いに、複数種の花のそれぞれが対応していることを意味しており、花の種類に応じて匂いと花の名前を組み合わせて記述することを、省略している。図7に示す「各種食べ物」についても、花の場合と同様に、複数種の食べ物のそれぞれの匂いに、複数種の食べ物のそれぞれが対応している。 In FIG. 7, “various flowers” are described corresponding to the smell of “various flowers”. This means that each of the multiple types of flowers corresponds to the odor of each of the multiple types of flowers, and that the odor and the name of the flower are combined according to the type of flower. Omitted. As for “various foods” shown in FIG. 7, as in the case of flowers, each of the plurality of types of food corresponds to the odor of each of the plurality of types of food.
シーン検出部43は、匂いデータからシーンを検出すると、図7に示す表における検出シーンの「森林」、「海」、・・・、「各種食べ物」のうち、1以上の要素を、検出したシーンの情報として、シーン判定匂いデータに含める。シーン判定匂いデータには、被写体の情報が含まれることになる。また、シーン検出部43が匂いデータから複数の要素を検出した場合、シーン判定匂いデータに2以上の要素が含まれることになる。
When the
なお、本実施形態では、シーン検出部43が匂いデータから複数の要素を検出すると、検出した要素を全てシーン判定匂いデータに含める場合で説明しているが、予め決められた優先順位にしたがって、シーン判定匂いデータに含める要素の数を絞ってもよい。例えば、優先度が大きいほど優先順位が高いとすると、優先度を「赤ちゃん>女性>ペット>森林>海」のように予め決めておき、優先度の最も大きい2つの要素をシーン判定匂いデータに含めるようにしてもよい。優先度の順位はこの場合に限らない。ただし、検出シーンが図5に示した「人物+風景」および「風景」の場合には、シーン特定の際、「森林」または「海」の要素が必要になるため、シーン検出部43は、「森林」または「海」の要素を検出した場合、その要素を常にシーン判定匂いデータに含めるようにしてもよい。
In the present embodiment, when the
次に、シーン判定部44が2種類のデータに基づいてシーンを特定する際の動作を説明する。図8はシーン判定画像データとシーン判定匂いデータを組み合わせることで特定されるシーンの例を示す表である。図8に示す表がメモリ41に予め格納されている。
Next, an operation when the
図8に示すように、シーン判定画像データのシーンの情報に対応して、特定されるシーンが「マクロ」〜「夜景」および「シーン外」の8つのグループに分類されている。図8に示すように、シーン判定画像データで特定される各グループについて、シーン判定匂いデータのシーンの情報に対応して、「花火」、「海」、・・・、および「各種食べ物」などに分類されている。例えば、シーン判定画像データで「マクロ」に分類されたグループでは、匂いデータで「花火」、「各種花」、「各種食べ物」、および「それ以外」に細分化されている。 As shown in FIG. 8, the scenes to be identified are classified into eight groups of “macro” to “night view” and “outside scene” corresponding to the scene information of the scene determination image data. As shown in FIG. 8, for each group specified by the scene determination image data, “fireworks”, “sea”,..., “Various foods”, etc., corresponding to the scene information of the scene determination odor data It is classified. For example, in a group classified as “macro” in the scene determination image data, the odor data is subdivided into “fireworks”, “various flowers”, “various foods”, and “other than that”.
シーン判定画像データに基づいて、人物が含まれると判定されたシーンのグループでは、シーン判定匂いデータに基づいて、人物が赤ちゃん/女性に細分化され、風景が森林/海/花火に細分化され、人物以外に含まれる被写体としてペット/各種花/各種食べ物に細分化されている。 In a group of scenes determined to contain a person based on the scene determination image data, the person is subdivided into babies / women and the landscape is subdivided into forest / sea / fireworks based on the scene determination odor data. The subjects included other than the person are subdivided into pets / various flowers / various foods.
シーン判定画像データに基づいて「風景」と判定されたシーンのグループでは、シーン判定匂いデータに基づいて、風景が森林/海に細分化され、風景と共に画像に含まれる被写体がペット/各種花に細分化されている。シーン判定画像データに基づいて「トワイライト」と判定されたシーンのグループでは、シーン判定匂いデータに基づいて、海とそれ以外に細分化されている。 In a group of scenes determined to be “landscape” based on the scene determination image data, the landscape is subdivided into forest / sea based on the scene determination odor data, and the subject included in the image together with the landscape is a pet / various flower. It is subdivided. A group of scenes determined to be “twilight” based on the scene determination image data is subdivided into the sea and other areas based on the scene determination odor data.
シーン判定画像データに基づいて「夜景」と判定されたシーンのグループでは、シーン判定匂いデータに基づいて、花火とそれ以外に細分化されている。シーン判定画像データからは、「マクロ」〜「夜景」の7つのグループのいずれにも該当しないと判定されたシーンのグループでは、シーン判定匂いデータに基づいて、被写体が森林/海/花火/ペット/各種花/各種食べもの/それ以外に細分化されている。 The group of scenes determined to be “night scene” based on the scene determination image data is subdivided into fireworks and others based on the scene determination odor data. From the scene determination image data, in the group of scenes determined not to correspond to any of the seven groups “macro” to “night view”, the subject is forest / sea / fireworks / pet based on the scene determination odor data. / Various flowers / Various foods / Others.
シーン判定部44は、図8の表に示すように、シーン判定画像データの情報に基づいて、8つの分類から1つのグループを選択し、シーン判定匂いデータの情報に基づいて、画像に含まれる被写体となる要素を選択することで、最終的なシーンを特定する。例えば、シーン判定画像データに「人物+風景」の情報が含まれており、シーン判定匂いデータに「女性」の情報が含まれている場合、シーン判定部44は、図8の表に示すNo.8の「女性+風景」のシーンと特定する。
As shown in the table of FIG. 8, the
次に、シーン判定部44が特定したシーンに対応して、画像信号処理部3に通知する設定情報の具体例を説明する。図9は、シーン判定部が特定したシーンに対応する、画像処理の設定情報の例を示す表である。図9に示す表がメモリ41に予め格納されている。
Next, a specific example of the setting information notified to the image
シーン判定部44は、特定したシーンに応じて、画像のコントラスト、明るさ、シャープネス、および色合いなどを、シーン判定匂いデータで特定される被写体に応じて最適化する設定情報を画像信号処理部3に通知する。また、シーン判定部44は、被写体に応じて、画像信号処理部3に対して画像変換の処理を指示してもよい。画像変換の処理とは、例えば、被写体が女性であれば、検出した顔の小じわ、シミおよびくすみなどを消去したり、顔の中で目や口などのパーツを大きくしたりすることである。小じわ、シミおよびくすみなどを消去することで、透明感のある肌にする効果が得られ、目や口を大きくすることで、目や口元の存在感がアップする効果が得られる。
The
図9に示す小項目が「赤ちゃん」の場合の設定に示すように、シーン判定部44は、被写体の人物が笑顔になったことを検出したときの画像をキャプチャする「スマイルシャッター」をONにする旨の設定を、画像信号処理部3に対して行ってもよい。
As shown in the setting when the small item shown in FIG. 9 is “baby”, the
本実施形態によれば、シーン特定のための情報として、画像データだけでなく、画像とは情報の種類が異なる匂いデータも使用しているため、シーンをより細かく特定することが可能になる。シーンを細かく特定することで、シーンに特化した効果を画像に対してかけることができる。また、シーン特定に使用する匂いデータに被写体の情報が反映されているので、画像データの被写体に対して画像処理を設定することが可能である。よって、本実施形態では、画像処理が間違って設定されてしまうことを抑制でき、利用者は自分が想定するシーンにより合致したシーンの画像を取得できる。 According to the present embodiment, not only image data but also odor data having a type of information different from that of an image is used as information for specifying a scene, so that a scene can be specified more finely. By specifying the scene in detail, an effect specific to the scene can be applied to the image. In addition, since the subject information is reflected in the odor data used for scene specification, it is possible to set image processing for the subject of the image data. Therefore, in this embodiment, it can suppress that an image process is set incorrectly, and the user can acquire the image of the scene which matched with the scene which he assumes.
なお、本実施形態では、Bayer画像データからのシーン検出および匂いデータからのシーン検出を、画像信号処理部3およびMPU4で別々に実行させる場合で説明したが、これらのシーン検出の両方をMPU4に実行させてもよい。この場合、MPU4は、画像信号処理部3からシーン検出に使用するBayer画像データを受け取り、図5および図6を参照して説明したように、画像データからシーンの検出を行う。
In the present embodiment, the scene detection from the Bayer image data and the scene detection from the odor data have been described as being separately executed by the image
また、匂いデータでは赤ちゃんが検出されているが、画像データでは人物の顔が検出されていない場合や、匂いデータから森林が検出されているが、画像データでは風景が検出されていない場合など、匂いデータで検出されたシーンと画像データで検出されたシーンとが合致しない場合も起こり得る。このような場合に、画像処理をどのように設定するかを決めておいてもよい。シーンをより細かく特定できるようになるため、シーンの細分化およびシーン検出精度の向上を図ることができる。 In addition, baby is detected in odor data, but human face is not detected in image data, forest is detected from odor data, but landscape is not detected in image data, etc. There may be a case where the scene detected by the odor data and the scene detected by the image data do not match. In such a case, how to set the image processing may be determined. Since the scene can be specified more finely, the scene can be subdivided and the scene detection accuracy can be improved.
また、画像データの圧縮形式はJPEGに限らず、画像データの形式はBayer画像データおよびYUV画像データに限らない。例えば、表示部デバイス5に画像を表示させる際、制御部42がYUV画像データをRGB画像データに変換して表示デバイス5に送信してもよい。
The compression format of image data is not limited to JPEG, and the format of image data is not limited to Bayer image data and YUV image data. For example, when displaying an image on the
また、本実施形態では、説明を簡単にするために、被写体が動いている場合や撮影が逆光の場合を除外し、検出対象のシーンが一般的なシーンの場合で説明したが、本実施形態のデジタルカメラに加速度センサを設け、加速度センサが行う手ブレ検出、ならびに画像信号処理部3が行う動体検出および逆光判定のうち、少なくともいずれかの要素を、画像データおよび匂いデータのそれぞれから検出されるシーンに組み合わせることで、特定するシーンをより細分化してもよい。
Further, in this embodiment, for the sake of simplicity of explanation, the case where the subject is moving or the case where shooting is backlit is excluded, and the case where the scene to be detected is a general scene has been described. The digital camera is provided with an acceleration sensor, and at least one of the camera shake detection performed by the acceleration sensor and the moving object detection and backlight determination performed by the image
1 レンズ
2 撮像素子
3 画像信号処理部
4 MPU
5 表示デバイス
6 記憶部
7 マイク
8 匂いセンサ
11 撮影装置
12 画像検出手段
13 匂い検出手段
14 シーン検出手段
1
DESCRIPTION OF
Claims (6)
匂いデータに基づいてシーンを検出する匂い検出手段と、
前記画像検出手段で検出されたシーンと前記匂い検出手段で検出されたシーンとに基づいてシーンを特定するシーン検出手段と、
を有する撮影装置。 Image detection means for detecting a scene based on image data;
Odor detection means for detecting a scene based on odor data;
Scene detection means for specifying a scene based on the scene detected by the image detection means and the scene detected by the odor detection means;
A photographing apparatus having
前記画像検出手段は、前記画像データに基づいてシーンを検出した後、前記画像データに対して所定の設定に基づいて画像処理を行うものであり、
前記シーン検出手段は、特定したシーンに対応して、前記画像処理の設定を前記画像検出手段に変更させる、撮影装置。 The imaging device according to claim 1,
The image detecting means detects a scene based on the image data and then performs image processing on the image data based on a predetermined setting.
The scene detection unit causes the image detection unit to change the setting of the image processing corresponding to the specified scene.
前記シーン検出手段は、
前記画像データに基づいて検出されるシーンと前記匂いデータに基づいて検出されるシーンとの組み合わせで特定されるシーン毎に、前記画像処理に関する設定情報が記述されたテーブルを予め保持し、該テーブルを参照して、前記特定したシーンに対応する前記設定情報を前記テーブルから読み出して前記画像検出手段に通知することで、前記画像処理の設定を該画像検出手段に変更させる、撮影装置。 The imaging device according to claim 2,
The scene detection means includes
For each scene specified by a combination of a scene detected based on the image data and a scene detected based on the odor data, a table in which setting information related to the image processing is described is stored in advance. Referring to FIG. 4, the image capturing apparatus reads the setting information corresponding to the identified scene from the table and notifies the image detecting unit to change the image processing setting to the image detecting unit.
前記シーン検出手段は、
前記匂いデータに基づいて検出されたシーンから被写体を特定し、特定した被写体に対応して、該被写体に対する前記画像処理の設定を前記画像検出手段に変更させる、撮影装置。 In the imaging device according to claim 2 or 3,
The scene detection means includes
An imaging apparatus that identifies a subject from a scene detected based on the odor data, and causes the image detection unit to change the image processing setting corresponding to the identified subject.
匂いデータに基づいてシーンを検出し、
前記画像データで検出されたシーンと前記匂いデータで検出されたシーンとに基づいてシーンを特定する、撮影画像処理方法。 Detect scenes based on image data,
Detect scenes based on odor data,
A captured image processing method for specifying a scene based on a scene detected from the image data and a scene detected from the odor data.
画像データに基づいてシーンを検出し、
匂いデータに基づいてシーンを検出し、
前記画像データで検出されたシーンと前記匂いデータで検出されたシーンとに基づいてシーンを特定する処理を前記コンピュータに実行させるためのプログラム。 A program for causing a computer to execute,
Detect scenes based on image data,
Detect scenes based on odor data,
A program for causing a computer to execute a process of specifying a scene based on a scene detected from the image data and a scene detected from the odor data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011200350A JP2013062711A (en) | 2011-09-14 | 2011-09-14 | Photographing device, photographed image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011200350A JP2013062711A (en) | 2011-09-14 | 2011-09-14 | Photographing device, photographed image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013062711A true JP2013062711A (en) | 2013-04-04 |
Family
ID=48187010
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011200350A Withdrawn JP2013062711A (en) | 2011-09-14 | 2011-09-14 | Photographing device, photographed image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013062711A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014184541A (en) * | 2013-03-25 | 2014-10-02 | Denso Wave Inc | Arm operation method and arm operation device |
JP2014184540A (en) * | 2013-03-25 | 2014-10-02 | Denso Wave Inc | Arm operation method and arm operation device |
JP2014184538A (en) * | 2013-03-25 | 2014-10-02 | Denso Wave Inc | Arm operation method and arm operation device |
JP2016052092A (en) * | 2014-09-02 | 2016-04-11 | カシオ計算機株式会社 | Imaging device, image processing device, display control device, image correction method and program |
-
2011
- 2011-09-14 JP JP2011200350A patent/JP2013062711A/en not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014184541A (en) * | 2013-03-25 | 2014-10-02 | Denso Wave Inc | Arm operation method and arm operation device |
JP2014184540A (en) * | 2013-03-25 | 2014-10-02 | Denso Wave Inc | Arm operation method and arm operation device |
JP2014184538A (en) * | 2013-03-25 | 2014-10-02 | Denso Wave Inc | Arm operation method and arm operation device |
JP2016052092A (en) * | 2014-09-02 | 2016-04-11 | カシオ計算機株式会社 | Imaging device, image processing device, display control device, image correction method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI511558B (en) | Image sensor having hdr capture capability | |
US8786749B2 (en) | Digital photographing apparatus for displaying an icon corresponding to a subject feature and method of controlling the same | |
JP6401324B2 (en) | Dynamic photo shooting method and apparatus | |
JP6720881B2 (en) | Image processing apparatus and image processing method | |
US9253406B2 (en) | Image capture apparatus that can display review image, image capture method, and storage medium | |
JP5125734B2 (en) | Imaging apparatus, image selection method, and image selection program | |
US20150189142A1 (en) | Electronic apparatus and method of capturing moving subject by using the same | |
WO2015180683A1 (en) | Mobile terminal, method and device for setting image pickup parameters, and computer storage medium | |
CN116744120B (en) | Image processing method and electronic device | |
JP7110406B2 (en) | IMAGING DEVICE, IMAGING METHOD, AND PROGRAM | |
JP2007124292A (en) | Imaging apparatus, imaging method, and imaging program | |
JP2013062711A (en) | Photographing device, photographed image processing method, and program | |
US8681245B2 (en) | Digital photographing apparatus, and method for providing bokeh effects | |
KR102351496B1 (en) | Image processing apparatus and method for operating thereof | |
JP2014179920A (en) | Imaging apparatus, control method thereof, program, and storage medium | |
JP2019169985A (en) | Image processing apparatus | |
CN113891008B (en) | Exposure intensity adjusting method and related equipment | |
JP5392336B2 (en) | Imaging apparatus, imaging method, and imaging program | |
US20210400192A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2015041865A (en) | Image processing apparatus and image processing method | |
JP2013046217A (en) | Photographing device, photographed image processing method, and program | |
JP2015119436A (en) | Imaging apparatus | |
CN116051368B (en) | Image processing method and related device | |
WO2023160221A1 (en) | Image processing method and electronic device | |
JP2008271181A (en) | Imaging apparatus and imaging method, reproducing device and reproducing method, and imaged image processing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20141202 |