JP2009267467A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2009267467A
JP2009267467A JP2008110982A JP2008110982A JP2009267467A JP 2009267467 A JP2009267467 A JP 2009267467A JP 2008110982 A JP2008110982 A JP 2008110982A JP 2008110982 A JP2008110982 A JP 2008110982A JP 2009267467 A JP2009267467 A JP 2009267467A
Authority
JP
Japan
Prior art keywords
image
photographer
unit
control unit
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008110982A
Other languages
Japanese (ja)
Other versions
JP5104517B2 (en
Inventor
Shinichi Furukawa
眞一 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008110982A priority Critical patent/JP5104517B2/en
Publication of JP2009267467A publication Critical patent/JP2009267467A/en
Application granted granted Critical
Publication of JP5104517B2 publication Critical patent/JP5104517B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging device that performs suitable photography. <P>SOLUTION: The imaging device includes an image obtaining section which obtains a first image and a second image different from the first image, a recognition section which recognizes the presence of a photographer using the second image, and a control section which controls setting for obtaining the first image into setting suitable to person photography when the recognition section cannot recognize the presence of the photographer. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮影装置に関する。   The present invention relates to a photographing apparatus.

前方の被写体を撮影するメインカメラに加えて、メインカメラとは異なる方向の画像を撮影するサブカメラを搭載した撮影装置が知られている。一方、撮影者自身が被写体となって自分の画像を撮影する自分撮り撮影において、撮影者の顔が撮影画角内に収まっているか否かを確認する必要があり、ミラーを用いたり顔認識機能を用いて撮影者の顔が撮影画角内に収まっているか否かを確認する技術が知られている(例えば、特許文献1参照)。   2. Description of the Related Art In addition to a main camera that captures a subject in front, an imaging apparatus that includes a sub camera that captures an image in a direction different from that of the main camera is known. On the other hand, in self-portrait shooting where the photographer himself takes a picture of himself / herself, it is necessary to check whether the photographer's face is within the shooting angle of view. There is known a technique for confirming whether or not a photographer's face is within a shooting angle of view by using (see, for example, Patent Document 1).

ところが、顔認識機能などを用いて自分撮り撮影をアシストする撮影装置は、撮影者自身が自分撮り撮影のモードに設定する必要があった。このため、通常の被写体撮影と自分撮り撮影とが混在して頻繁に利用される場合は、撮影する度に、撮影装置を自分撮り撮影モードに設定したり、通常の撮影モードに設定し直したりする必要があり、煩わしい操作を行わなければならないという問題があった。
特開2007−324877号公報
However, a photographing apparatus that assists self-photographing using a face recognition function or the like needs to be set to a self-photographing mode by the photographer himself. For this reason, if normal subject shooting and self-portrait shooting are often used together, the shooting device may be set to self-shooting mode or re-set to normal shooting mode each time shooting is performed. There is a problem that it is necessary to perform an annoying operation.
JP 2007-324877 A

本発明の課題は、好適な撮影を行うことができる撮影装置を提供することである。   The subject of this invention is providing the imaging device which can perform suitable imaging | photography.

本発明に係る撮影装置は、第1画像、及び、前記第1画像とは異なる第2画像を取得する画像取得部と、前記第2画像を用いて撮影者の存在を認識する認識部と、前記認識部により前記撮影者の存在を認識できないとき、前記第1画像を取得するときの設定を人物撮影に適した設定にするように制御する制御部とを有することを特徴とする。   An imaging device according to the present invention includes a first image and an image acquisition unit that acquires a second image different from the first image, a recognition unit that recognizes the presence of a photographer using the second image, And a control unit that controls the setting for acquiring the first image to be a setting suitable for portrait photography when the recognition unit cannot recognize the presence of the photographer.

また、好ましくは、前記制御部は、前記認識部により前記撮影者の存在を認識できないとき、前記撮影者が前記撮影者自身を撮影する自分撮り撮影モードになるように制御することを特徴とする。   Preferably, the control unit controls the photographer to be in a self-photographing mode in which the photographer photographs the photographer himself when the recognition unit cannot recognize the presence of the photographer. .

また、好ましくは、前記第1画像を形成する第1光学系と、前記第1光学系とは異なる向きに備えられ、前記第2画像を形成する第2光学系とを有することを特徴とする。   Preferably, the optical system includes a first optical system that forms the first image and a second optical system that is provided in a different direction from the first optical system and forms the second image. .

また、好ましくは、前記第1画像を表示するための表示部を有し、前記第2光学系は、前記表示部に近接して備えられていることを特徴とする。   Preferably, the image display device further includes a display unit for displaying the first image, and the second optical system is provided in proximity to the display unit.

また、好ましくは、前記制御部は、前記認識部により前記撮影者の存在を認識できないとき、前記第1画像を取得する際の前記画像取得部の撮影モード、画角、露出、コントラストの少なくとも一つの設定を変えるように制御することを特徴とする。   Preferably, when the recognition unit cannot recognize the presence of the photographer, the control unit at least one of a shooting mode, an angle of view, an exposure, and a contrast of the image acquisition unit when acquiring the first image. It is characterized by controlling to change one setting.

また、好ましくは、前記認識部で認識された前記撮影者が前記第1画像に検出されたとき、本撮影を開始するための撮影開始信号を発生する撮影開始信号発生部を有することを特徴とする。   Preferably, the image processing apparatus further includes a shooting start signal generation unit that generates a shooting start signal for starting main shooting when the photographer recognized by the recognition unit is detected in the first image. To do.

また、好ましくは、前記撮影開始信号発生部は、前記認識部により前記撮影者の存在が認識された後、所定時間内に前記撮影者が前記第1画像に検出されたとき前記撮影開始信号を発生することを特徴とする。   Preferably, the imaging start signal generation unit outputs the imaging start signal when the photographer is detected in the first image within a predetermined time after the recognition unit recognizes the presence of the photographer. It is generated.

また、好ましくは、前記撮影者に確認情報を報知する確認報知部を更に設け、前記制御部は、前記認識部が前記第1画像または前記第2画像のいずれかに前記撮影者の存在を認識したとき、前記確認報知部から前記撮影者に確認情報を報知することを特徴とする。   Preferably, a confirmation notifying unit for notifying the photographer of confirmation information is further provided, and the control unit recognizes the presence of the photographer in either the first image or the second image. Then, the confirmation notification unit notifies the photographer of confirmation information.

また、好ましくは、前記認識部は、前記第1画像で前記撮影者の顔を認識し、前記制御部は、前記第1画像で認識した前記撮影者の顔が前記第1画像の画角内に入るように、前記第1光学系の焦点距離を可変することを特徴とする。   Preferably, the recognition unit recognizes the photographer's face in the first image, and the control unit recognizes the photographer's face recognized in the first image within the angle of view of the first image. The focal length of the first optical system is varied so as to enter.

また、好ましくは、前記撮影者にエラー情報を報知するエラー報知部を更に設け、前記制御部は、前記第1光学系の焦点距離を可変した場合でも、前記第1画像で認識した前記撮影者の顔が前記第1画像の画角内に入らない場合は、前記エラー報知部から撮影者にエラー情報を報知することを特徴とする。   Preferably, an error notification unit that notifies the photographer of error information is further provided, and the control unit recognizes the first image even when the focal length of the first optical system is varied. When the face does not fall within the angle of view of the first image, the error notification unit notifies the photographer of error information.

また、好ましくは、前記撮影装置の動きを検出する加速度センサを更に設け、前記認識部は、前記加速度センサが検出する前記撮影装置の動きが所定値内になったとき、前記第1画像または前記第2画像において前記撮影者の認識を開始することを特徴とする。   Preferably, an acceleration sensor for detecting the movement of the photographing apparatus is further provided, and the recognition unit detects the first image or the movement when the movement of the photographing apparatus detected by the acceleration sensor falls within a predetermined value. In the second image, recognition of the photographer is started.

本発明に係る撮影装置は、第1画像とは異なる第2画像を取得して撮影者を認識するので、撮影者が撮影者自身を第1画像として撮影する自分撮り撮影モードへの移行や撮影動作をアシストすることができる。   Since the photographing device according to the present invention acquires a second image different from the first image and recognizes the photographer, the photographing device shifts to a self-photographing photographing mode in which the photographer photographs the photographer himself as the first image. The operation can be assisted.

以下、本発明に係る撮影装置に関する実施形態について図面を用いて詳しく説明する。   Hereinafter, embodiments relating to an imaging apparatus according to the present invention will be described in detail with reference to the drawings.

(第1の実施形態)
図1は、第1の実施形態に係る撮影装置101の構成を示すブロック図である。撮影装置101は、メインカメラ102と、サブカメラ103と、共通部104とで構成される。尚、共通部104は、説明が分かり易いように、メインカメラ102とサブカメラ103とに共通するブロックをまとめたものである。従って、実際にはメインカメラ102とサブカメラ103と共通部104との明確な境界はなく、1つの撮影装置101内に搭載されていればよい。
(First embodiment)
FIG. 1 is a block diagram illustrating a configuration of the photographing apparatus 101 according to the first embodiment. The photographing apparatus 101 includes a main camera 102, a sub camera 103, and a common unit 104. The common unit 104 is a group of blocks common to the main camera 102 and the sub camera 103 so that the explanation is easy to understand. Therefore, in practice, there is no clear boundary between the main camera 102, the sub camera 103, and the common unit 104, as long as they are mounted in one photographing apparatus 101.

共通部104は、制御部105と、操作部106と、液晶モニタ107と、メモリ108と、メモリカード109を接続するカードI/F110と、加速度センサ111とで構成される。   The common unit 104 includes a control unit 105, an operation unit 106, a liquid crystal monitor 107, a memory 108, a card I / F 110 that connects the memory card 109, and an acceleration sensor 111.

共通部104において、撮影者は、操作部106を用いて撮影装置101を操作する。制御部105は、内部に予め組み込まれたプログラムに従って動作し、操作部106から得られる操作情報に応じて、撮影装置101の各ブロックを制御する。また、制御部105は、メインカメラ102やサブカメラ103から得られる画像や、メニュー画面などを液晶モニタ107に表示する。メモリ108は、制御部105が処理する際のパラメータや画像情報などが記憶される。また、制御部105は、メインカメラ102やサブカメラ103から得られる撮影画像をカードI/F110を介してメモリカード109に保存する。加速度センサ111は、撮影装置101の手振れなどを検出するセンサである。   In the common unit 104, the photographer operates the photographing apparatus 101 using the operation unit 106. The control unit 105 operates according to a program incorporated therein in advance, and controls each block of the photographing apparatus 101 according to operation information obtained from the operation unit 106. Further, the control unit 105 displays an image obtained from the main camera 102 and the sub camera 103, a menu screen, and the like on the liquid crystal monitor 107. The memory 108 stores parameters, image information, and the like when the control unit 105 performs processing. In addition, the control unit 105 stores captured images obtained from the main camera 102 and the sub camera 103 in the memory card 109 via the card I / F 110. The acceleration sensor 111 is a sensor that detects camera shake or the like of the photographing apparatus 101.

次に、メインカメラ102は、レンズ光学系112と、撮像部113と、アナログ信号処理部114と、A/D変換部115と、画像バッファ116と、デジタル信号処理部117と、AE部118と、フラッシュ119と、AF部120と、AFライト121と、レンズ駆動部122とで構成され、第1画像を撮影する。   Next, the main camera 102 includes a lens optical system 112, an imaging unit 113, an analog signal processing unit 114, an A / D conversion unit 115, an image buffer 116, a digital signal processing unit 117, and an AE unit 118. The flash 119, the AF unit 120, the AF light 121, and the lens driving unit 122 are used to capture the first image.

メインカメラ102において、被写体から入射する光はレンズ光学系112を介して撮像部113の受光面に結像される。   In the main camera 102, light incident from the subject is imaged on the light receiving surface of the imaging unit 113 via the lens optical system 112.

撮像部113は、受光面に光電変換部が二次元状に配置され、結像された光を電気信号に変換し、アナログ信号処理部114に出力する。   The imaging unit 113 has a photoelectric conversion unit arranged two-dimensionally on the light receiving surface, converts the imaged light into an electrical signal, and outputs the electrical signal to the analog signal processing unit 114.

アナログ信号処理部114は、撮像部113が出力する電気信号のノイズ除去や増幅などを行ってA/D変換部115に出力する。   The analog signal processing unit 114 performs noise removal and amplification of the electrical signal output from the imaging unit 113 and outputs the result to the A / D conversion unit 115.

A/D変換部115は、アナログの電気信号を画像データに変換し、画像バッファ116に一時的に記憶する。   The A / D converter 115 converts an analog electrical signal into image data and temporarily stores it in the image buffer 116.

デジタル信号処理部117は、画像バッファ116に一時的に記憶された画像データの色補正処理などの画像処理を行って制御部105に出力する。制御部105は、デジタル信号処理部117が画像処理したメインカメラ102の撮影画像をメモリ108やメモリカード109に記憶したり、液晶モニタ107に表示する。また、本実施形態では、デジタル信号処理部117は、制御部105の指令に応じて、画像解析処理などを行う。例えば、制御部105の指令に応じて顔認識処理を行い、画像バッファ116に一時的に記憶された撮影画像の撮影画角内に顔が入っているか否かを識別し、識別結果を制御部105に返す。   The digital signal processing unit 117 performs image processing such as color correction processing of image data temporarily stored in the image buffer 116 and outputs the processed image data to the control unit 105. The control unit 105 stores the captured image of the main camera 102 processed by the digital signal processing unit 117 in the memory 108 or the memory card 109 or displays it on the liquid crystal monitor 107. In the present embodiment, the digital signal processing unit 117 performs an image analysis process or the like in response to a command from the control unit 105. For example, face recognition processing is performed in accordance with an instruction from the control unit 105, whether or not a face is within the shooting angle of view of the captured image temporarily stored in the image buffer 116, and the identification result is determined by the control unit. Return to 105.

AE部118は、制御部105が指定したエリアで露出測定した結果を制御部105に出力し、制御部105は、撮像部113での露光量を制御したり、必要に応じてフラッシュ119を発光させる。   The AE unit 118 outputs the result of exposure measurement in the area designated by the control unit 105 to the control unit 105, and the control unit 105 controls the exposure amount in the imaging unit 113 or emits the flash 119 as necessary. Let

AF部120は、制御部105が指定したエリアで焦点位置を検出して制御部105に出力し、制御部105は、AFライト121を点灯させたり、レンズ駆動部122に指令してレンズ光学系112のフォーカスレンズの位置を制御する。尚、制御部105は、操作部106のズーム操作に応じて、レンズ光学系112のズームレンズを移動するようレンズ駆動部122に指令し、レンズ光学系112の焦点距離を可変する。   The AF unit 120 detects the focal position in the area designated by the control unit 105 and outputs it to the control unit 105. The control unit 105 turns on the AF light 121 or instructs the lens driving unit 122 to instruct the lens optical system. The position of the focus lens 112 is controlled. Note that the control unit 105 instructs the lens driving unit 122 to move the zoom lens of the lens optical system 112 in accordance with the zoom operation of the operation unit 106, thereby changing the focal length of the lens optical system 112.

次に、サブカメラ103は、レンズ光学系123と、撮像部124と、アナログ信号処理部125と、A/D変換部126と、画像バッファ127と、デジタル信号処理部128とで構成され、第2画像を撮影する。   Next, the sub camera 103 includes a lens optical system 123, an imaging unit 124, an analog signal processing unit 125, an A / D conversion unit 126, an image buffer 127, and a digital signal processing unit 128. Take two images.

サブカメラ103において、被写体から入射する光はレンズ光学系123を介して撮像部124の受光面に結像される。   In the sub camera 103, light incident from the subject is imaged on the light receiving surface of the imaging unit 124 via the lens optical system 123.

撮像部124は、受光面に二次元状に配置された光電変換部で結像された光を電気信号に変換し、アナログ信号処理部125に出力する。   The imaging unit 124 converts the light imaged by the photoelectric conversion unit arranged two-dimensionally on the light receiving surface into an electrical signal and outputs the electrical signal to the analog signal processing unit 125.

アナログ信号処理部125は、撮像部124が出力する電気信号のノイズ除去や増幅などを行ってA/D変換部126に出力する。   The analog signal processing unit 125 performs noise removal and amplification of the electrical signal output from the imaging unit 124 and outputs the result to the A / D conversion unit 126.

A/D変換部126は、アナログの電気信号を画像データに変換し、画像バッファ127に一時的に記憶する。   The A / D converter 126 converts an analog electric signal into image data and temporarily stores it in the image buffer 127.

デジタル信号処理部128は、画像バッファ127に一時的に記憶された画像データの色補正処理などの画像処理を行って制御部105に出力する。また、本実施形態では、デジタル信号処理部128は、制御部105の指令に応じて、画像解析処理を行う。例えば、制御部105の指令に応じて顔認識処理を行い、画像バッファ127に一時的に記憶された撮影画像の中に顔があるか否かの判別,顔の特徴や顔の表情の抽出,瞳位置の検出などを行って、その結果を制御部105に出力する。制御部105は、デジタル信号処理部128の処理結果に応じて、撮影装置101の設定や動作を制御する。尚、具体的な処理については、後で詳しく説明する。また、制御部105は、メインカメラ102の場合と同様に、デジタル信号処理部128が画像処理したサブカメラ103の撮影画像をメモリ108やメモリカード109に記憶したり、液晶モニタ107に表示するようにしても構わない。また、サブカメラ103には、メインカメラ102のように、AE部118,フラッシュ119,AF部120,AFライト121,レンズ駆動部122などに相当するブロックは描いてないが、これらのブロックと同等のブロックを設けても構わない。   The digital signal processing unit 128 performs image processing such as color correction processing of image data temporarily stored in the image buffer 127 and outputs the processed image data to the control unit 105. In the present embodiment, the digital signal processing unit 128 performs image analysis processing in response to a command from the control unit 105. For example, face recognition processing is performed in response to a command from the control unit 105, whether or not there is a face in the captured image temporarily stored in the image buffer 127, extraction of facial features and facial expressions, The pupil position is detected and the result is output to the control unit 105. The control unit 105 controls settings and operations of the photographing apparatus 101 according to the processing result of the digital signal processing unit 128. Specific processing will be described later in detail. Further, as in the case of the main camera 102, the control unit 105 stores the captured image of the sub camera 103 processed by the digital signal processing unit 128 in the memory 108 or the memory card 109 or displays it on the liquid crystal monitor 107. It doesn't matter. In addition, the sub camera 103 does not draw blocks corresponding to the AE unit 118, the flash unit 119, the AF unit 120, the AF light 121, the lens driving unit 122, and the like, like the main camera 102, but is equivalent to these blocks. This block may be provided.

次に、撮影装置101の外観について説明する。図2(a)は、撮影装置101の正面方向の様子を描いた図である。図2(b)は、撮影装置101の背面方向の様子を描いた図である。図2(a)および図2(b)において、図1と同符号のものは同じものを示す。撮影装置101の筐体には、図1の操作部106に含まれる各種の操作ボタンが配置されている。例えば、電源ボタン151、レリーズボタン152、ズームボタン153、OKボタン154、上下左右のカーソルボタン155,156,157,158が配置されており、これらの操作ボタンの操作情報は、制御部105に出力される。   Next, the appearance of the photographing apparatus 101 will be described. FIG. 2A is a diagram depicting a state of the imaging apparatus 101 in the front direction. FIG. 2B is a diagram depicting the state of the photographing apparatus 101 in the back direction. 2A and 2B, the same reference numerals as those in FIG. 1 denote the same components. Various operation buttons included in the operation unit 106 in FIG. 1 are arranged on the housing of the photographing apparatus 101. For example, a power button 151, a release button 152, a zoom button 153, an OK button 154, up / down / left / right cursor buttons 155, 156, 157, 158 are arranged, and operation information of these operation buttons is output to the control unit 105. Is done.

図2(a)に示すように、撮影装置101の正面部分にはメインカメラ102のレンズ光学系112が配置され、図2(b)に示すように、撮影装置101の背面部分にはサブカメラ103のレンズ光学系123が配置されているので、メインカメラ102のレンズ光学系112とサブカメラ103のレンズ光学系123とは互いに異なる方向を撮影することができる。特に、本実施形態に係る撮影装置101は、サブカメラ103のレンズ光学系123は、図2(b)に示すように、撮影装置101の背面の液晶モニタ107と同方向に配置されているので、液晶モニタ107の画面を見ながら撮影しようとする撮影者の顔を撮影することができるようになっている。尚、サブカメラ103のレンズ光学系123は、メインカメラ102で撮影する画像を表示する液晶モニタにできるだけ近接して配置するのが望ましい。   As shown in FIG. 2A, the lens optical system 112 of the main camera 102 is disposed in the front portion of the photographing apparatus 101, and the sub camera is disposed in the rear portion of the photographing apparatus 101 as shown in FIG. Since the lens optical system 123 of 103 is arranged, the lens optical system 112 of the main camera 102 and the lens optical system 123 of the sub camera 103 can photograph different directions. In particular, in the photographing apparatus 101 according to the present embodiment, the lens optical system 123 of the sub camera 103 is arranged in the same direction as the liquid crystal monitor 107 on the back surface of the photographing apparatus 101 as shown in FIG. The face of the photographer who wants to take a picture can be taken while looking at the screen of the liquid crystal monitor 107. The lens optical system 123 of the sub camera 103 is desirably arranged as close as possible to a liquid crystal monitor that displays an image photographed by the main camera 102.

次に、本実施形態に係る撮影装置101の動作について図3のフローチャートを用いて説明する。尚、図3のフローチャートは、制御部105の内部に予め組み込まれたプログラムに従って動作し、制御部105は、必要に応じて、メインカメラ102側のデジタル信号処理部117やサブカメラ103側のデジタル信号処理部125に画像処理を行わせる。以下、撮影装置101の動作について順に説明する。   Next, the operation of the photographing apparatus 101 according to the present embodiment will be described using the flowchart of FIG. Note that the flowchart of FIG. 3 operates according to a program incorporated in the control unit 105 in advance, and the control unit 105 performs digital signal processing unit 117 on the main camera 102 side and digital signal on the sub camera 103 side as necessary. The signal processing unit 125 performs image processing. Hereinafter, the operation of the photographing apparatus 101 will be described in order.

(ステップS101)撮影者は、撮影装置101の電源ボタン151を押下して電源をONする。制御部105は、先ずメインカメラ102を起動し、先に説明したように、レンズ光学系112を介して撮像部113が撮影した画像を液晶モニタ107にプレビュー表示する。撮影者は、このプレビュー表示を見ながら撮影する被写体を確認する。   (Step S101) The photographer presses the power button 151 of the photographing apparatus 101 to turn on the power. The control unit 105 first activates the main camera 102 and displays a preview of the image captured by the imaging unit 113 via the lens optical system 112 on the liquid crystal monitor 107 as described above. The photographer confirms the subject to be photographed while viewing the preview display.

(ステップS102)制御部105は、サブカメラ103を起動し、先に説明したように、レンズ光学系123を介して撮像部124が撮影する画像は、画像バッファ127に取り込まれる。   (Step S <b> 102) The control unit 105 activates the sub camera 103, and the image captured by the image capturing unit 124 via the lens optical system 123 is taken into the image buffer 127 as described above.

(ステップS103)制御部105は、加速度センサ111の出力をモニタして、撮影装置101の筐体が静止したか否かを判別する。ここで、加速度センサ111の出力が零または所定範囲内にある時を静止と見なす。撮影装置101の筐体が静止した場合はステップS104に進み、撮影装置101の筐体が静止していない場合はステップS103の処理を繰り返す。尚、この判別処理は、撮影者が被写体を撮影するために撮影装置101を構えたか否かを判別するためのものなので、撮影装置101の筐体が静止したか否かの判別は、筐体の完全な静止を判別する必要はない。例えば、撮影者が撮影装置101をパンやチルトさせているような安定した動作を検出している場合は「Yes」の判断を行うようにしても構わない。   (Step S <b> 103) The control unit 105 monitors the output of the acceleration sensor 111 and determines whether or not the casing of the photographing apparatus 101 is stationary. Here, when the output of the acceleration sensor 111 is zero or within a predetermined range, it is regarded as stationary. If the casing of the photographing apparatus 101 is stationary, the process proceeds to step S104. If the casing of the photographing apparatus 101 is not stationary, the process of step S103 is repeated. Note that this determination processing is for determining whether or not the photographer is holding the photographing apparatus 101 to photograph the subject, and therefore the determination of whether or not the casing of the photographing apparatus 101 is stationary It is not necessary to determine the complete quiesce of For example, if the photographer detects a stable operation such as panning or tilting the photographing apparatus 101, the determination of “Yes” may be performed.

(ステップS104)制御部105は、サブカメラ103のデジタル信号処理部128に、画像解析処理を行うよう指令する。ここで、画像解析処理について説明する。画像解析処理は、サブカメラ103で撮影されている画像を解析して、撮影されている被写体を判別する処理である。特に、本実施形態では、サブカメラ103で撮影されている画像の中に顔があるか否かを解析する。例えば、サブカメラ103で図4(a)のような所定サイズ以上の顔が含まれた画像を撮影している場合は、顔が含まれていると判別する。尚、図4(b)のように顔が完全に含まれていない場合や、図4(c)のように顔の大きさが所定サイズ以下の場合は、顔が含まれていないと判別する。また、顔があるか否かの判別処理は、顔の輪郭や目,鼻,口の配置など顔の特徴量を用いて、顔があるか否かの判別を行っても構わないし、画像自体の相関を取るパターン認識処理によって判別しても構わない。   (Step S104) The control unit 105 instructs the digital signal processing unit 128 of the sub camera 103 to perform image analysis processing. Here, the image analysis processing will be described. The image analysis processing is processing for analyzing an image captured by the sub camera 103 and determining a captured subject. In particular, in the present embodiment, it is analyzed whether or not there is a face in the image captured by the sub camera 103. For example, when the sub camera 103 is capturing an image including a face of a predetermined size or more as shown in FIG. 4A, it is determined that the face is included. When the face is not completely included as shown in FIG. 4B or when the face size is equal to or smaller than the predetermined size as shown in FIG. 4C, it is determined that the face is not included. . In addition, the determination process of whether or not there is a face may be performed by determining whether or not there is a face by using facial features such as the face outline and the arrangement of eyes, nose, and mouth. It may be determined by a pattern recognition process that takes the above correlation.

(ステップS105)制御部105は、ステップS104で画像解析処理の結果、サブカメラ103で撮影されている画像に顔が含まれている場合はステップS106に進み、サブカメラ103で撮影されている画像に顔が含まれていない場合はステップS120の自分撮り撮影モードに進む。   (Step S105) As a result of the image analysis processing in step S104, the control unit 105 proceeds to step S106 if the image captured by the sub camera 103 includes a face, and the image captured by the sub camera 103. If no face is included, the process proceeds to the self-photographing mode in step S120.

つまり、自分撮り撮影を行う場合は、撮影者はメインカメラ102の被写体となるので、メインカメラ102と逆方向を撮影しているサブカメラ103側で撮影者の顔が撮影されることはない、という前提に基づいている。ここでは、サブカメラ103で撮影者の存在を認識できないとき、制御部105は、自動的に自分撮り撮影モードに移行し、同時に人物撮影に好適な露出設定、コントラスト設定などを行う。   That is, when taking a self-portrait, the photographer becomes the subject of the main camera 102, so the face of the photographer is not photographed by the sub camera 103 that is photographing in the opposite direction to the main camera 102. It is based on the assumption. Here, when the sub camera 103 cannot recognize the presence of the photographer, the control unit 105 automatically shifts to the self-portrait shooting mode, and simultaneously performs exposure setting, contrast setting, and the like suitable for portrait shooting.

(ステップS106)制御部105は、サブカメラ103のデジタル信号処理部128に、表情を検出するよう指令する。ここで、表情とは、例えば顔の形や目・鼻・口の位置や形など顔の特徴を意味する。検出した顔の特徴は、サブカメラ103が起動されて最初に認識した顔の表情とする。尚、後で説明するように、初期表情は、顔の表情の変化を検出する基になる画像である。従って、最も顔の表情の変化が少ないタイミングが好ましい。一般に、撮影開始直後の表情は喜怒哀楽の少ない通常の表情である場合が多いので、電源が投入され、カメラが静止したタイミングで初期表情の検出を行っている。   (Step S <b> 106) The control unit 105 instructs the digital signal processing unit 128 of the sub camera 103 to detect facial expressions. Here, the expression means facial features such as the shape of the face and the position and shape of the eyes, nose and mouth. The detected facial features are the facial expressions recognized first when the sub camera 103 is activated. As will be described later, the initial facial expression is an image on which a change in facial expression is detected. Therefore, the timing with the least change in facial expression is preferable. In general, the facial expression immediately after the start of shooting is often a normal facial expression with little emotion, so the initial facial expression is detected when the power is turned on and the camera is stationary.

(ステップS107)制御部105は、ステップS106で検出した顔の特徴がメモリ108に予め登録されている顔の特徴に一致するか否かを判別する。メモリ108に予め登録されている顔の特徴に一致する場合はステップS108に進み、メモリ108に予め登録されている顔の特徴のいずれにも一致しない場合はステップS109に進む。尚、メモリ108に予め登録されている顔の特徴のいずれにも一致しない場合に、検出した顔の特徴を新たにメモリ108に登録するか否かを撮影者に選択させるメニューを液晶モニタ107に表示して、追加登録できるようにしても構わない。   (Step S107) The control unit 105 determines whether or not the facial feature detected in step S106 matches the facial feature registered in the memory 108 in advance. If it matches the facial feature registered in the memory 108 in advance, the process proceeds to step S108, and if it does not match any facial feature registered in the memory 108, the process proceeds to step S109. Note that if the face feature does not match any of the facial features registered in advance in the memory 108, a menu for allowing the photographer to select whether or not to newly register the detected facial feature in the memory 108 is displayed on the liquid crystal monitor 107. It may be displayed so that it can be additionally registered.

尚、制御部105は、ステップS106で検出した顔の特徴がメモリ108に予め登録されている顔の特徴に一致した場合に、液晶モニタ107を点滅させたり、一致した登録人物の名前や画像を液晶モニタ107に表示したり、液晶モニタ107の明るさを変えて点滅させて、撮影者に登録人物と一致したことを知らせるようにしても構わない。或いは、電子音発生部を設けて電子音で撮影者に知らせるようにしても構わない。   When the facial feature detected in step S106 matches the facial feature registered in advance in the memory 108, the control unit 105 blinks the liquid crystal monitor 107 or displays the matched registered person's name and image. It may be displayed on the liquid crystal monitor 107 or blinked by changing the brightness of the liquid crystal monitor 107 so that the photographer is informed that it matches the registered person. Alternatively, an electronic sound generation unit may be provided to notify the photographer with an electronic sound.

(ステップS108)制御部105は、ステップS106で検出した顔の表情に一致する撮影者専用の撮影モードを撮影装置101に設定する。尚、メモリ108には、登録されている顔の特徴に一致する撮影者に対応させて、撮影装置101の撮影モードを予め記憶してあるものとする。例えば、図5に示すように、撮影モードとして感度・輪郭・コントラストを専用の設定にする場合、撮影者Aの顔の特徴に一致する時は感度:ISO400、輪郭:中、コントラスト:弱の撮影モードに設定する。或いは、撮影者Bの顔の特徴に一致する時は感度:ISO100、輪郭:ソフト、コントラスト:中の撮影モードに設定する。同様に、撮影者Cの顔の特徴に一致する時は感度:ISO1600、輪郭:シャープ、コントラスト:強の撮影モードに設定する。   (Step S <b> 108) The control unit 105 sets a photographing mode for the photographer that matches the facial expression detected in step S <b> 106 in the photographing apparatus 101. It is assumed that the shooting mode of the shooting apparatus 101 is stored in advance in the memory 108 in correspondence with the photographer who matches the registered facial features. For example, as shown in FIG. 5, when sensitivity, contour, and contrast are set as dedicated shooting modes, when the photographer A matches the facial features of the photographer A, sensitivity: ISO 400, contour: medium, contrast: weak Set to mode. Alternatively, when it matches the characteristics of the face of the photographer B, the photographing mode is set to sensitivity: ISO100, contour: soft, contrast: medium. Similarly, when matching with the facial features of the photographer C, the photographing mode is set to sensitivity: ISO 1600, contour: sharp, contrast: strong.

(ステップS109)制御部105は、サブカメラ103のデジタル信号処理部128に、瞳位置を検出するよう指令する。この瞳位置の検出によって、撮影者の視線の認識を行うことができる。ここで、瞳位置の検出とは、瞳が目のどの位置にあるかを検出するもので、例えば、図6(a)の場合は「中央」(撮影者の視線は正面方向)、図6(b)の場合は「左」(撮影者の視線は右方向)、図6(c)の場合は「右」(撮影者の視線は左方向)のように検出する。尚、図6は実物の撮影者の目および瞳位置を描いたものではなく、サブカメラ103で撮影された撮影者の目および瞳位置を描いたものなので、例えば図6で瞳位置が紙面左側にあれば撮影者の視線方向は右方向になり、瞳位置が紙面右側にあれば撮影者の視線方向は左方向になる。また、図6では、分かり易いように、瞳位置を中央および左右の3つに分けて検出する場合について示したが、上下方向を含めてさらに細かく瞳位置を検出するようにしても構わない。   (Step S109) The control unit 105 instructs the digital signal processing unit 128 of the sub camera 103 to detect the pupil position. By detecting this pupil position, the line of sight of the photographer can be recognized. Here, the detection of the pupil position is to detect where the pupil is in the eye. For example, in the case of FIG. 6A, “center” (photographer's line of sight is the front direction), FIG. In the case of (b), “left” (the photographer's line of sight is directed in the right direction) is detected, and in the case of FIG. 6 (c), “right” (the photographer's line of sight is directed in the left direction) is detected. 6 does not depict the eyes and pupil positions of the actual photographer, but depicts the eyes and pupil positions of the photographer photographed by the sub camera 103. For example, in FIG. If it is, the photographer's line-of-sight direction is rightward, and if the pupil position is on the right side of the page, the photographer's line-of-sight direction is leftward. Further, in FIG. 6, for the sake of easy understanding, the case where the pupil position is detected separately in the center and the left and right is shown, but the pupil position may be detected more finely including the vertical direction.

(ステップS110)制御部105は、ステップS109で検出した瞳位置に応じて、メインカメラ102で撮影する画像の主要被写体の位置を推定する。例えば、図7の撮影画像201において、図6(a)の場合は撮影画像201の中央部分aの位置に主要被写体があるものと推定する。また、図6(b)の場合は撮影画像201の右側部分bの位置に主要被写体があるものと推定する。同様に、図6(c)の場合は撮影画像201の左側部分cの位置に主要被写体があるものと推定する。   (Step S110) The control unit 105 estimates the position of the main subject in the image captured by the main camera 102 according to the pupil position detected in step S109. For example, in the captured image 201 of FIG. 7, in the case of FIG. 6A, it is estimated that the main subject is at the position of the central portion a of the captured image 201. In the case of FIG. 6B, it is estimated that the main subject is located at the position of the right portion b of the captured image 201. Similarly, in the case of FIG. 6C, it is estimated that the main subject is present at the position of the left side portion c of the captured image 201.

尚、このようにして推定した主要被写体の位置は、撮影時の露出制御やフォーカス制御に利用される。例えば、制御部105はAE部118から入力する際の露出測定を主要被写体の位置で行うことにより、主要被写体に最適な露出制御を行うことができる。或いは、制御部105は、AF部120から入力する焦点位置の検出を主要被写体の位置で行うことにより、主要被写体部分に焦点を合わせることができる。   The position of the main subject estimated in this way is used for exposure control and focus control during shooting. For example, the control unit 105 can perform optimal exposure control for the main subject by performing exposure measurement at the position of the main subject when inputting from the AE unit 118. Alternatively, the control unit 105 can focus on the main subject portion by detecting the focus position input from the AF unit 120 at the position of the main subject.

(ステップS111)制御部105は、サブカメラ103のデジタル信号処理部128に、顔の表情を検出するよう指令する。尚、顔の表情の検出は、ステップS106と同様に、例えば顔の形や目・鼻・口の位置や形など顔の特徴を基に顔の表情を検出する。   (Step S <b> 111) The control unit 105 instructs the digital signal processing unit 128 of the sub camera 103 to detect facial expressions. The facial expression is detected in the same manner as in step S106, for example, based on facial features such as the shape of the face and the position and shape of the eyes, nose and mouth.

ここで、顔の表情を検出する一例として、笑顔の度合いを検出する例について図8を用いて説明する。図8(a)は笑顔のない通常の表情、図8(b)は小さな笑顔の表情、図8(c)は大きな笑顔の表情である。   Here, as an example of detecting the facial expression, an example of detecting the degree of smile will be described with reference to FIG. FIG. 8A shows a normal expression without a smile, FIG. 8B shows a small expression, and FIG. 8C shows a big expression.

例えば、笑顔の度合いを検出するために、サブカメラ103のデジタル信号処理部128は、口角と目尻の傾きの変化を検出する。この一例を図9に示す。図9の(a),(b),(c)は、それぞれ図8の(a),(b),(c)の顔の表情に対応し、口と目の特徴を抜き出したものである。一般的な人間の顔は、笑顔になると口角は上がり、逆に目尻は下がる。例えば、図9(a)に描いたように、笑顔のない通常の表情の場合は、口角は上がっておらず、逆に目尻は下がっていない。これに対して、小さな笑顔になると、図9(b)に描いたように、口角は少し上がり、目尻は少し下がる。さらに、大きな笑顔になると、図9(c)に描いたように、口角は大きく上がり、目尻は大きく下がる。このように、点線円で囲んだ部分の傾きを検出することによって、笑顔の度合いを把握することができる。例えば、図9(a)の場合の口角の傾きは0度で目尻の瞼の傾きは30度、図9(b)の場合の口角の傾きは30度で目尻の瞼の傾きは45度、図9(c)の場合の口角の傾きは60度で目尻の瞼の傾きは60度のように数値で表すことも可能である。尚、口角や目尻の傾きは、一般的な画像処理の手法を用いて求めることができる。例えば、エッジ抽出処理で線画に変換後、直線近似した2点間座標から角度を求めることができる。   For example, in order to detect the degree of smile, the digital signal processing unit 128 of the sub camera 103 detects changes in the mouth corners and the corners of the corners of the eyes. An example of this is shown in FIG. (A), (b), and (c) of FIG. 9 correspond to the facial expressions of (a), (b), and (c) of FIG. 8, respectively, and extract features of the mouth and eyes. . When a general human face smiles, the corner of the mouth goes up and the corner of the eye goes down. For example, as illustrated in FIG. 9A, in the case of a normal facial expression without a smile, the corner of the mouth is not raised, and conversely, the corner of the eye is not lowered. On the other hand, when a small smile is made, as shown in FIG. 9B, the corner of the mouth is slightly raised and the corner of the eye is slightly lowered. Further, when a big smile is made, as shown in FIG. 9 (c), the corner of the mouth rises greatly and the corner of the eye falls greatly. In this way, the degree of smile can be grasped by detecting the inclination of the portion surrounded by the dotted circle. For example, the inclination of the mouth corner in the case of FIG. 9A is 0 degree and the inclination of the eyelid heel is 30 degrees, the inclination of the mouth angle in the case of FIG. 9B is 30 degrees and the inclination of the eyelid heel is 45 degrees, In the case of FIG. 9C, the inclination of the mouth angle can be expressed by a numerical value such as 60 degrees and the inclination of the eyelid ridges of 60 degrees. Incidentally, the inclination of the mouth corner and the corner of the corner of the eye can be obtained using a general image processing technique. For example, the angle can be obtained from the coordinates between two points that are linearly approximated after being converted into a line drawing by edge extraction processing.

(ステップS112)制御部105は、ステップS106で検出した顔の初期表情と、ステップS111で検出した現在の顔の表情とを比較して、顔の表情の変化量を検出する。   (Step S112) The control unit 105 compares the initial facial expression detected in step S106 with the current facial expression detected in step S111, and detects the amount of change in facial expression.

顔の表情の変化量は、ステップS111で説明した例の場合、口角の傾きの変化量と目尻の瞼の傾きの変化量とで表すことができる。例えば、先の例のように、図9(a)の場合の口角の傾きは0度で目尻の瞼の傾きは30度、図9(b)の場合の口角の傾きは30度で目尻の瞼の傾きは45度、図9(c)の場合の口角の傾きは60度で目尻の瞼の傾きは60度であったとする。   In the case of the example described in step S111, the change amount of the facial expression can be represented by the change amount of the inclination of the mouth corner and the change amount of the inclination of the eyelid eyelid. For example, as in the previous example, the inclination of the mouth angle in the case of FIG. 9A is 0 degree and the inclination of the eyelid heel is 30 degrees, and the inclination of the mouth angle in FIG. Assume that the inclination of the eyelid is 45 degrees, the inclination of the mouth angle in the case of FIG. 9C is 60 degrees, and the inclination of the eyelid eyelid is 60 degrees.

ここで、ステップS106で検出した最初の顔の表情(初期表情)を図8(a)とし、ステップS111で検出した現在の顔の表情を図8(b)とする。この場合、ステップS112で検出する顔の表情の変化量は、図9を用いて、口角の変化量が30度−0度=30度、目尻の変化量が45度−30度=15度と計算できる。同様に、ステップS111で検出した現在の顔の表情を図8(c)とする。この場合、ステップS112で検出する顔の表情の変化量は、図9を用いて、口角の変化量が60度−0度=60度、目尻の変化量が60度−30度=30度と計算できる。   Here, the first facial expression (initial facial expression) detected in step S106 is shown in FIG. 8A, and the current facial expression detected in step S111 is shown in FIG. 8B. In this case, as shown in FIG. 9, the change amount of the facial expression detected in step S112 is 30 ° −0 ° = 30 °, and the change in the corner of the eye is 45 ° −30 ° = 15 °. Can be calculated. Similarly, the current facial expression detected in step S111 is shown in FIG. In this case, the amount of change in facial expression detected in step S112 is, as shown in FIG. 9, the amount of change in mouth angle is 60 degrees-0 degrees = 60 degrees and the amount of change in eye corners is 60 degrees-30 degrees = 30 degrees. Can be calculated.

このようにして、顔の表情の変化量を検出することができる。尚、上記の説明では分かり易いように、口角と目尻の傾きを用いて顔の表情の変化を検出するようにしたが、唇の動きなど別の方法により顔の変化を検出するようにしても構わない。   In this way, the amount of change in facial expression can be detected. For the sake of easy understanding in the above description, the facial expression change is detected using the angle of the mouth corner and the corner of the corner of the eye, but the change of the face may be detected by another method such as the movement of the lips. I do not care.

(ステップS113)制御部105は、ステップS112で検出した顔の表情の変化量により、顔の表情が変化したか否かを判別する。顔の表情が変化している場合はステップS114に進み、ステップS111で検出した顔の表情が変化していない場合はステップS116に進む。   (Step S113) The control unit 105 determines whether or not the facial expression has changed based on the amount of change in facial expression detected in step S112. If the facial expression has changed, the process proceeds to step S114. If the facial expression detected in step S111 has not changed, the process proceeds to step S116.

ここで、顔の表情が変化したか否かの判別は、先に説明したように、図9の場合は口角と目尻の傾きが所定値以上変化したか否かによって判別することができる。例えば、口角の変化量が20度以上で目尻の変化量が10度以上を所定値として、顔の表情が変化したか否かを判断する場合、図9(b)および図9(c)は、図9(a)に対して口角および目尻共に所定値以上なので、顔の表情が変化したと判断する。先の例において、仮に口角の変化量が45度以上で目尻の変化量が20度以上を所定値とした場合、図9(c)は、図9(a)に対して口角および目尻共に所定値以上なので、顔の表情が変化したと判断するが、図9(b)は、図9(a)に対して口角および目尻共に所定値未満なので、顔の表情が変化していないと判断する。もちろん、図9(a)の状態のままであっても、顔の表情が変化していないと判断する。   Here, as described above, whether or not the facial expression has changed can be determined based on whether or not the mouth angle and the inclination of the corner of the eye have changed by a predetermined value or more in the case of FIG. For example, when it is determined whether or not the facial expression has changed with a mouth angle change amount of 20 degrees or more and an eye corner change amount of 10 degrees or more as a predetermined value, FIG. 9B and FIG. Referring to FIG. 9 (a), both the corners of the mouth and the corners of the eyes are greater than or equal to predetermined values, so it is determined that the facial expression has changed. In the previous example, if the change amount of the mouth angle is 45 degrees or more and the change amount of the corner of the eye is 20 degrees or more as a predetermined value, FIG. 9C shows both the mouth angle and the corner of the eye in FIG. 9A. Since it is equal to or greater than the value, it is determined that the facial expression has changed, but in FIG. 9B, it is determined that the facial expression has not changed because both the mouth corner and the corner of the eye are less than the predetermined values with respect to FIG. 9A. . Of course, it is determined that the facial expression has not changed even in the state of FIG.

(ステップS114)制御部105は、ステップS111で検出した顔の表情より、笑顔であるか否かを判別する。笑顔である場合はステップS115に進み、笑顔でない場合はステップS116に進む。   (Step S114) The control unit 105 determines whether or not it is a smile from the facial expression detected in step S111. When it is a smile, it progresses to step S115, and when it is not a smile, it progresses to step S116.

ここで、顔の表情が笑顔であるか否かの判別は、図8および図9で説明したように、口角の傾きと目尻の傾きとで判断することができる。例えば、口角の傾きが20度以上で目尻の傾きが40度以上を所定値として、顔の表情が笑顔であるか否かを判断する場合、図9(a)は笑顔ではないと判断され、図9(b)および図9(c)は口角および目尻共に所定値以上なので、笑顔であると判断される。もし、口角の傾きが50度以上で目尻の傾きが40度以上を所定値とした場合、図9(c)は、口角および目尻共に所定値以上なので、笑顔であると判断されるが、図9(b)は、口角および目尻共に所定値未満なので、笑顔ではないと判断される。   Here, as described with reference to FIGS. 8 and 9, it is possible to determine whether the facial expression is a smile based on the inclination of the mouth corner and the inclination of the corner of the eye. For example, when it is determined whether the facial expression is a smile when the inclination of the mouth corner is 20 degrees or more and the inclination of the corner of the eye is 40 degrees or more as a predetermined value, it is determined that FIG. 9B and 9C are determined to be a smile because both the corners of the mouth and the corners of the eyes are equal to or greater than a predetermined value. If the inclination of the mouth corner is 50 degrees or more and the inclination of the corner of the eye is 40 degrees or more as a predetermined value, FIG. 9C is determined to be a smile because both the mouth corner and the corner of the eye are above the predetermined value. 9 (b) is determined not to be a smile because both the corners of the mouth and the corners of the eyes are less than the predetermined values.

尚、口角や目尻の上下移動だけでなく、唇が動いているか否かで判別しても構わない。例えば、被写体が人物の場合は、話をしながら撮影する場合が多いので、撮影者の唇は動いており、被写体が人物であると推定できる。また、ここで判別した笑顔の度合いに応じて、メインカメラ102で撮影した画像のレーティングを行うようにしても構わない。   The determination may be made not only by the vertical movement of the mouth corners and the corners of the eyes, but also by whether or not the lips are moving. For example, when the subject is a person, the photographer often shoots while talking, so the photographer's lips are moving, and it can be estimated that the subject is a person. Further, the image taken by the main camera 102 may be rated according to the degree of smile determined here.

(ステップS115)制御部105は、撮影装置101の撮影モードを人物撮影モードに設定する。尚、人物撮影モードとは、例えば、人の肌などをきれいに見せるための色補正処理や輪郭をソフトにする処理などを行う撮影モードである。人物撮影モードに設定されると、メインカメラ102で画像を撮影する際に、制御部105はメインカメラ102のデジタル信号処理部117に人物撮影に好適な露出設定、コントラスト設定、色補正処理、輪郭処理などを行うよう指令する。   (Step S115) The control unit 105 sets the photographing mode of the photographing apparatus 101 to the person photographing mode. The person photographing mode is a photographing mode in which, for example, color correction processing for making a person's skin look beautiful or processing for softening an outline is performed. When the portrait shooting mode is set, when the main camera 102 captures an image, the control unit 105 causes the digital signal processing unit 117 of the main camera 102 to set exposure settings, contrast settings, color correction processing, and contour suitable for portrait shooting. Commands to perform processing.

(ステップS116)制御部105は、撮影装置101の撮影モードを風景撮影モードに設定する。尚、風景撮影モードとは、例えば、濃淡をきれいに見せるためのコントラスト処理や輪郭をシャープにする処理などを行う撮影モードである。風景撮影モードに設定されると、メインカメラ102で画像を撮影する際に、制御部105はメインカメラ102のデジタル信号処理部117に風景撮影に好適な露出設定、コントラスト設定、色補正処理、輪郭処理などを行うよう指令する。   (Step S116) The control unit 105 sets the photographing mode of the photographing apparatus 101 to the landscape photographing mode. Note that the landscape shooting mode is a shooting mode in which, for example, a contrast process for making the contrast clear and a process for sharpening the contour are performed. When the landscape shooting mode is set, when the main camera 102 captures an image, the control unit 105 causes the digital signal processing unit 117 of the main camera 102 to perform exposure setting, contrast setting, color correction processing, and contour suitable for landscape shooting. Commands to perform processing.

(ステップS117)制御部105は、操作部106のレリーズボタン152が押されると、メインカメラ102での撮影を行う(手動撮影)。撮影処理は、先に説明したように、レンズ光学系112を介して入射される被写体光を撮像部113で光電変換して電気信号に変換し、A/D変換部115でデジタルの画像データに変換され、画像バッファ116に一時的に取り込まれる。   (Step S117) When the release button 152 of the operation unit 106 is pressed, the control unit 105 performs shooting with the main camera 102 (manual shooting). In the photographing process, as described above, subject light incident through the lens optical system 112 is photoelectrically converted by the imaging unit 113 to be converted into an electrical signal, and converted into digital image data by the A / D conversion unit 115. The converted image is temporarily captured in the image buffer 116.

(ステップS118)ステップS117で画像バッファ116に一時的に取り込まれた画像データは、デジタル信号処理部117で撮影モードの応じた色変換処理や輪郭処理などが行われた後、制御部105を介してメモリ108或いはカードI/F110を介してメモリカード109に保存される。また、必要に応じて、液晶モニタ107に表示される。   (Step S 118) The image data temporarily captured in the image buffer 116 in step S 117 is subjected to color conversion processing or contour processing according to the shooting mode in the digital signal processing unit 117, and then via the control unit 105. Are stored in the memory card 109 via the memory 108 or the card I / F 110. Further, it is displayed on the liquid crystal monitor 107 as necessary.

尚、撮影画像をメモリ108やメモリカード109に保存する際に、ステップS114で判別したレーティング結果を保存する画像データにレーティング情報として付加しても構わない。例えば、Exif規格で画像データを保存する場合、レーティング情報の付加はExif規格のユーザーエリアに記録するようにすれば良い。これによって、撮影済みの画像データをチェックするだけで、笑顔であるか否かや、笑顔の度合いなど容易に知ることができる。また、レーティング情報自体は、数値や記号で表しても構わないし、☆印の数などで表しても構わない。   When the captured image is stored in the memory 108 or the memory card 109, the rating result determined in step S114 may be added as rating information to the image data to be stored. For example, when image data is stored in the Exif standard, rating information may be added to a user area in the Exif standard. As a result, it is possible to easily know whether or not it is a smile and the degree of smile by simply checking the captured image data. Also, the rating information itself may be represented by numerical values or symbols, or may be represented by the number of ☆ marks.

(ステップS119)一連の撮影処理を終了し、続けて撮影を行う場合は、ステップS102からの処理を繰り返す。   (Step S119) When the series of photographing processes is finished and the photographing is continuously performed, the processes from Step S102 are repeated.

以上、ステップS105の判別処理において、判別結果が「Yes」の場合の処理について説明した。次に、ステップS105の判別結果が「No」の場合の処理について説明する。   The process when the determination result is “Yes” in the determination process of step S105 has been described above. Next, processing when the determination result in step S105 is “No” will be described.

(ステップS120)ステップS105の判別結果が「No」の場合、つまり、制御部105は、ステップS104の画像解析処理の結果、サブカメラ103で撮影されている画像に顔が含まれていない場合、自動的に撮影装置101を自分撮り撮影モードに設定する。   (Step S120) If the determination result in Step S105 is “No”, that is, if the image captured by the sub camera 103 does not include a face as a result of the image analysis processing in Step S104, The photographing apparatus 101 is automatically set to the self-portrait photographing mode.

ここで、自分撮り撮影モードとは、撮影者自身が被写体となって自分の画像を撮影する撮影モードである。本実施形態における自分撮り撮影モードでは、メインカメラ102で撮影しようとする画像の画角内に撮影者の顔が収まっているか否かを判別して、撮影者の顔が撮影画角内に収まっている場合は撮影処理を開始し、撮影者の顔が撮影画角内に収まっていない場合は焦点距離を変更したり、撮影者に注意を促すようになっている。以下、自分撮り撮影モードの処理の流れについて説明する。   Here, the self-portrait shooting mode is a shooting mode in which the photographer himself / herself takes a picture of himself / herself as a subject. In the self-portrait shooting mode in the present embodiment, it is determined whether or not the photographer's face is within the angle of view of the image to be photographed by the main camera 102, and the photographer's face is within the angle of view of the photographer. If the photographer's face is not within the field angle of view, the focal length is changed or the photographer is alerted. Hereinafter, the flow of processing in the self-portrait shooting mode will be described.

(ステップS121)制御部105は、メインカメラ102のデジタル信号処理部117に指令して、メインカメラ102で撮影している画像に顔が含まれているか否かを判別する。メインカメラ102で撮影されている画像に顔が含まれている場合はステップS122に進み、メインカメラ102で撮影されている画像に顔が含まれていない場合はステップS128に進む。   (Step S <b> 121) The control unit 105 instructs the digital signal processing unit 117 of the main camera 102 to determine whether a face is included in the image captured by the main camera 102. If the image captured by the main camera 102 includes a face, the process proceeds to step S122. If the image captured by the main camera 102 does not include a face, the process proceeds to step S128.

尚、メインカメラ102で撮影している画像に顔が含まれている場合に、ステップS107と同様に処理を行って、検出した顔の特徴がメモリ108に予め登録されている顔の特徴に一致した場合に、AFライト121を点滅させたり、電子音発生部を設けて電子音で撮影者に知らせるようにしても構わない。また、ステップS121の判別処理は、ステップS120で自分撮り撮影モードに設定されてから所定時間が経過するまで待機状態にしても構わない。これにより、撮影者がメインカメラ102側に移動する時間だけ判別処理を待たせることができる。   If a face is included in the image captured by the main camera 102, processing is performed in the same manner as in step S107, and the detected facial feature matches the facial feature registered in the memory 108 in advance. In this case, the AF light 121 may be blinked or an electronic sound generator may be provided to notify the photographer with an electronic sound. In addition, the determination process in step S121 may be in a standby state until a predetermined time elapses after the self-portrait shooting mode is set in step S120. Thereby, it is possible to make the determination process wait for the time when the photographer moves to the main camera 102 side.

(ステップS122)制御部105は、メインカメラ102で撮影しようとする撮影者自身の顔が撮影画角内にあるか否かを判別する。撮影者の顔が撮影画角内にある場合はステップS127に進み、撮影者の顔が撮影画角内にない場合はステップS123に進む。   (Step S122) The control unit 105 determines whether or not the face of the photographer himself who wants to shoot with the main camera 102 is within the shooting angle of view. If the photographer's face is within the shooting angle of view, the process proceeds to step S127. If the photographer's face is not within the shooting angle of view, the process proceeds to step S123.

ここで、撮影者の顔が撮影画角内にあるか否かの判別は、例えば、ステップS104の画像解析処理と同じように行う。ステップS104と異なる点は、ステップS104の画像解析処理は、サブカメラ103で撮影している画像についてデジタル信号処理部128で解析したが、ステップS121では、メインカメラ102で撮影している画像についてデジタル信号処理部117で解析することである。   Here, the determination as to whether or not the photographer's face is within the shooting angle of view is performed, for example, in the same manner as the image analysis processing in step S104. The difference from step S104 is that in the image analysis processing in step S104, the image captured by the sub camera 103 is analyzed by the digital signal processing unit 128, but in step S121, the image captured by the main camera 102 is digitally processed. The analysis is performed by the signal processing unit 117.

また、撮影者の顔が撮影画角内にあるか否かの判別は、図4で説明したように、例えば、メインカメラ102で図4(a)のような所定サイズ以上の顔が撮影画角内に含まれた画像を撮影している場合は、撮影者の顔が撮影画角内にあると判別する。尚、図4(b)のように顔が完全に含まれていない場合や、図4(c)のように顔の大きさが所定サイズ以下で認識できない場合は、撮影者の顔が撮影画角内にないと判別する。また、図10(a)に示すように、撮影者の顔が撮影画角に対して大き過ぎる場合も撮影者の顔が撮影画角内にないと判別する。   Whether or not the photographer's face is within the shooting angle of view is determined, for example, as described with reference to FIG. 4, for example, a face of a predetermined size or larger as shown in FIG. When an image included in the corner is being photographed, it is determined that the photographer's face is within the photographing field angle. When the face is not completely included as shown in FIG. 4B, or when the face size cannot be recognized below a predetermined size as shown in FIG. 4C, the photographer's face is captured. It is determined that it is not in the corner. Further, as shown in FIG. 10A, when the photographer's face is too large with respect to the shooting angle of view, it is determined that the photographer's face is not within the shooting angle of view.

(ステップS123)制御部105は、メインカメラ102のレンズ光学系112のズームレンズのズーム位置がWide端(広角端)にあるか否かを判別する。ズームレンズのズーム位置がWide端にある場合はステップS125に進み、ズームレンズのズーム位置がWide端にない場合はステップS124に進む。尚、制御部105は操作部106のズームボタン153の操作によりレンズ駆動部122を制御してレンズ光学系112のズームレンズのズーム位置を可変するので、現状のズーム位置を把握しているものとする。   (Step S123) The control unit 105 determines whether or not the zoom position of the zoom lens of the lens optical system 112 of the main camera 102 is at the Wide end (wide angle end). When the zoom position of the zoom lens is at the wide end, the process proceeds to step S125, and when the zoom position of the zoom lens is not at the wide end, the process proceeds to step S124. Since the control unit 105 controls the lens driving unit 122 by operating the zoom button 153 of the operation unit 106 to change the zoom position of the zoom lens of the lens optical system 112, the control unit 105 grasps the current zoom position. To do.

(ステップS124)制御部105は、メインカメラ102のレンズ光学系112のズームレンズのズーム位置をWide側に移動し、ステップS121に戻る。   (Step S124) The control unit 105 moves the zoom position of the zoom lens of the lens optical system 112 of the main camera 102 to the Wide side, and returns to Step S121.

ここで、ズーム位置をWide側に移動することで、図10(a)に示したように撮影者の顔が撮影画角に対して大き過ぎる場合でも、図10(b)に示すように撮影者の顔を撮影画角内に収めることができる。   Here, by moving the zoom position to the Wide side, even when the photographer's face is too large with respect to the shooting angle of view as shown in FIG. 10A, shooting is performed as shown in FIG. 10B. The person's face can be kept within the shooting angle of view.

(ステップS125)制御部105は、AFライト121を発光して点滅させ、撮影者の顔が撮影画角内にないことを撮影者に知らせる。尚、通常、AFライト121はAF用の補助光として用いるが、ここでは撮影者の警告発光用として利用している。AFライト121を用いずに、他のLEDやフラッシュ119或いは電子音などによって、撮影者の顔が撮影画角内にないことを撮影者に知らせるようにしても構わない。   (Step S <b> 125) The control unit 105 emits the AF light 121 and blinks it to notify the photographer that the photographer's face is not within the photographing field angle. Normally, the AF light 121 is used as auxiliary light for AF, but here it is used for light emission of a photographer. Instead of using the AF light 121, the photographer may be informed that the photographer's face is not within the photographing angle of view by using another LED, flash 119, or electronic sound.

この処理ステップは、ステップS124でズーム位置をWide端に移動させても、図10(c)に示したように撮影者の顔が撮影画角に収まらない場合に、撮影者に撮影者の顔を撮影画角内に収めることができないことを警告するための処理である。この警告によって、撮影者は、再度、構図を変更して自分撮り撮影を行うことができ、撮影者の顔が撮影画角に収まっていない画像を誤って撮影してしまうことを防止できる。   In this processing step, if the photographer's face does not fall within the shooting angle of view as shown in FIG. 10C even if the zoom position is moved to the Wide end in step S124, the photographer's face is shown to the photographer. Is a process for warning that it cannot fit within the shooting angle of view. With this warning, the photographer can change the composition and take a self-portrait again, thereby preventing the photographer's face from accidentally taking an image whose face is not within the shooting angle of view.

(ステップS126)撮影を停止してステップS119に進み、一連の撮影処理を終了する。   (Step S126) Shooting is stopped, the process proceeds to step S119, and a series of shooting processes is terminated.

(ステップS127)サブカメラ103で認識した撮影者の顔がメインカメラ102で認識され、撮影画角内に撮影者の顔が入っている場合、制御部105は自動的にレリーズボタン152を押下して撮影を行い、ステップS118に進む。具体的には、制御部105は、レリーズボタン152の押下に相当する撮影開始信号を発生して自動撮影する。   (Step S127) When the photographer's face recognized by the sub camera 103 is recognized by the main camera 102 and the photographer's face is within the shooting angle of view, the control unit 105 automatically presses the release button 152. The photograph is taken, and the process proceeds to step S118. Specifically, the control unit 105 generates a shooting start signal corresponding to the pressing of the release button 152 and performs automatic shooting.

(ステップS128)制御部105は、撮影装置101の撮影モードを、自分撮り撮影モードから通常の撮影モードに設定する。尚、通常の撮影モードとは、自分撮り撮影モードのように、メインカメラ102で撮影する画像に顔があるか否かの判別や、撮影画角内に収まっているか否かの判別などの特別な処理を行うことなく、レリーズボタン152が押下されれば、予め設定されている撮影条件(感度設定、露出設定など)で撮影を行う撮影モードである。通常の撮影モードに設定された後、ステップS117に進み、撮影処理を行う。尚、ステップS121でメインカメラ102で撮影者の顔が認識されない場合は、本ステップS128を実行せずに、最初のステップS104に戻るようにしても構わない。   (Step S128) The control unit 105 sets the photographing mode of the photographing apparatus 101 from the self-portrait photographing mode to the normal photographing mode. Note that the normal shooting mode is a special mode such as determining whether or not an image captured by the main camera 102 has a face, whether or not the image is within the shooting angle of view, as in the self-portrait shooting mode. This is a shooting mode in which shooting is performed under preset shooting conditions (sensitivity setting, exposure setting, etc.) when the release button 152 is pressed without performing any processing. After the normal shooting mode is set, the process proceeds to step S117 to perform a shooting process. If the main camera 102 does not recognize the photographer's face in step S121, the process may return to the first step S104 without executing step S128.

このように、本実施形態に係る撮影装置101は、サブカメラ103に撮影者の顔がない場合に自動的に自分撮り撮影モードに設定されるので、通常の撮影モードと自分撮り撮影モードとが混在して頻繁に利用される場合でも、撮影する度に、撮影装置を自分撮り撮影モードに設定したり、通常の撮影モードに設定し直すような煩わしい操作を行う必要がなく、最適な自分撮り撮影を行うことができる。   As described above, the photographing apparatus 101 according to the present embodiment is automatically set to the self-portrait shooting mode when the sub-camera 103 does not have a photographer's face. Even when the camera is used frequently in a mixed environment, it is not necessary to perform troublesome operations such as setting the camera to self-shooting mode or resetting to normal shooting mode every time you take a picture. Shooting can be performed.

また、自分撮り撮影モードに移行後に、顔が撮影画角内にあるか否かを判別して、顔が撮影画角からはみ出しているような場合でも、顔が撮影画角内に収まるように自動的にレンズ光学系112のズーム位置をWide側に移動させるので、撮影者が撮影画角を調整する必要がなく、最適な自分撮り撮影を行うことができる。   Also, after shifting to the self-portrait shooting mode, it is determined whether or not the face is within the shooting angle of view so that the face is within the shooting angle of view even if the face protrudes from the shooting angle of view. Since the zoom position of the lens optical system 112 is automatically moved to the Wide side, it is not necessary for the photographer to adjust the shooting angle of view and optimal self-portrait shooting can be performed.

さらに、レンズ光学系112のズーム位置をWide端に移動させても、撮影者の顔が撮影画角内に収まらない場合は、AFライト121で警告発光するので、撮影者は、自分の顔が撮影画角内に収まっていないことがわかり、撮影ミスを防止することができる。   In addition, even if the zoom position of the lens optical system 112 is moved to the Wide end, if the photographer's face does not fall within the shooting angle of view, the AF light 121 emits a warning light. It can be seen that it is not within the shooting angle of view, and it is possible to prevent shooting mistakes.

或いは、自分撮り撮影モードに移行後に、サブカメラ103で認識した撮影者の顔がメインカメラ102で認識された場合に、自動的にレリーズボタン152を押下して撮影を行うので、撮影者が撮影操作をする必要がなく、自然な感じの撮影を行うことができる。   Alternatively, when the photographer's face recognized by the sub-camera 103 is recognized by the main camera 102 after shifting to the self-photographing shooting mode, the release button 152 is automatically pressed to shoot, so that the photographer There is no need to operate the camera, so you can take pictures with a natural feel.

(第2の実施形態)
次に、第2の実施形態に係る撮影装置101について説明する。本実施形態に係る撮影装置101の構成は、第1の実施形態の図1および図2と同じである。
(Second Embodiment)
Next, the imaging device 101 according to the second embodiment will be described. The configuration of the photographing apparatus 101 according to the present embodiment is the same as that of the first embodiment shown in FIGS. 1 and 2.

本実施形態に係る撮影装置101は、撮影装置101の電源投入後、暫くの間はサブカメラ103で撮影されていた撮影者が、その後、自分撮り撮影を行うために、メインカメラ102側に移動する場合を想定している。この場合、サブカメラ103で撮影されていた撮影者は、一旦、サブカメラ103の撮影画面から消え、メインカメラ102側に移動し、メインカメラ102の撮影画面に現れることになる。   In the photographing apparatus 101 according to the present embodiment, a photographer who has been photographing with the sub camera 103 for a while after turning on the power of the photographing apparatus 101 moves to the main camera 102 side to perform self-photographing thereafter. Assume that you want to. In this case, the photographer who has been photographed by the sub camera 103 once disappears from the photographing screen of the sub camera 103, moves to the main camera 102 side, and appears on the photographing screen of the main camera 102.

本実施形態に係る撮影装置101は、上記のような場合でも、高い精度で自分撮り撮影モードを自動的に設定することができる。   The photographing apparatus 101 according to the present embodiment can automatically set the self-portrait photographing mode with high accuracy even in the above case.

次に、本実施形態に係る撮影装置101の動作について、図11を用いて説明する。図11は、第1の実施形態で図3に対応するフローチャートで、図3と同じステップ番号の処理は同じ処理を示す。ここでは、図3と異なる処理についてのみ説明する。   Next, the operation of the photographing apparatus 101 according to the present embodiment will be described with reference to FIG. FIG. 11 is a flowchart corresponding to FIG. 3 in the first embodiment, and the processes with the same step numbers as those in FIG. 3 indicate the same processes. Here, only processing different from FIG. 3 will be described.

図11において、ステップS101からステップS110の処理までは図3のフローチャートと同じである。本実施形態では、ステップS110の処理とステップS111の処理の間に、新たにステップS110bの処理を設けている。   In FIG. 11, the processing from step S101 to step S110 is the same as the flowchart of FIG. In the present embodiment, a process of step S110b is newly provided between the process of step S110 and the process of step S111.

(ステップS110b)制御部105は、サブカメラ103のデジタル信号処理部128に指令して、サブカメラ103で撮影している画像に顔が含まれているか否かを判別する。サブカメラ103で撮影されている画像に顔が含まれている場合はステップS111に進み、サブカメラ103で撮影されている画像に顔が含まれていない場合はステップS120の自分撮り撮影モードに進む。   (Step S <b> 110 b) The control unit 105 instructs the digital signal processing unit 128 of the sub camera 103 to determine whether a face is included in the image captured by the sub camera 103. If the image captured by the sub camera 103 includes a face, the process proceeds to step S111. If the image captured by the sub camera 103 does not include a face, the process proceeds to the self-photographing mode of step S120. .

このように、ステップS105の時点で、サブカメラ103で撮影している画像に顔が含まれていた場合でも、その後、撮影者が、自分撮り撮影を行うために、サブカメラ103の撮影画面から消え、メインカメラ102の撮影画面側に移動した場合でも、自分撮り撮影モードに移行することができる。尚、図11において、ステップS110bをステップS110の処理とステップS111の処理の間に設けたが、ステップS106からステップS116までの処理の間であれば同様の効果が得られる。   As described above, even if a face is included in the image captured by the sub camera 103 at the time of step S105, the photographer can then perform a self-portrait from the shooting screen of the sub camera 103. Even when it disappears and moves to the shooting screen side of the main camera 102, it is possible to shift to the selfie shooting mode. In FIG. 11, step S110b is provided between the process of step S110 and the process of step S111, but the same effect can be obtained as long as it is between the processes from step S106 to step S116.

特に、ステップS105の処理を行って「Yes」と判断された後、予め設定した所定時間が経過してからステップS110bの処理を行うようにしても構わない。一般に、撮影装置101の電源投入後、暫くの間は撮影者がサブカメラ103で撮影される場合が多いので、所定時間が経過してからステップS110bの処理を実行することにより、精度高く自分撮り撮影モードに切り替えることができる。   In particular, after the process of step S105 is performed and “Yes” is determined, the process of step S110b may be performed after a predetermined time has elapsed. In general, since the photographer often takes a picture with the sub camera 103 for a while after turning on the power of the photographing apparatus 101, the self-photographing can be performed with high accuracy by executing the process of step S110b after a predetermined time has elapsed. Switch to shooting mode.

尚、ステップS110bで自分撮り撮影モードに移行する場合に、ステップS106においてサブカメラ103で撮影された画像から検出した撮影者の顔が、ステップS127でメインカメラ102で撮影する画像から検出した撮影者の顔に一致した場合、自動的にレリーズボタン152を押下して撮影を行うようにしても構わない。これにより、撮影者が操作部106のレリーズボタン152を手動で押下せずに、サブカメラ103で認識した撮影者の顔がメインカメラ102で認識された場合に、自動的にレリーズボタン152を押下して撮影を行うので、撮影者が撮影操作をする必要がなく、自然な感じの撮影を行うことができる。   When shifting to the self-photographing mode in step S110b, the photographer's face detected from the image captured by the main camera 102 in step S127 is detected by the photographer's face detected from the image captured by the sub camera 103 in step S106. If the image matches the face, the release button 152 may be automatically pressed to take a picture. Accordingly, when the photographer's face recognized by the sub camera 103 is recognized by the main camera 102 without manually pressing the release button 152 of the operation unit 106, the release button 152 is automatically pressed. Therefore, it is not necessary for the photographer to perform the photographing operation, and a natural feeling of photographing can be performed.

このように、本実施形態に係る撮影装置101は、サブカメラ102で取得した撮影者の顔を認識して、撮影装置101を自動的に自分撮り撮影モードに設定したり、自分撮り撮影モードにおける複雑な操作をアシストすることができる。   As described above, the photographing apparatus 101 according to the present embodiment recognizes the photographer's face acquired by the sub camera 102 and automatically sets the photographing apparatus 101 to the self-portrait shooting mode, or in the self-portrait shooting mode. Complex operations can be assisted.

尚、各実施形態では、メインカメラ102とサブカメラ103とは、共通部104を介して別々に分けて説明したが、メインカメラ102とサブカメラ103とに共通する部分は、1つにまとめても構わない。例えば、図1において、メインカメラ102の画像バッファ116とサブカメラ103の画像バッファ127とは同じバッファメモリを用いても構わない。同様に、メインカメラ102のデジタル信号処理部117とサブカメラ103のデジタル信号処理部128とは同じデジタル信号処理部としても構わない。   In each embodiment, the main camera 102 and the sub camera 103 are described separately through the common unit 104, but the parts common to the main camera 102 and the sub camera 103 are combined into one. It doesn't matter. For example, in FIG. 1, the image buffer 116 of the main camera 102 and the image buffer 127 of the sub camera 103 may use the same buffer memory. Similarly, the digital signal processing unit 117 of the main camera 102 and the digital signal processing unit 128 of the sub camera 103 may be the same digital signal processing unit.

或いは、メインカメラ102とサブカメラ103とを1つの画像取得部として共通化しても構わない。例えば、メインカメラ102のレンズ光学系112と撮像部113の部分と、サブカメラ103のレンズ光学系123と撮像部124の部分とを独立に設けて、メインカメラ102のアナログ信号処理114以降のブロックと、サブカメラ103のアナログ信号処理125以降のブロックとを共通化しても構わない。または、ミラーなどの光学部材を用いて光学経路を切り替える機構を設けて、メインカメラ102のレンズ光学系112と、サブカメラ103のレンズ光学系123とを含む全てのブロックを共通化しても構わない。   Alternatively, the main camera 102 and the sub camera 103 may be shared as one image acquisition unit. For example, the lens optical system 112 and the imaging unit 113 of the main camera 102 and the lens optical system 123 and the imaging unit 124 of the sub camera 103 are provided independently, and the blocks after the analog signal processing 114 of the main camera 102 are provided. Also, the blocks after the analog signal processing 125 of the sub camera 103 may be shared. Alternatively, a mechanism for switching an optical path using an optical member such as a mirror may be provided so that all blocks including the lens optical system 112 of the main camera 102 and the lens optical system 123 of the sub camera 103 are shared. .

第1の実施形態に係る撮影装置101のブロック図である。1 is a block diagram of a photographing apparatus 101 according to a first embodiment. 撮影装置101の外観を示す説明図である。2 is an explanatory diagram illustrating an appearance of a photographing apparatus 101. FIG. 撮影装置101の動作を示すフローチャートである。3 is a flowchart showing the operation of the photographing apparatus 101. 顔の検出を説明するための補助図である。It is an auxiliary | assistant figure for demonstrating the detection of a face. 撮影モードの登録テーブル例を示す説明図である。It is explanatory drawing which shows the example of a registration table of imaging | photography mode. 瞳位置を説明するための補助図である。It is an auxiliary | assistant figure for demonstrating a pupil position. 主要被写体の位置を説明するための補助図である。It is an auxiliary diagram for explaining the position of the main subject. 表情の変化を説明するための補助図である。It is an auxiliary | assistant figure for demonstrating the change of a facial expression. 表情の変化量の検出を説明するための補助図である。It is an auxiliary | assistant figure for demonstrating the detection of the variation | change_quantity of a facial expression. 顔が撮影画角内にあるか否かを検出を説明するための補助図である。FIG. 6 is an auxiliary diagram for explaining detection of whether or not a face is within a shooting angle of view. 第2の実施形態に係る撮影装置101の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the imaging device 101 which concerns on 2nd Embodiment.

符号の説明Explanation of symbols

101・・・撮影装置 102・・・メインカメラ
103・・・サブカメラ 104・・・共通部
105・・・制御部 106・・・操作部
107・・・液晶モニタ 108・・・メモリ
109・・・メモリカード 110・・・カードI/F
111・・・加速度センサ 112・・・レンズ光学系
113・・・撮像部 114・・・アナログ信号処理部
115・・・A/D変換部 116・・・画像バッファ
117・・・デジタル信号処理部 118・・・AE部
119・・・フラッシュ 120・・・AF部
121・・・AFライト 122・・・レンズ駆動部
123・・・レンズ光学系 124・・・撮像部
125・・・アナログ信号処理部 126・・・A/D変換部
127・・・画像バッファ 128・・・デジタル信号処理部
151・・・電源ボタン 152・・・レリーズボタン
153・・・ズームボタン 154・・・OKボタン
155,156,157,158・・・上下左右のカーソルボタン
DESCRIPTION OF SYMBOLS 101 ... Imaging device 102 ... Main camera 103 ... Sub camera 104 ... Common part 105 ... Control part 106 ... Operation part 107 ... Liquid crystal monitor 108 ... Memory 109 ...・ Memory card 110 ... Card I / F
DESCRIPTION OF SYMBOLS 111 ... Acceleration sensor 112 ... Lens optical system 113 ... Imaging part 114 ... Analog signal processing part 115 ... A / D conversion part 116 ... Image buffer 117 ... Digital signal processing part 118 ... AE unit 119 ... flash 120 ... AF unit 121 ... AF light 122 ... lens driving unit 123 ... lens optical system 124 ... imaging unit 125 ... analog signal processing Numeral 126: A / D converter 127 Image buffer 128 Digital signal processor 151 Power button 152 Release button 153 Zoom button 154 OK button 155 156, 157, 158 ... Up / Down / Left / Right cursor buttons

Claims (11)

第1画像、及び、前記第1画像とは異なる第2画像を取得する画像取得部と、
前記第2画像を用いて撮影者の存在を認識する認識部と、
前記認識部により前記撮影者の存在を認識できないとき、前記第1画像を取得するときの設定を人物撮影に適した設定にするように制御する制御部と
を有することを特徴とする撮影装置。
An image acquisition unit that acquires a first image and a second image different from the first image;
A recognition unit for recognizing the presence of the photographer using the second image;
And a control unit configured to control the setting for acquiring the first image to be a setting suitable for human photography when the recognition unit cannot recognize the presence of the photographer.
請求項1に記載された撮影装置であって、
前記制御部は、前記認識部により前記撮影者の存在を認識できないとき、前記撮影者が前記撮影者自身を撮影する自分撮り撮影モードになるように制御する
ことを特徴とする撮影装置。
An imaging apparatus according to claim 1,
The control unit controls the photographing unit to take a self-photographing mode in which the photographer photographs the photographer himself when the recognition unit cannot recognize the presence of the photographer.
請求項1又は請求項2に記載された撮影装置であって、
前記第1画像を形成する第1光学系と、
前記第1光学系とは異なる向きに備えられ、前記第2画像を形成する第2光学系と
を有することを特徴とする撮影装置。
The imaging device according to claim 1 or 2,
A first optical system for forming the first image;
An imaging device comprising: a second optical system that is provided in a different direction from the first optical system and that forms the second image.
請求項3に記載された撮影装置であって、
前記第1画像を表示するための表示部を有し、
前記第2光学系は、前記表示部に近接して備えられていることを特徴とする撮影装置。
An imaging apparatus according to claim 3, wherein
A display unit for displaying the first image;
The imaging apparatus, wherein the second optical system is provided close to the display unit.
請求項1から請求項4までの何れか1項に記載された撮影装置であって、
前記制御部は、前記認識部により前記撮影者の存在を認識できないとき、前記第1画像を取得する際の前記画像取得部の撮影モード、画角、露出、コントラストの少なくとも一つの設定を変えるように制御することを特徴とする撮影装置。
It is an imaging device given in any 1 paragraph of Claims 1-4,
When the recognition unit cannot recognize the presence of the photographer, the control unit changes at least one of the shooting mode, the angle of view, the exposure, and the contrast of the image acquisition unit when acquiring the first image. An imaging device characterized by controlling the camera.
請求項1から請求項5までの何れか1項に記載された撮影装置であって、
前記認識部で認識された前記撮影者が前記第1画像に検出されたとき、本撮影を開始するための撮影開始信号を発生する撮影開始信号発生部を有することを特徴とする撮影装置。
An imaging apparatus according to any one of claims 1 to 5, wherein
An imaging apparatus comprising: an imaging start signal generation unit that generates an imaging start signal for starting actual imaging when the photographer recognized by the recognition unit is detected in the first image.
請求項6に記載された撮影装置であって、
前記撮影開始信号発生部は、前記認識部により前記撮影者の存在が認識された後、所定時間内に前記撮影者が前記第1画像に検出されたとき前記撮影開始信号を発生することを特徴とする撮影装置。
The imaging device according to claim 6,
The photographing start signal generating unit generates the photographing start signal when the photographer is detected in the first image within a predetermined time after the recognition unit recognizes the presence of the photographer. An imaging device.
請求項1から請求項7までの何れか1項に記載された撮影装置であって、
前記撮影者に確認情報を報知する確認報知部を更に設け、
前記制御部は、前記認識部が前記第1画像または前記第2画像のいずれかに前記撮影者の存在を認識したとき、前記確認報知部から前記撮影者に確認情報を報知する
ことを特徴とする撮影装置。
It is an imaging device given in any 1 paragraph of Claims 1-7,
A confirmation notification unit for notifying the photographer of confirmation information;
The control unit notifies the photographer of confirmation information from the confirmation notification unit when the recognition unit recognizes the presence of the photographer in either the first image or the second image. Shooting device to do.
請求項6に記載された撮影装置であって、
前記認識部は、前記第1画像で前記撮影者の顔を認識し、
前記制御部は、前記第1画像で認識した前記撮影者の顔が前記第1画像の画角内に入るように、前記第1光学系の焦点距離を可変する
ことを特徴とする撮影装置。
The imaging device according to claim 6,
The recognizing unit recognizes the photographer's face in the first image;
The control unit varies a focal length of the first optical system so that a face of the photographer recognized in the first image falls within an angle of view of the first image.
請求項9に記載の撮影装置において、
前記撮影者にエラー情報を報知するエラー報知部を更に設け、
前記制御部は、前記第1光学系の焦点距離を可変した場合でも、前記第1画像で認識した前記撮影者の顔が前記第1画像の画角内に入らない場合は、前記エラー報知部から撮影者にエラー情報を報知する
ことを特徴とする撮影装置。
In the imaging device according to claim 9,
An error notification unit for notifying the photographer of error information;
When the focal length of the first optical system is varied, the control unit may detect the error notifying unit when the photographer's face recognized by the first image does not fall within the angle of view of the first image. An imaging apparatus characterized in that error information is notified to a photographer.
請求項1から請求項10までの何れか1項に記載された撮影装置であって、
前記撮影装置の動きを検出する加速度センサを更に設け、
前記認識部は、前記加速度センサが検出する前記撮影装置の動きが所定値内になったとき、前記第1画像または前記第2画像において前記撮影者の認識を開始する
ことを特徴とする撮影装置。
It is an imaging device given in any 1 paragraph of Claims 1-10,
An acceleration sensor for detecting the movement of the imaging device;
The recognizing unit starts recognizing the photographer in the first image or the second image when the movement of the photographing apparatus detected by the acceleration sensor falls within a predetermined value. .
JP2008110982A 2008-04-22 2008-04-22 Imaging device Expired - Fee Related JP5104517B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008110982A JP5104517B2 (en) 2008-04-22 2008-04-22 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008110982A JP5104517B2 (en) 2008-04-22 2008-04-22 Imaging device

Publications (2)

Publication Number Publication Date
JP2009267467A true JP2009267467A (en) 2009-11-12
JP5104517B2 JP5104517B2 (en) 2012-12-19

Family

ID=41392815

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008110982A Expired - Fee Related JP5104517B2 (en) 2008-04-22 2008-04-22 Imaging device

Country Status (1)

Country Link
JP (1) JP5104517B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010011253A (en) * 2008-06-30 2010-01-14 Nikon Corp Photographing apparatus
JP2013526099A (en) * 2010-03-03 2013-06-20 インテレクチュアル ベンチャーズ ファンド 83 エルエルシー Imaging device for taking self-portrait images
JP2015088985A (en) * 2013-10-31 2015-05-07 キヤノン株式会社 Imaging apparatus and imaging method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08181912A (en) * 1994-12-26 1996-07-12 Sony Corp Image pickup device with image display section
JP2004194102A (en) * 2002-12-12 2004-07-08 Fuji Photo Film Co Ltd Digital camera
JP2006109352A (en) * 2004-10-08 2006-04-20 Sharp Corp Camera-attached communication terminal apparatus, control method for camera-attached communication terminal apparatus, and computer program
JP2006186685A (en) * 2004-12-27 2006-07-13 Kyocera Corp Imaging device
JP2007324877A (en) * 2006-05-31 2007-12-13 Fujifilm Corp Imaging device
JP2008032828A (en) * 2006-07-26 2008-02-14 Fujifilm Corp Imaging apparatus and cellular phone with camera

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08181912A (en) * 1994-12-26 1996-07-12 Sony Corp Image pickup device with image display section
JP2004194102A (en) * 2002-12-12 2004-07-08 Fuji Photo Film Co Ltd Digital camera
JP2006109352A (en) * 2004-10-08 2006-04-20 Sharp Corp Camera-attached communication terminal apparatus, control method for camera-attached communication terminal apparatus, and computer program
JP2006186685A (en) * 2004-12-27 2006-07-13 Kyocera Corp Imaging device
JP2007324877A (en) * 2006-05-31 2007-12-13 Fujifilm Corp Imaging device
JP2008032828A (en) * 2006-07-26 2008-02-14 Fujifilm Corp Imaging apparatus and cellular phone with camera

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010011253A (en) * 2008-06-30 2010-01-14 Nikon Corp Photographing apparatus
JP2013526099A (en) * 2010-03-03 2013-06-20 インテレクチュアル ベンチャーズ ファンド 83 エルエルシー Imaging device for taking self-portrait images
JP2015088985A (en) * 2013-10-31 2015-05-07 キヤノン株式会社 Imaging apparatus and imaging method

Also Published As

Publication number Publication date
JP5104517B2 (en) 2012-12-19

Similar Documents

Publication Publication Date Title
US8649574B2 (en) Imaging apparatus, control method of imaging apparatus, and computer program
JP5669549B2 (en) Imaging device
JP4577275B2 (en) Imaging apparatus, image recording method, and program
JP5911557B2 (en) Imaging device
JP2007279601A (en) Camera
KR20100027700A (en) Photographing method and apparatus
JP2010124120A (en) Autofocus system
JP2009088768A (en) Imaging apparatus, and imaging method
JP2009117975A (en) Image pickup apparatus and method
JP4577445B2 (en) Imaging apparatus, image recording method, and program
JP2010117663A (en) Autofocus system
JP5233727B2 (en) Electronic camera
JP5109779B2 (en) Imaging device
JP5104517B2 (en) Imaging device
JP5448868B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2010098629A (en) Imaging device
JP2010085530A (en) Autofocus system
JP5081133B2 (en) Auto focus system
JP2008054031A (en) Digital camera and display control method
JP2003289468A (en) Imaging apparatus
JP2007259004A (en) Digital camera, image processor, and image processing program
JP2008172732A (en) Imaging apparatus, control method thereof, and program
JP2011066828A (en) Imaging device, imaging method and program
JP5967422B2 (en) Imaging apparatus, imaging processing method, and program
JP2005091432A (en) Camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110325

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120904

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120917

R150 Certificate of patent or registration of utility model

Ref document number: 5104517

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151012

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151012

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees