JP5434104B2 - Electronic camera - Google Patents

Electronic camera Download PDF

Info

Publication number
JP5434104B2
JP5434104B2 JP2009019962A JP2009019962A JP5434104B2 JP 5434104 B2 JP5434104 B2 JP 5434104B2 JP 2009019962 A JP2009019962 A JP 2009019962A JP 2009019962 A JP2009019962 A JP 2009019962A JP 5434104 B2 JP5434104 B2 JP 5434104B2
Authority
JP
Japan
Prior art keywords
unit
mark
image
electronic camera
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009019962A
Other languages
Japanese (ja)
Other versions
JP2010178158A (en
Inventor
慎矢 藤原
正永 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009019962A priority Critical patent/JP5434104B2/en
Publication of JP2010178158A publication Critical patent/JP2010178158A/en
Application granted granted Critical
Publication of JP5434104B2 publication Critical patent/JP5434104B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、顔検出機能を備える電子カメラに関する。   The present invention relates to an electronic camera having a face detection function.

従来より、人物の笑顔の度合いを判定する電子カメラが知られている(例えば、特許文献1参照)。   Conventionally, an electronic camera that determines the degree of smile of a person is known (see, for example, Patent Document 1).

しかしながら、特許文献1の電子カメラでは、被写体が笑顔であれば構図に関係なく、撮影がなされる場合がある。そのため、被写体が笑顔であっても、好ましい構図で撮影されるとは限らないという点で改善の余地がある。   However, in the electronic camera disclosed in Patent Document 1, if the subject is a smile, photographing may be performed regardless of the composition. Therefore, even if the subject is a smile, there is room for improvement in that the subject is not always photographed with a preferable composition.

そこで、本発明は、上記事情に鑑み、被写体が特定の表情であるときに好ましい構図で撮影を行わせる電子カメラを提供することを目的とする。   SUMMARY OF THE INVENTION In view of the above circumstances, an object of the present invention is to provide an electronic camera that allows shooting with a preferred composition when a subject has a specific facial expression.

一つの観点によれば、電子カメラは、被写体を撮像して画像データを生成する撮像部と、画像データに基づく画像を表示する表示部と、構図確認用に取得される動画像であるスルー画像に対して静止画撮影の構図を決定するための第1目印をスルー画像の特定位置に重畳表示させる第1目印表示制御部と、第1目印を前記特定位置から任意の位置に移動させるための移動先の位置を入力する操作部と、スルー画像から顔の領域を検出する顔検出部と、顔検出部の検出結果に基づいてスルー画像に対して顔の領域を示す第2目印を重畳表示させる第2目印表示制御部と、顔の特徴量を抽出する顔認識部と、特徴量に基づいて顔の表情を判定する表情判定部と、第1目印が表示される任意の位置と第2目印が表示される位置との距離が予め設定した閾値に達しているかを判定する位置判定部と、距離が閾値に達していることを位置判定部が判定し、かつ、第2目印に対応する顔の表情が特定の表情である場合に撮像部に静止画撮影を行わせる撮影制御部と、を備えるものである。According to one aspect, the electronic camera captures a subject and generates image data, a display unit that displays an image based on the image data, and a through image that is a moving image acquired for composition confirmation In contrast, a first mark display control unit that superimposes and displays a first mark for determining the composition of still image shooting at a specific position of the through image, and for moving the first mark from the specific position to an arbitrary position. An operation unit for inputting the position of the movement destination, a face detection unit for detecting a face region from the through image, and a second mark indicating the face region on the through image based on the detection result of the face detection unit are superimposed and displayed. A second mark display control unit, a face recognition unit that extracts a facial feature value, a facial expression determination unit that determines a facial expression based on the feature value, an arbitrary position where the first mark is displayed, and a second The distance from the place where the placemark is displayed is set in advance. A position determination unit that determines whether the threshold has been reached, and an imaging unit when the position determination unit determines that the distance has reached the threshold and the facial expression corresponding to the second mark is a specific facial expression And a shooting control unit that performs still image shooting.

本発明の電子カメラによれば、被写体が特定の表情であるときに好ましい構図で撮影を行わせることができる。   According to the electronic camera of the present invention, it is possible to perform photographing with a preferable composition when the subject has a specific facial expression.

第1実施形態の電子カメラ1の構成を示すブロック図1 is a block diagram illustrating a configuration of an electronic camera 1 according to a first embodiment. 電子カメラ1の正面図及び背面図Front view and rear view of electronic camera 1 電子カメラ1の撮影動作を表すフローチャートFlow chart showing photographing operation of electronic camera 1 目印の設定を説明する図Diagram explaining setting of placemark 顔の領域が検出された後、撮影が行われるまでの処理の概要を説明する図The figure explaining the outline of the processing from when the face area is detected until shooting is performed 指の映り込みを説明する図Illustration explaining the reflection of a finger 第1の変形例を説明する図The figure explaining the 1st modification 第2の変形例を説明する図The figure explaining the 2nd modification 第2実施形態の電子カメラ1の構成を示すブロック図The block diagram which shows the structure of the electronic camera 1 of 2nd Embodiment. 第2実施形態の電子カメラ1の撮影動作を表すフローチャートThe flowchart showing the imaging | photography operation | movement of the electronic camera 1 of 2nd Embodiment. 第2実施形態の電子カメラ1における撮影動作の一例を説明する図A figure explaining an example of photography operation in electronic camera 1 of a 2nd embodiment. 第2実施形態の電子カメラ1における撮影動作の一例を説明する図A figure explaining an example of photography operation in electronic camera 1 of a 2nd embodiment.

(第1実施形態)
以下、図面に基づいて本発明の実施の形態を詳細に説明する。なお、第1実施形態で説明する「笑顔・構図モード(スマイル・フレーミングモード)」は、予め設定した構図(好ましい構図)で被写体の顔が特定の表情(笑顔)であると、撮影のタイミングであると決定して電子カメラが撮影を行わせるモードである(詳細は後述する)。
(First embodiment)
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Note that the “smile / composition mode (smile / framing mode)” described in the first embodiment is a pre-set composition (preferred composition) and the subject's face has a specific facial expression (smile). In this mode, it is determined that the electronic camera performs shooting (details will be described later).

図1は、第1実施形態の電子カメラ1の構成を示すブロック図である。図1に示す通り電子カメラ1には、撮影レンズ10と、撮像部11と、画像処理部12と、RAM(Random Access Memory)13と、ROM(Read Only Memory)14と、操作部15と、レリーズ釦16と、タッチパネル17と、CPU(Central Processing Unit)18と、表示モニタ19と、記録インターフェース(記録I/F)20と、記録媒体21と、受光センサ22と、姿勢検出センサ23と、バス24とが備えられている。このうち画像処理部12、RAM13、ROM14、CPU18、表示モニタ19及び記録インターフェース(記録I/F)20は、バス24を介して互いに接続されている。また、操作部15、レリーズ釦16、タッチパネル17、受光センサ22及び姿勢検出センサ23はCPU18に接続されている。   FIG. 1 is a block diagram illustrating a configuration of an electronic camera 1 according to the first embodiment. As shown in FIG. 1, the electronic camera 1 includes a photographing lens 10, an imaging unit 11, an image processing unit 12, a RAM (Random Access Memory) 13, a ROM (Read Only Memory) 14, an operation unit 15, Release button 16, touch panel 17, CPU (Central Processing Unit) 18, display monitor 19, recording interface (recording I / F) 20, recording medium 21, light receiving sensor 22, attitude detection sensor 23, And a bus 24. Among these, the image processing unit 12, the RAM 13, the ROM 14, the CPU 18, the display monitor 19, and the recording interface (recording I / F) 20 are connected to each other via a bus 24. The operation unit 15, the release button 16, the touch panel 17, the light receiving sensor 22, and the posture detection sensor 23 are connected to the CPU 18.

撮影レンズ10は、ズームレンズと、フォーカスレンズとを含む複数のレンズ群で構成されている。なお、簡単のため、図1では、撮影レンズ10を1枚のレンズとして図示する。   The photographing lens 10 includes a plurality of lens groups including a zoom lens and a focus lens. For the sake of simplicity, FIG. 1 shows the photographic lens 10 as a single lens.

撮像部11は、レンズ駆動機構、絞り、シャッタ機構、撮像素子、タイミングジェネレータ及びAFE(アナログフロントエンド)等からなる。この撮像部11は、撮影レンズ10が結像した被写体像を光電変換して画像データを生成する。なお、撮像部11は、撮影時には、記録用の静止画像の画像データを出力する。また、撮像部11は、撮影待機時には、所定時間経過毎に構図確認用の動画像であるスルー画像の画像データを出力する。   The imaging unit 11 includes a lens driving mechanism, a diaphragm, a shutter mechanism, an imaging device, a timing generator, an AFE (analog front end), and the like. The imaging unit 11 photoelectrically converts the subject image formed by the photographic lens 10 to generate image data. Note that the imaging unit 11 outputs image data of a recording still image at the time of shooting. Further, the imaging unit 11 outputs image data of a through image that is a moving image for composition confirmation every time a predetermined time elapses during standby for shooting.

撮像部11が出力する画像データは、RAM13に一時的に記録される。このRAM13は、フレームメモリとしても機能する。   Image data output by the imaging unit 11 is temporarily recorded in the RAM 13. This RAM 13 also functions as a frame memory.

画像処理部12は、RAM13に記録されている1フレーム分の画像データを読み出し、各種の画像処理(階調変換処理、輪郭強調処理、ホワイトバランス処理等)を施す。   The image processing unit 12 reads one frame of image data recorded in the RAM 13 and performs various image processing (gradation conversion processing, contour enhancement processing, white balance processing, etc.).

ROM14は、電子カメラ1の制御を行うプログラム等を予め記憶している不揮発性のメモリである。   The ROM 14 is a non-volatile memory that stores a program for controlling the electronic camera 1 in advance.

操作部15は、後述する各操作キー等の指示入力を受け付けてCPU18に処理の命令を出す。   The operation unit 15 receives an instruction input such as each operation key described later and issues a processing instruction to the CPU 18.

レリーズ釦16は、半押し操作(撮影前における自動露出(AE:Automatic Exposure)、自動焦点合わせ(AF:Auto Focus)等の動作開始)の指示入力と全押し操作(撮像動作開始)との指示入力とを受け付ける。なお、笑顔・構図モード時には、半押し操作、これに続く全押し操作の指示入力を受け付けると、CPU18は、後述する表情判定部18の判定結果が笑顔であれば、撮影タイミングであると決定して撮影を行わせる設定に切り替える。なお、後述する撮影制御部18gが、「撮影タイミングであると決定して撮影を行わせる」制御を担っている。本実施形態では、この制御を「自動撮影」と称することがある。   The release button 16 is a half-press operation (automatic exposure (AE) before shooting, AE: auto focus operation start) instruction input and full-press operation (imaging operation start) instruction Accept input. In the smile / composition mode, upon receiving an instruction input for a half-press operation and a subsequent full-press operation, the CPU 18 determines that it is a shooting timing if the determination result of the facial expression determination unit 18 described later is a smile. Switch to the setting that allows you to shoot. Note that an imaging control unit 18g, which will be described later, performs control of “determining that it is an imaging timing and performing imaging”. In the present embodiment, this control may be referred to as “automatic imaging”.

なお、笑顔・構図モード時には、半押し操作がなされても、自動焦点合わせ(AF)等の動作開始の指示入力は行われず、後述する撮影制御部18gの指示により自動焦点合わせ(AF)等が行われる。   In the smile / composition mode, even if a half-press operation is performed, an instruction to start an operation such as automatic focusing (AF) is not input, and automatic focusing (AF) or the like is performed according to an instruction from the imaging control unit 18g described later. Done.

表示モニタ19は、静止画像、スルー画像、電子カメラ1の操作メニュー等を表示する。さらに、表示モニタ19は、第1目印や第2目印をスルー画像上に表示する。ここで、第1目印は、構図確認用の目印であって、以下、単に「目印」という。第2目印は、スルー画像内の顔の領域を示す目印であって、例えば、顔の領域の囲む検出枠である。以下、第2目印を、「検出枠」という。表示モニタ19には、液晶のモニタ等を適宜選択して用いることができる。   The display monitor 19 displays a still image, a through image, an operation menu of the electronic camera 1, and the like. Further, the display monitor 19 displays the first mark and the second mark on the through image. Here, the first mark is a mark for composition confirmation, and is simply referred to as “mark” hereinafter. The second mark is a mark indicating a face area in the through image, and is, for example, a detection frame surrounding the face area. Hereinafter, the second mark is referred to as “detection frame”. As the display monitor 19, a liquid crystal monitor or the like can be appropriately selected and used.

タッチパネル17は、タッチパネル表面に接触した指先等の位置を検出する。そして、タッチパネル17は、検出した位置情報をCPU18に出力することで撮影者からの入力を受け付ける。   The touch panel 17 detects the position of a fingertip or the like that touches the touch panel surface. The touch panel 17 receives the input from the photographer by outputting the detected position information to the CPU 18.

なお、タッチパネル17は、表示モニタ19と同等の大きさを有する透明なパネルで構成されており、表示モニタ19の表面全体に積層して配置される。また、本実施形態の例では、タッチパネル17は、静電気による電気信号を感知する静電容量式のパネルで構成されている。タッチパネル17の構成は、静電容量式に限られず、圧力による電圧の変化を検出する抵抗膜式のパネルを用いてもよい。   The touch panel 17 is composed of a transparent panel having a size equivalent to that of the display monitor 19, and is stacked on the entire surface of the display monitor 19. Moreover, in the example of this embodiment, the touch panel 17 is comprised with the electrostatic capacitance type panel which senses the electrical signal by static electricity. The configuration of the touch panel 17 is not limited to the capacitance type, and a resistive film type panel that detects a change in voltage due to pressure may be used.

記録インターフェース(記録I/F)20には、記録媒体21を接続するためのコネクタが形成されている。記録インターフェース(記録I/F)20は、CPU18からの指示により、そのコネクタに接続された記録媒体21にアクセスして画像の記録処理を行う。   A connector for connecting a recording medium 21 is formed in the recording interface (recording I / F) 20. The recording interface (recording I / F) 20 accesses the recording medium 21 connected to the connector according to an instruction from the CPU 18 and performs image recording processing.

受光センサ22は、光を電気信号に変換する受光素子である。この受光センサ22は、撮影者の指の映り込みを検出するために用いられる。姿勢検出センサ23は、電子カメラ1の光軸周りの回転位置(姿勢)を検出する姿勢センサである。この姿勢検出センサ23は、電子カメラ1のいわゆる縦位置、横位置を検出するために用いられる。なお、電子カメラ1の姿勢検出の処理は、公知技術を用いることにより実現できる。   The light receiving sensor 22 is a light receiving element that converts light into an electrical signal. The light receiving sensor 22 is used to detect the reflection of the photographer's finger. The posture detection sensor 23 is a posture sensor that detects a rotational position (posture) around the optical axis of the electronic camera 1. The posture detection sensor 23 is used to detect a so-called vertical position and horizontal position of the electronic camera 1. Note that the process of detecting the attitude of the electronic camera 1 can be realized by using a known technique.

CPU18は、電子カメラ1の制御を行うプロセッサである。CPU18は、ROM14に予め格納されたシーケンスプログラムを実行することにより、電子カメラ1の各部の制御等を行う。また、本実施形態のCPU18は、目印表示制御部18aと、顔検出部18bと、検出枠表示制御部18cと、位置判定部18dと、顔認識部18eと、表情判定部18fと、表情判定部18gと、報知部18hとしても機能する。   The CPU 18 is a processor that controls the electronic camera 1. The CPU 18 controls each part of the electronic camera 1 by executing a sequence program stored in advance in the ROM 14. In addition, the CPU 18 of this embodiment includes a landmark display control unit 18a, a face detection unit 18b, a detection frame display control unit 18c, a position determination unit 18d, a face recognition unit 18e, an expression determination unit 18f, and an expression determination. It also functions as the unit 18g and the notification unit 18h.

目印表示制御部18aは、笑顔・構図モード設定時に、構図確認用に取得される動画像であるスルー画像に対して、静止画撮影の構図を決定するための目印を特定位置に重畳表示させる。この特定位置は、一例として、スルー画像の中央の位置である。或いは、目印表示制御部18aは、操作部15又はタッチパネル17からの指示入力を受け付けることにより、その目印をスルー画像の指定された特定位置に配置させる。或いは、目印表示制御部18aは、特定位置として、スルー画像の縦横を黄金比で各々分割して得られる黄金分割線の交点のうち、選択した交点上に目印を配置させる(詳細は後述する)。   When the smile / composition mode is set, the mark display control unit 18a superimposes and displays a mark for determining a still image shooting composition on a specific position on a through image that is a moving image acquired for composition confirmation. This specific position is, for example, the center position of the through image. Alternatively, the mark display control unit 18a accepts an instruction input from the operation unit 15 or the touch panel 17, and arranges the mark at a specified position on the through image. Alternatively, the mark display control unit 18a places a mark on the selected intersection among the intersections of the golden dividing lines obtained by dividing the vertical and horizontal directions of the through image by the golden ratio as the specific position (details will be described later). .

顔検出部18bは、スルー画像から顔の領域を検出する。すなわち、顔検出部18bは、スルー画像の画像データから顔の領域を抽出し、その位置座標、サイズ(範囲)を検出する。位置座標のデータ、サイズ(範囲)のデータは、順次、RAM13に一時的に記録される。なお、顔検出の処理は、公知技術を用いることにより実現できる。   The face detection unit 18b detects a face area from the through image. That is, the face detection unit 18b extracts a face area from the image data of the through image, and detects the position coordinates and size (range) thereof. The position coordinate data and the size (range) data are temporarily recorded in the RAM 13 sequentially. The face detection process can be realized by using a known technique.

検出枠表示制御部18cは、顔検出部の検出結果に基づいて、スルー画像に対して顔の領域を囲む検出枠を表示モニタ19に重畳表示させる。検出枠の座標データは、順次、RAM13に一時的に記録される。なお、表示モニタ19に重畳表示させるために目印や検出枠をスルー画像に合成する処理は、画像処理部12が担う。   Based on the detection result of the face detection unit, the detection frame display control unit 18c causes the display monitor 19 to superimpose and display a detection frame surrounding the face area on the through image. The coordinate data of the detection frame is temporarily recorded in the RAM 13 sequentially. Note that the image processing unit 12 is responsible for synthesizing a mark or a detection frame with a through image so as to be superimposed on the display monitor 19.

位置判定部18dは、検出枠と目印との位置関係が予め定められた位置関係になったか否かを判定する(詳細は後述する)。   The position determination unit 18d determines whether or not the positional relationship between the detection frame and the mark is a predetermined positional relationship (details will be described later).

顔認識部18eは、顔検出部18bが検出した顔の領域に対して特徴量抽出処理を行って顔の特徴量を抽出する。すなわち、顔認識部18eは、顔の輪郭の形状、目の形状、口の形状等、人物の表情の特徴が表れる形状を顔の領域から抽出する。この特徴量抽出処理は、公知技術により行うことができる。表情判定部18fは、特徴量に基づいて、例えば口角(口の両脇)の上がり具合、目の大きさ等から顔の表情を判定する。   The face recognition unit 18e performs a feature amount extraction process on the face region detected by the face detection unit 18b to extract a face feature amount. That is, the face recognizing unit 18e extracts from the face region a shape that expresses the facial expression features such as the shape of the face contour, the shape of the eyes, and the shape of the mouth. This feature amount extraction process can be performed by a known technique. The facial expression determination unit 18f determines the facial expression based on, for example, the mouth corner (both sides of the mouth) and the size of the eyes.

撮影制御部18gは、位置判定部18dの判定結果が、予め定められた位置関係になった場合、表情判定部18fの判定結果に応じて、撮影タイミングであると決定し、撮像部11内のタイミングジェネレータを介して、撮像素子及びA/D変換部の各々へ向けて駆動信号を送出し、静止画撮影を行わせる。   When the determination result of the position determination unit 18d is in a predetermined positional relationship, the shooting control unit 18g determines that it is the shooting timing according to the determination result of the facial expression determination unit 18f, and the imaging control unit 18g Via the timing generator, a drive signal is sent to each of the image sensor and the A / D converter, and still image shooting is performed.

報知部18hは、笑顔・構図モード設定時に、受光センサ22からの信号を検出して、検出した光量の信号レベルが、予め設定した光量の信号レベル以下であれば、一例として、表示モニタ19に警告表示を行わせる。   The notification unit 18h detects the signal from the light receiving sensor 22 when the smile / composition mode is set, and if the signal level of the detected light amount is equal to or lower than the preset light amount signal level, for example, the notification unit 18h A warning is displayed.

図2は、電子カメラ1の正面図及び背面図である。本実施形態の電子カメラ1は、いわゆるコンパクト型(レンズ一体型)の電子カメラであり、薄型の筐体を採用している。   FIG. 2 is a front view and a rear view of the electronic camera 1. The electronic camera 1 of this embodiment is a so-called compact (lens-integrated) electronic camera, and employs a thin housing.

図2(a)は、電子カメラ1の正面図であり、撮影レンズ10に入射光を導く入射窓24と受光素子22に入射光を導く入射窓25とが備えられている。   FIG. 2A is a front view of the electronic camera 1 and includes an incident window 24 that guides incident light to the photographing lens 10 and an incident window 25 that guides incident light to the light receiving element 22.

図2(b)は、電子カメラ1の背面図であり、表示モニタ19と、操作部15として、広角ズームキー15aと、望遠ズームキー15bと、電源ボタン15cと、モードスイッチ15dと、十字キー15eとが備えられている。また、この電子カメラ1の上面には、レリーズ釦16が備えられている。なお、図2(b)において、表示モニタ19について、表示画面の上には透明のタッチパネル17(不図示)が配置されているものとする。   FIG. 2B is a rear view of the electronic camera 1. As the display monitor 19 and the operation unit 15, a wide-angle zoom key 15a, a telephoto zoom key 15b, a power button 15c, a mode switch 15d, and a cross key 15e are displayed. Is provided. A release button 16 is provided on the upper surface of the electronic camera 1. In FIG. 2B, it is assumed that a transparent touch panel 17 (not shown) is arranged on the display screen of the display monitor 19.

広角ズームキー15aは、焦点距離を広角側に変更するための操作キーである。望遠ズームキー15bは、焦点距離を望遠側に変更するための操作キーである。モードスイッチ15dは、撮影モード若しくは再生モードに切り替える操作キーである。十字キー15eは、電子カメラ1の操作メニューの設定条件を選択若しくは実行する操作キーである。   The wide-angle zoom key 15a is an operation key for changing the focal length to the wide-angle side. The telephoto zoom key 15b is an operation key for changing the focal length to the telephoto side. The mode switch 15d is an operation key for switching to a shooting mode or a playback mode. The cross key 15e is an operation key for selecting or executing a setting condition of an operation menu of the electronic camera 1.

次に、第1実施形態における電子カメラ1の動作の一例を説明する。   Next, an example of the operation of the electronic camera 1 in the first embodiment will be described.

図3は、電子カメラ1の撮影動作を表すフローチャートである。以下の説明では、笑顔・構図モードの機能をオンに設定した場合について説明する。すなわち、電子カメラ1の電源がオンされた後、笑顔・構図モード開始の指示入力を操作部15を介して受け付けると、CPU18は、このフローチャートの処理を開始する。   FIG. 3 is a flowchart showing the photographing operation of the electronic camera 1. In the following description, a case where the smile / composition mode function is set to ON will be described. That is, when the electronic camera 1 is turned on and receives an instruction input for starting a smile / composition mode via the operation unit 15, the CPU 18 starts the processing of this flowchart.

ステップS101:CPU18は、撮像部11内のタイミングジェネレータを介して撮像素子及びA/D変換器を駆動させることによりスルー画像の取得を開始する。このスルー画像は、表示モニタ19に表示される。続いて、目印表示制御部18aは、構図決定用の目印をスルー画像に重畳表示させる。   Step S101: The CPU 18 starts acquiring a through image by driving the image sensor and the A / D converter via the timing generator in the image capturing unit 11. This through image is displayed on the display monitor 19. Subsequently, the landmark display control unit 18a superimposes and displays the landmark for determining the composition on the through image.

図4は、目印の設定を説明する図である。図4(a)に示すように、目印表示制御部18aは、一例として、目印Mをスルー画像の中央の位置(表示モニタ19の表示画面の中央の位置に相当)に表示させる。なお、目印Mの表示態様は、一例であって、これに限定されるものではない。   FIG. 4 is a diagram for explaining setting of a mark. As shown in FIG. 4A, for example, the mark display control unit 18a displays the mark M at the center position of the through image (corresponding to the center position of the display screen of the display monitor 19). In addition, the display mode of the mark M is an example, Comprising: It is not limited to this.

ステップS102:CPU18は、目印Mの位置設定を行う。具体的には、CPU18は、タッチパネル17を介して指の接触位置の座標を検出する。CPU18の目印表示制御部18aは、図4(b)に示す通り、指の接触位置が移動するに伴い、目印Mの位置を移動させながら表示させる。そして、CPU18は、タッチパネル17を介して指の接触位置の移動が停止したことを検出すると、その時点における目印Mの位置を構図決定用の位置に設定する。そして、構図決定用の位置の座標データは、一旦、RAM13に記録される。   Step S102: The CPU 18 sets the position of the mark M. Specifically, the CPU 18 detects the coordinates of the finger contact position via the touch panel 17. As shown in FIG. 4B, the mark display control unit 18a of the CPU 18 displays the mark M while moving the position of the mark M as the finger contact position moves. Then, when detecting that the movement of the finger contact position has stopped via the touch panel 17, the CPU 18 sets the position of the mark M at that time as the position for determining the composition. The coordinate data of the position for determining the composition is once recorded in the RAM 13.

なお、説明の便宜上、図4(b)では、指の接触位置と目印Mの位置とは離れているが、指の接触位置と目印Mの位置とは、表示画面上で同じと考えてよく、撮影者は、目印Mを指でなぞるようにして動かすものとする。また、CPU18は、所定時間経過してもタッチパネル17を介して指の接触を検出しない場合、スルー画像の中央の位置をそのまま構図決定用の位置に設定する。   For convenience of explanation, the contact position of the finger and the position of the mark M are separated from each other in FIG. 4B, but the contact position of the finger and the position of the mark M may be considered to be the same on the display screen. It is assumed that the photographer moves the mark M by tracing with the finger. Further, when the contact of the finger is not detected via the touch panel 17 even after a predetermined time has elapsed, the CPU 18 sets the center position of the through image as the composition determination position as it is.

ステップS103:CPU18の顔検出部18bは、スルー画像の画像データに基づいて、スルー画像から顔の領域を検出する処理を行う。すなわち、顔検出部18bは、画像データから顔の領域の抽出を試みる。なお、ステップS103の処理が繰り返される度に、スルー画像が顔検出部18bに順次読み出されて、顔の領域を検出する処理が行われることとなる。   Step S103: The face detection unit 18b of the CPU 18 performs processing for detecting a face region from the through image based on the image data of the through image. That is, the face detection unit 18b tries to extract a face area from the image data. Each time the process of step S103 is repeated, the through image is sequentially read out by the face detection unit 18b, and the process of detecting the face area is performed.

ステップS104:顔検出部18bは、顔の領域を検出できた場合(ステップS104:Yes)、ステップS105に移行する。一方、顔の領域を検出できない場合(ステップS104:No)、ステップS103に戻る。そして、顔検出部18bは、顔検出の対象となる次のスルー画像の画像データに基づいて、顔の領域を検出する処理を行う。   Step S104: If the face detection unit 18b has detected the face area (step S104: Yes), the process proceeds to step S105. On the other hand, when the face area cannot be detected (step S104: No), the process returns to step S103. Then, the face detection unit 18b performs a process of detecting a face region based on the image data of the next through image that is the target of face detection.

図5は、顔の領域が検出された後、撮影が行われるまでの処理の概要を説明する図である。   FIG. 5 is a diagram for explaining the outline of processing from when a face area is detected until shooting is performed.

ステップS105:CPU18の検出枠表示制御部18cは、図5(a)に示す通り、顔検出部18bの検出結果に基づいて、人物Pの顔の領域を囲む検出枠Wをスルー画像に重畳表示させる。なお、ズーム操作等が行われた場合には、検出枠Wのサイズも顔の領域の拡大又は縮小に伴って、拡大又は縮小するものとする。   Step S105: The detection frame display control unit 18c of the CPU 18 superimposes and displays the detection frame W surrounding the face area of the person P on the through image based on the detection result of the face detection unit 18b, as shown in FIG. Let When a zoom operation or the like is performed, the size of the detection frame W is also enlarged or reduced as the facial area is enlarged or reduced.

ステップS106:CPU18は、全押し操作の指示入力の有無を検出する。全押し操作の指示入力を受け付けた場合(ステップS106:Yes)、ステップS107に移行する。一方、全押し操作の指示入力を受け付けない場合(ステップS106:No)、ステップS106の処理が繰り返される。   Step S106: The CPU 18 detects the presence / absence of a full-press operation instruction input. When the instruction input of the full press operation is received (step S106: Yes), the process proceeds to step S107. On the other hand, when the instruction input for the full press operation is not accepted (step S106: No), the process of step S106 is repeated.

ステップS107:CPU18の位置判定部18dは、検出枠Wと目印Mとの位置関係を判定する。ここでは、説明の便宜上、位置判定部18dは、表示画面上の座標系に対応付けて説明する。   Step S107: The position determination unit 18d of the CPU 18 determines the positional relationship between the detection frame W and the mark M. Here, for convenience of explanation, the position determination unit 18d will be described in association with the coordinate system on the display screen.

CPU18は、RAM13に記録されている目印M(構図決定用の位置)の座標データと、検出枠Wの座標データを読み出し、検出枠W内の中心座標と目印Mの中心座標との距離を算出する。位置判定部18dは、検出枠W内の中心座標と目印Mの中心座標の位置関係を判定する。検出枠W内の中心座標と目印Mの中心座標との距離の値が予め設定した閾値に達した場合(ステップS107:Yes)、ステップS108に移行する。例えば、閾値の値が0に設定されると、位置判定部18dは、中心座標同士が一致(互いの距離の値が0になる)したか否かを判定する。図5(b)に、検出枠W内の中心座標と目印Mの中心座標が一致した場合の例を示す。   The CPU 18 reads the coordinate data of the mark M (position for determining composition) recorded in the RAM 13 and the coordinate data of the detection frame W, and calculates the distance between the center coordinate in the detection frame W and the center coordinate of the mark M. To do. The position determination unit 18d determines the positional relationship between the center coordinates in the detection frame W and the center coordinates of the mark M. When the value of the distance between the center coordinates in the detection frame W and the center coordinates of the mark M has reached a preset threshold value (step S107: Yes), the process proceeds to step S108. For example, when the threshold value is set to 0, the position determination unit 18d determines whether or not the center coordinates match (the distance value between them becomes 0). FIG. 5B shows an example in which the center coordinates in the detection frame W and the center coordinates of the mark M coincide with each other.

なお、図5(a)において、CPU18は、一例として、まず、検出枠Wの色を黄色の色で表示させる。CPU18は、検出枠W内の中心座標と目印Mの中心座標が一致した場合、図5(b)において、検出枠Wの色を緑色に表示させるようにしてもよい。これにより、CPU18は、中心座標同士が一致したことを検出枠Wの色の変化で撮影者に報知する。   In FIG. 5A, as an example, the CPU 18 first displays the color of the detection frame W in a yellow color. When the center coordinate in the detection frame W matches the center coordinate of the mark M, the CPU 18 may display the color of the detection frame W in green in FIG. As a result, the CPU 18 notifies the photographer that the center coordinates coincide with each other by a change in the color of the detection frame W.

一方、検出枠W内の中心座標と目印Mの中心座標との距離の値が予め設定した閾値に達しない場合(ステップS107:No)、ステップS107の処理が繰り返される。   On the other hand, when the value of the distance between the center coordinate in the detection frame W and the center coordinate of the mark M does not reach the preset threshold value (step S107: No), the process of step S107 is repeated.

ステップS108:CPU18の顔認識部18eは、特徴量抽出処理によって、顔の輪郭の形状、目の形状、口の形状等、人物の表情の特徴が表れる形状を顔の領域から抽出する。   Step S108: The face recognizing unit 18e of the CPU 18 extracts, from the face area, a shape that expresses the facial expression features such as the shape of the face outline, the shape of the eyes, the shape of the mouth, etc. by the feature amount extraction process.

ステップS109:CPU18の表情判定部18fは、特徴量に基づいて、口角の上がり具合、目の大きさ等から顔の表情を判定する。図5(c)に示す通り、判定結果が笑顔であった場合(ステップS109:Yes)、ステップS110に移行する。判定結果が笑顔でなかった場合(ステップS109:No)、ステップS107に戻る。   Step S109: The facial expression determination unit 18f of the CPU 18 determines the facial expression based on the feature amount based on how the mouth corners rise and the size of the eyes. As shown in FIG.5 (c), when a determination result is a smile (step S109: Yes), it transfers to step S110. If the determination result is not smile (step S109: No), the process returns to step S107.

ステップS110:CPU18の撮影制御部18gは、撮影タイミングであると決定し、AE、AF等の撮影準備処理の指示を出し、撮影条件の設定を行わせた後、撮像部11に静止画撮影の指示を出す。撮像部11が出力する画像データは、画像処理部12へ入力される。画像処理部12は、撮像部11が出力する画像データをRAM13に一旦記録させる。画像処理部12は、画像データに対してホワイトバランス補正処理等の画像処理を行う。CPU18は、画像処理後の画像データを圧縮処理して記録媒体21に保存する。   Step S110: The photographing control unit 18g of the CPU 18 determines that it is the photographing timing, issues an instruction for photographing preparation processing such as AE and AF, and sets the photographing conditions, and then causes the photographing unit 11 to perform still image photographing. Give instructions. Image data output by the imaging unit 11 is input to the image processing unit 12. The image processing unit 12 temporarily records the image data output from the imaging unit 11 in the RAM 13. The image processing unit 12 performs image processing such as white balance correction processing on the image data. The CPU 18 compresses the image data after the image processing and stores it in the recording medium 21.

ステップS111:CPU18は、笑顔・構図モード終了の指示入力を操作部15を介して受け付けたか否かを判定する。笑顔・構図モード終了の指示入力を受け付けない場合(ステップS111:No)、ステップS101に戻る。笑顔・構図モード終了の指示入力を受け付けた場合(ステップS111:Yes)、この処理ルーチンは終了する。なお、ステップS104、ステップS106、ステップS107及びステップS109の処理において、タイムアウトすると、CPU18は、笑顔・構図モードを解除する。   Step S111: The CPU 18 determines whether or not an instruction input for ending the smile / composition mode has been received via the operation unit 15. When the instruction input for ending the smile / composition mode is not accepted (step S111: No), the process returns to step S101. When an instruction input for ending the smile / composition mode is received (step S111: Yes), this processing routine ends. Note that, in the processing of step S104, step S106, step S107, and step S109, when a time-out occurs, the CPU 18 cancels the smile / composition mode.

以上より、第1実施形態の電子カメラ1によれば、検出枠W内の中心座標と目印Mの中心座標との距離の値が予め設定した閾値に達し、かつ、被写体が笑顔であると、撮影制御部18gは、撮像部11に静止画撮影を行わせる。したがって、電子カメラ1は、被写体が笑顔であって、好ましい構図であると判断されるとき(位置判定部18dの判定結果が、閾値に達した場合)に、撮影タイミングであると決定して撮影を行わせることができる。   As described above, according to the electronic camera 1 of the first embodiment, when the value of the distance between the center coordinate in the detection frame W and the center coordinate of the mark M reaches a preset threshold value and the subject is smiling, The imaging control unit 18g causes the imaging unit 11 to perform still image shooting. Therefore, when the electronic camera 1 determines that the subject is smiling and has a desirable composition (when the determination result of the position determination unit 18d reaches the threshold value), the electronic camera 1 determines that it is the shooting timing and performs shooting. Can be performed.

なお、上述した説明では、撮影モードが、笑顔・構図モードである場合について、説明した。例えば、構図のみを優先して静止画撮影を行わせる撮影モード(構図優先モード)をさらに設けてもよい。この場合、ステップS108、ステップS109の処理は行われずに、撮影制御部18gは、撮像部11に静止画撮影を行わせる。つまり、電子カメラ1は、表情判定をせず、好ましい構図であると判断されるときに、撮影タイミングであると決定して撮影を行わせることができる。   In the above description, the case where the shooting mode is the smile / composition mode has been described. For example, a shooting mode (composition priority mode) in which still image shooting is performed with priority only on the composition may be further provided. In this case, the processing of step S108 and step S109 is not performed, and the imaging control unit 18g causes the imaging unit 11 to perform still image shooting. That is, the electronic camera 1 can perform photographing by determining that it is the photographing timing when it is determined that the composition is preferable without performing facial expression determination.

また、上述した説明では、特定の表情として、笑顔を選択したが、笑顔に限られず、笑顔以外の表情であってもよい。撮影する構図によっては、笑顔以外の表情を選択した方が良い場合に有効となる。   In the above description, smile is selected as the specific facial expression. However, the expression is not limited to a smile and may be an expression other than a smile. This is effective when it is better to select an expression other than a smile depending on the composition to be photographed.

また、本実施形態では、笑顔・構図モードが設定されている場合、図3に示すフローチャートとは独立に、スルー画像に撮影者の指が映っているか否かの検出を行ってもよい。   In the present embodiment, when the smile / composition mode is set, it may be detected whether or not the photographer's finger is reflected in the through image independently of the flowchart shown in FIG.

図6は、指の映り込みを説明する図である。図6(a)に示す通り、近年、薄型の筐体からなるコンパクト型の電子カメラにおいては、撮影者の電子カメラの持ち方によっては、撮影の際、指F等が入射窓24の一部を覆ってしまうことがある。   FIG. 6 is a diagram for explaining reflection of a finger. As shown in FIG. 6A, in recent years, in a compact electronic camera having a thin casing, a finger F or the like is a part of the entrance window 24 depending on how the photographer holds the electronic camera. May be covered.

そこで、図1に示す報知部18hは、受光センサ22からの信号を検出して、検出した光量の信号レベルが、予め設定した光量の信号レベル以下であれば、指F等が入射窓24の一部を覆っている可能性があると判断し、一例として、図6(b)に示す通り、表示モニタ19に「画面内に指が映っている可能性があります!」等の警告表示を行わせる。この際、目印設定表示制御部18aも、目印Mの表示態様を変えても注意を喚起してもよい。   Therefore, the notification unit 18h shown in FIG. 1 detects the signal from the light receiving sensor 22, and if the detected light level is equal to or lower than the preset light level, the finger F or the like is in the incident window 24. For example, as shown in FIG. 6B, a warning display such as “There is a possibility that a finger is reflected in the screen!” Is displayed on the display monitor 19. Let it be done. At this time, the mark setting display control unit 18a may also call attention even if the display mode of the mark M is changed.

こうすることで、撮影者は、撮影前であれば、指Fが入射窓24の一部を覆わないようにすることができる。そして、好ましい構図で撮影が行える。なお、この警告は、撮影後であってもよい。撮影後であれば、次回の撮影において、好ましい構図で撮影が行える。   By doing so, the photographer can prevent the finger F from covering a part of the entrance window 24 before photographing. Then, photographing can be performed with a preferable composition. This warning may be after shooting. After shooting, shooting can be performed with a preferred composition in the next shooting.

次に、第1実施形態の第1の変形例について説明する。   Next, a first modification of the first embodiment will be described.

従来より、撮影画面内の主要物をいわゆる黄金比にしたがって配置すると、撮影画面に安定感をもたらす構図となることが経験的に知られている。そこで、目印表示制御部18aが、目印Mを黄金比にしたがって配置するようにする。すなわち、目印表示制御部18aは、表示モニタ19に表示されるスルー画像(表示画面のサイズに相当)の縦横を黄金比で各々分割して得られる黄金分割線の交点のうち、選択した交点上に目印Mを配置する。以下、図7を参照しつつ、第1の変形例について具体的に説明する。   Conventionally, it has been empirically known that when the main objects in the shooting screen are arranged according to the so-called golden ratio, the shooting screen has a sense of stability. Therefore, the mark display control unit 18a arranges the mark M according to the golden ratio. In other words, the landmark display control unit 18a selects the intersection point of the golden dividing lines obtained by dividing the vertical and horizontal directions of the through image (corresponding to the size of the display screen) displayed on the display monitor 19 by the golden ratio. The mark M is placed on the. Hereinafter, the first modification will be specifically described with reference to FIG.

図7は、第1の変形例を説明する図である。図7(a)において、スルー画像の横の寸法(表示画面の横の寸法に相当)が、a(1):b(1.618)の黄金比(ここでは、近似値として、1.618の値を採用する)で分割されている。また、スルー画像の縦の寸法(表示画面の縦の寸法に相当)が、c(1):d(1.618)の黄金比で分割されている。スルー画像中に示す点線Gが、黄金分割線である。ここで、目印表示制御部18aは、黄金分割線の交点上に目印Mを配置する。   FIG. 7 is a diagram illustrating a first modification. In FIG. 7A, the horizontal dimension of the through image (corresponding to the horizontal dimension of the display screen) is a golden ratio of a (1): b (1.618) (here, an approximate value of 1.618). Is adopted). The vertical dimension of the through image (corresponding to the vertical dimension of the display screen) is divided by the golden ratio of c (1): d (1.618). A dotted line G shown in the through image is a golden dividing line. Here, the mark display control unit 18a arranges the mark M on the intersection of the golden dividing lines.

なお、図7(b)に示す通り、スルー画像の縦横を黄金比で各々分割する場合、スルー画像の横の寸法をa(1.618):b(1)や、スルー画像の縦の寸法をc(1.618):d(1)で黄金分割してもよい。そのため、黄金分割線の交点は、図7(b)に示す通り、4点(A、B、C、D)生成することになる。この場合、目印表示制御部18aは、A点又はC点に目印Mを配置させるのが好ましい。そのため、一例として、目印表示制御部18aは、A点に目印Mをまず配置させる。この状態で、十字キー15eの操作を受け付けることにより、C点に目印Mを配置させてもよい。   As shown in FIG. 7B, when the vertical and horizontal directions of the through image are divided by the golden ratio, the horizontal dimension of the through image is a (1.618): b (1) or the vertical dimension of the through image. May be golden-divided by c (1.618): d (1). Therefore, four points (A, B, C, D) are generated as shown in FIG. In this case, it is preferable that the mark display control unit 18a arranges the mark M at the point A or the point C. Therefore, as an example, the mark display control unit 18a first arranges the mark M at the point A. In this state, the mark M may be arranged at the point C by accepting the operation of the cross key 15e.

図7(c)は、目印Mと検出枠Wとの位置関係を示している。この場合、撮影制御部18gは、位置判定部18dの判定結果が、予め定められた位置関係になった場合、表情判定部18fの判定結果が笑顔であれば、撮像部11内に静止画撮影を行わせる。図7(c)は、予め定められた位置関係として、検出枠W内の中心座標と目印Mの中心座標が一致した場合を例示している。こうすることで、被写体が笑顔であって、撮影画面に安定感をもたらす構図が得られやすくなる。   FIG. 7C shows the positional relationship between the mark M and the detection frame W. In this case, when the determination result of the position determination unit 18d has a predetermined positional relationship, the shooting control unit 18g captures a still image in the imaging unit 11 if the determination result of the facial expression determination unit 18f is a smile. To do. FIG. 7C illustrates a case where the center coordinates in the detection frame W coincide with the center coordinates of the mark M as a predetermined positional relationship. This makes it easier to obtain a composition that makes the subject smile and brings a sense of stability to the shooting screen.

次に、第1実施形態の第2の変形例について説明する。   Next, a second modification of the first embodiment will be described.

第2の変形例では、撮影者が、電子カメラを横位置から縦位置に構えた場合、目印表示制御部18aは、電子カメラ1の縦位置を考慮して、目印Mを黄金比にしたがって配置させる。ここでは、図1に示す姿勢検出センサ23が、電子カメラ1の光軸周りの回転位置(姿勢)を検出する。   In the second modification, when the photographer holds the electronic camera from the horizontal position to the vertical position, the mark display control unit 18a considers the vertical position of the electronic camera 1 and arranges the mark M according to the golden ratio. Let Here, the posture detection sensor 23 shown in FIG. 1 detects the rotational position (posture) around the optical axis of the electronic camera 1.

図8は、第2の変形例を説明する図である。電子カメラ1が横位置(図2(b))の状態から縦位置(図8(a))の状態に構えられた場合、姿勢検出センサ23は、時計回りに90度回転されたことを検出する。なお、電子カメラ1が横位置の状態から縦位置の状態に構えられた場合、図8(a)に示すように、地面に対して十字キー15eが表示モニタ19の下側にあるような位置関係になるとき、ここでは、時計回りと定義する。その逆を、反時計回りと定義する。   FIG. 8 is a diagram illustrating a second modification. When the electronic camera 1 is held from the horizontal position (FIG. 2B) to the vertical position (FIG. 8A), the posture detection sensor 23 detects that the electronic camera 1 has been rotated 90 degrees clockwise. To do. When the electronic camera 1 is held from the horizontal position to the vertical position, as shown in FIG. 8A, the position where the cross key 15e is below the display monitor 19 with respect to the ground. When it comes to the relationship, here we define it as clockwise. The opposite is defined as counterclockwise.

この場合、目印表示制御部18aは、図7(b)に対応付けると、A点又はB点に目印Mを配置させるのが好ましい。そのため、一例として、目印表示制御部18aは、A点に目印Mをまず配置させる。   In this case, it is preferable that the mark display control unit 18a arranges the mark M at the point A or the point B in association with FIG. Therefore, as an example, the mark display control unit 18a first arranges the mark M at the point A.

一方、電子カメラ1が横位置(図2(b))の状態から縦位置(図8(b))の状態に構えられた場合、姿勢検出センサ23は、反時計回りに90度回転されたことを検出する。この場合、目印表示制御部18aは、図7(b)に対応付けると、C点又はD点に目印Mを配置させるのが好ましい。そのため、一例として、目印表示制御部18aは、最初A点に目印Mを配置させていた場合、D点に目印Mを配置させる。こうすることで、縦位置撮影であっても、被写体が笑顔であって、撮影画面に安定感をもたらす構図が得られやすくなる。
(第2実施形態)
次に、本発明の第2実施形態について説明する。第2実施形態では、電子カメラ1が、動きのある複数の被写体を検出し、それらの被写体の中から選択された注目する被写体を追尾する。そして、電子カメラ1の顔検出部18bが、注目する被写体の顔の領域を検出し、第1実施形態と同様、被写体が笑顔であると、撮影制御部18gは、撮像部11内に静止画撮影を行わせる。なお、本発明の第1実施形態と本発明の第2実施形態とでは、同じ要素については同じ符号を付して説明を省略する。以下、電子カメラ1の構成で異なる点について、まず説明をする。
On the other hand, when the electronic camera 1 is held from the horizontal position (FIG. 2B) to the vertical position (FIG. 8B), the attitude detection sensor 23 is rotated 90 degrees counterclockwise. Detect that. In this case, it is preferable that the mark display control unit 18a arranges the mark M at the C point or the D point in association with FIG. Therefore, as an example, when the mark display control unit 18a initially places the mark M at the point A, the mark display control unit 18a places the mark M at the point D. By doing so, it is easy to obtain a composition that brings a sense of stability to the shooting screen even if the shooting is in the vertical position.
(Second Embodiment)
Next, a second embodiment of the present invention will be described. In the second embodiment, the electronic camera 1 detects a plurality of moving subjects and tracks a target subject selected from these subjects. Then, the face detection unit 18b of the electronic camera 1 detects the face area of the subject of interest, and if the subject is a smile as in the first embodiment, the shooting control unit 18g includes a still image in the imaging unit 11. Let the shoot take place. In the first embodiment of the present invention and the second embodiment of the present invention, the same elements are denoted by the same reference numerals and description thereof is omitted. Hereinafter, differences in the configuration of the electronic camera 1 will be described first.

図9は、第2実施形態の電子カメラ1の構成を示すブロック図である。図9では、CPU18は、動き検出部18i、被写体選択部18j、追尾部18kをさらに備える。   FIG. 9 is a block diagram illustrating a configuration of the electronic camera 1 according to the second embodiment. In FIG. 9, the CPU 18 further includes a motion detection unit 18i, a subject selection unit 18j, and a tracking unit 18k.

動き検出部18iは、スルー画像の画像データの時間的変化に基づいて被写体の動きを検出する。すなわち、動き検出部18iは、所定のフレームレートで撮像部11から出力されるスルー画像のフレームを用いて被写体の動きを検出する。動き検出部18iは、公知のフレーム間差分により、順次、動きベクトルを算出していく。これにより、動き検出部18iは、被写体の動きを検出することができる。なお、動き検出部18iは、動き検出用の専用の回路等を用いて、被写体の動きを検出してもよい。   The motion detector 18i detects the motion of the subject based on the temporal change of the image data of the through image. That is, the motion detection unit 18 i detects the motion of the subject using the through image frames output from the imaging unit 11 at a predetermined frame rate. The motion detector 18i sequentially calculates motion vectors based on known inter-frame differences. Thereby, the motion detector 18i can detect the motion of the subject. The motion detector 18i may detect the motion of the subject using a dedicated circuit for motion detection.

被写体選択部18jは、動き検出部18iで動きが検出された複数の被写体のうち、撮影者からの指示入力を受け付けて注目する被写体を選択する。   The subject selection unit 18j receives an instruction input from the photographer and selects a subject of interest from among a plurality of subjects whose movement is detected by the motion detection unit 18i.

追尾部18kは、動き検出部18iの検出結果に基づいて、注目する被写体を追尾する。すなわち、追尾部18kは、被写体選択部18jで選択された被写体を、動き検出部18iの検出結果から現在の被写体の座標を取得することにより追尾する。   The tracking unit 18k tracks the subject of interest based on the detection result of the motion detection unit 18i. In other words, the tracking unit 18k tracks the subject selected by the subject selection unit 18j by acquiring the coordinates of the current subject from the detection result of the motion detection unit 18i.

次に、第2実施形態の電子カメラ1の撮影動作を説明する。   Next, the photographing operation of the electronic camera 1 according to the second embodiment will be described.

図10は、第2実施形態の電子カメラ1の撮影動作を表すフローチャートである。図11、図12は、第2実施形態の電子カメラ1における撮影動作の一例を説明する図である。ここでは、遊園地にてメリーゴーランド100の馬に乗っている被写体を撮影する場面を想定している。ここで、電子カメラ1の電源がオンされた後、被写体の追尾機能を追加した笑顔・構図モード開始の指示入力を操作部15を介して受け付けると、CPU18は、図10に示すフローチャートの処理を開始する。   FIG. 10 is a flowchart showing the photographing operation of the electronic camera 1 according to the second embodiment. 11 and 12 are diagrams for explaining an example of a photographing operation in the electronic camera 1 according to the second embodiment. Here, it is assumed that a subject is photographed on a merry-go-round 100 horse at an amusement park. Here, after the electronic camera 1 is turned on, if an instruction input for starting the smile / composition mode with the subject tracking function added is received via the operation unit 15, the CPU 18 performs the processing of the flowchart shown in FIG. Start.

ステップS201:CPU18は、スルー画像の取得を開始する。目印表示制御部18aは、図11(a)に示すように、目印として、ライン状の目印Lをスルー画像に重畳表示させる。このライン状の目印Lは、タッチパネル17を介して、左右に移動させることもできる。   Step S201: The CPU 18 starts acquiring a through image. As shown in FIG. 11A, the mark display control unit 18a superimposes and displays a line-shaped mark L as a mark on the through image. The line-shaped mark L can also be moved left and right via the touch panel 17.

ステップS202:CPU18の動き検出部18iは、スルー画像の取得を受けて、被写体の動きの検出を開始する。図11(b)に示すように、動き検出部18iは、被写体の動きを検出すると、CPU18は、追尾対象のマークをスルー画像に重畳表示させる。説明をわかりやすくするため、この例では、馬H1、H2、H3に対してそれぞれ追尾対象を表すマークT1、T2、T3が重畳表示される。また、この例では、馬H1に被写体Pが乗っている。なお、ステップS202では、CPU18は、順次取得されたスルー画像に対して、追尾対象のマークをスルー画像に重畳表示させる。   Step S202: The motion detector 18i of the CPU 18 receives the through image and starts detecting the motion of the subject. As shown in FIG. 11B, when the motion detection unit 18i detects the movement of the subject, the CPU 18 displays the tracking target mark in a superimposed manner on the through image. In order to make the explanation easy to understand, in this example, marks T1, T2, and T3 representing tracking targets are superimposed and displayed on the horses H1, H2, and H3, respectively. In this example, the subject P is on the horse H1. In step S202, the CPU 18 causes the tracking target mark to be superimposed and displayed on the through image with respect to the sequentially acquired through image.

ステップS203:CPU18は、撮影者が十字キー15eを操作することにより、笑顔・構図モード終了の指示入力を受け付けると(ステップS203:Yes)、図10に示すフローチャートの処理ルーチンは終了する。一方、CPU18は、笑顔・構図モード終了を受け付けないと(ステップS203:No)、ステップS204に移行する。   Step S203: When the photographer operates the cross key 15e to accept a smile / composition mode end instruction input (step S203: Yes), the processing routine of the flowchart shown in FIG. 10 ends. On the other hand, if the CPU 18 does not accept the end of the smile / composition mode (step S203: No), the process proceeds to step S204.

ステップS204:CPU18は、追尾対象の候補となる被写体が複数か否かを判定する。追尾対象の被写体が複数の場合(ステップS204:Yes)、ステップS205に移行する。追尾対象の被写体が単数の場合(ステップS204:No)、そのまま追尾対象の被写体となり、ステップS206に移行する。すなわち、被写体Pが、注目する被写体(顔検出の対象となる被写体)として追尾対象に選択される。   Step S204: The CPU 18 determines whether or not there are a plurality of subjects as tracking target candidates. When there are a plurality of tracking target subjects (step S204: Yes), the process proceeds to step S205. When there is a single subject to be tracked (step S204: No), it becomes the subject to be tracked as it is, and the process proceeds to step S206. That is, the subject P is selected as a tracking target as a subject of interest (subject for face detection).

ステップS205:CPU18の被写体選択部18jは、一例として、撮影者に対して追尾対象の被写体の選択を促す。続いて、CPU18は、タッチパネル17を介して指の接触位置の座標を検出する。例えば、スルー画像に重畳表示されているマークT1の部分の座標を検出すると、マークT1の被写体が、注目する被写体(顔検出の対象となる被写体)として追尾対象に選択される。すると、CPU18は、マークT2、T3の重畳表示をやめさせる。これにより、マークT2、T3の重畳表示は消える(図12(a))。   Step S205: As an example, the subject selection unit 18j of the CPU 18 prompts the photographer to select a subject to be tracked. Subsequently, the CPU 18 detects the coordinates of the contact position of the finger via the touch panel 17. For example, when the coordinates of the portion of the mark T1 superimposed and displayed on the through image are detected, the subject of the mark T1 is selected as a tracking target as a subject of interest (subject to be face-detected). Then, the CPU 18 stops the superimposed display of the marks T2 and T3. Thereby, the superimposed display of the marks T2 and T3 disappears (FIG. 12A).

ステップS206:CPU18は、笑顔・構図モード設定時における全押し操作の指示入力の有無を判定する。所定時間内に全押し操作の指示入力を受け付けない場合(ステップS206:No)、ステップS202の動き検出処理に戻り、再度、ステップS202の処理から開始される。この場合、既に、被写体の選択はなされているので、CPU18は、被写体選択の処理等(ステップS204、ステップS205)については行わず、再度ステップS206の処理が繰り返されることとする。   Step S206: The CPU 18 determines whether or not a full-press operation instruction is input when the smile / composition mode is set. When the instruction input for the full press operation is not received within the predetermined time (step S206: No), the process returns to the motion detection process in step S202, and starts again from the process in step S202. In this case, since the subject has already been selected, the CPU 18 does not perform the subject selection process or the like (step S204, step S205), and repeats the process of step S206.

一方、CPU18が、全押し操作の指示入力を受け付けた場合(ステップS206:Yes)、ステップS207に移行する。   On the other hand, when the CPU 18 receives an instruction input for a full-press operation (step S206: Yes), the process proceeds to step S207.

ステップS207:CPU18の顔検出部18bは、スルー画像の画像データに基づいて、スルー画像から顔の領域を継続的に検出する処理を行う。このとき、CPU18の顔認識部18eは、特徴量抽出処理によって、人物の表情の特徴が表れる形状を顔の領域から抽出する。CPU18の検出枠表示制御部18cは、顔検出部18bの検出結果に基づいて、顔の領域を囲む検出枠Wをスルー画像に重畳表示させる(図12(a))。さらに、CPU18の追尾部18kは、スルー画像に含まれる被写体Pを、動き検出部18iの検出結果に基づいて追尾する。   Step S207: The face detection unit 18b of the CPU 18 performs a process of continuously detecting a face region from the through image based on the image data of the through image. At this time, the face recognition unit 18e of the CPU 18 extracts, from the face region, a shape in which the feature of the facial expression of the person appears by the feature amount extraction process. Based on the detection result of the face detection unit 18b, the detection frame display control unit 18c of the CPU 18 superimposes and displays the detection frame W surrounding the face area on the through image (FIG. 12A). Further, the tracking unit 18k of the CPU 18 tracks the subject P included in the through image based on the detection result of the motion detection unit 18i.

ステップS208:CPU18の位置判定部18dは、検出枠Wと目印Lとの位置関係を判定する。この例では、簡単のため、位置判定部18dは、検出枠W内の中心座標と、その中心座標から仮想的に水平なラインを引いた場合、目印Lと交わる点までの距離の値を判定する。すなわち、位置判定部18dは、目印Lと交わる点までの距離の値が予め定められた閾値に達したか否かを判定する。ここでは、一例として、閾値の値を0に設定する。すると、閾値に達するか否かの判定は、検出枠W内の中心座標が目印Lのライン線に達したか否かの判定となる。なお、検出枠の中心座標でなく、図12(b)に示す検出枠Wの右端がラインLに達したか否かを判定条件としてもよい。   Step S208: The position determination unit 18d of the CPU 18 determines the positional relationship between the detection frame W and the mark L. In this example, for the sake of simplicity, the position determination unit 18d determines the center coordinates in the detection frame W and the value of the distance to the point where the mark L intersects when a virtual horizontal line is drawn from the center coordinates. To do. That is, the position determination unit 18d determines whether or not the value of the distance to the point that intersects the mark L has reached a predetermined threshold value. Here, as an example, the threshold value is set to 0. Then, whether or not the threshold value is reached is determined whether or not the center coordinates in the detection frame W have reached the line of the mark L. The determination condition may be whether the right end of the detection frame W shown in FIG. 12B reaches the line L instead of the center coordinates of the detection frame.

したがって、位置判定部18dは、検出枠W内の中心座標が目印Lのライン線に達した場合(ステップS208:Yes)、ステップS209に移行する。一方、検出枠W内の中心座標が目印Lのライン線に達していない場合(ステップS208:No)、ステップS202に戻る。   Therefore, when the center coordinate in the detection frame W reaches the line of the mark L (step S208: Yes), the position determination unit 18d proceeds to step S209. On the other hand, when the center coordinates in the detection frame W have not reached the line of the mark L (step S208: No), the process returns to step S202.

ステップS209:CPU18の表情判定部18fは、特徴量に基づいて、顔の表情が笑顔であるか否かを判定する。図12(b)に示す通り、判定結果が笑顔であった場合(ステップS209:Yes)、ステップS210に移行する。判定結果が笑顔でなかった場合(ステップS209:No)、ステップS202に戻る。   Step S209: The facial expression determination unit 18f of the CPU 18 determines whether the facial expression is a smile based on the feature amount. As shown in FIG. 12B, when the determination result is a smile (step S209: Yes), the process proceeds to step S210. If the determination result is not a smile (step S209: No), the process returns to step S202.

ステップS210:CPU18の撮影制御部18gは、第1実施形態と同様にして、撮像部11に静止画撮影を行わせる。そして、CPU18は、画像処理後の画像データを圧縮処理して記録媒体21に保存する。そして、この処理ルーチンは、再び、ステップS202に戻る。さらに、ステップS203にて、笑顔・構図モードの終了を受け付けると(ステップS203:Yes)、図10に示すフローチャートの処理ルーチンは終了する。   Step S210: The imaging control unit 18g of the CPU 18 causes the imaging unit 11 to perform still image shooting in the same manner as in the first embodiment. Then, the CPU 18 compresses the image data after the image processing and stores it in the recording medium 21. Then, this processing routine returns to step S202 again. Furthermore, when the end of the smile / composition mode is accepted in step S203 (step S203: Yes), the processing routine of the flowchart shown in FIG. 10 ends.

以上より、第2実施形態の電子カメラ1によれば、複数の被写体がモニタリングされた場合、注目する被写体が予め定められた所定位置(目印L1)に到達したときに、被写体の顔が笑顔であれば、撮影制御部18gは、撮像部11に静止画撮影を行わせる。したがって、第2実施形態の電子カメラ1は、複数の動く被写体のうち、選択した被写体の顔が特定の表情であって、好ましい構図であると判断されるときに、撮影タイミングであると決定して撮影を行わせることができる。
<実施形態の補足事項>
(1)上述した第1実施形態では、人物が1人である場合を例示したが、複数の顔が検出された場合には、第2実施形態と同様、撮影者による入力により、複数の人物のうち、1人を選択させるようにしてもよい。
As described above, according to the electronic camera 1 of the second embodiment, when a plurality of subjects are monitored, the subject's face is smiling when the subject of interest reaches a predetermined position (mark L1). If there is, the imaging control unit 18g causes the imaging unit 11 to perform still image shooting. Therefore, the electronic camera 1 of the second embodiment determines that it is the shooting timing when it is determined that the face of the selected subject among the plurality of moving subjects has a specific facial expression and a preferred composition. Can be taken.
<Supplementary items of the embodiment>
(1) In the first embodiment described above, the case where there is one person is exemplified. However, when a plurality of faces are detected, a plurality of persons are input by the photographer as in the second embodiment. One of them may be selected.

(2)上述した第1実施形態及び第2実施形態では、被写体が笑顔である場合であって、検出枠と目印Mとの位置関係に応じて、撮影制御部18gが撮像部11に静止画撮影を行わせた。例えば、被写体の特定のポーズ(ジェスチャー)を表す形状を抽出する公知技術を利用して、特定のポーズであるときに、撮影制御部18gが撮像部11に静止画撮影を行わせるようにしてもよい。或いは、特定の表情と特定のポーズを組み合わせてもよい。   (2) In the first embodiment and the second embodiment described above, when the subject is smiling, the imaging control unit 18g causes the imaging unit 11 to store a still image according to the positional relationship between the detection frame and the mark M. I was allowed to shoot. For example, using a known technique for extracting a shape representing a specific pose (gesture) of the subject, the imaging control unit 18g may cause the imaging unit 11 to perform still image shooting when the pose is a specific pose. Good. Alternatively, a specific facial expression and a specific pose may be combined.

11・・・撮像部、18a・・・目印表示制御部、18b・・・顔検出部、18c・・・検出枠表示制御部、18e・・・顔認識部、18f・・・表情判定部、18g・・・撮影制御部、18i・・・動き検出部、18j・・・被写体選択部 DESCRIPTION OF SYMBOLS 11 ... Imaging part, 18a ... Mark display control part, 18b ... Face detection part, 18c ... Detection frame display control part, 18e ... Face recognition part, 18f ... Expression determination part, 18g: Shooting control unit, 18i: Motion detection unit, 18j: Subject selection unit

特開2007−336124号公報JP 2007-336124 A

Claims (4)

被写体を撮像して画像データを生成する撮像部と、
前記画像データに基づく画像を表示する表示部と、
構図確認用に取得される動画像であるスルー画像に対して、静止画撮影の構図を決定するための第1目印を前記スルー画像の特定位置に重畳表示させる第1目印表示制御部と、
前記第1目印を前記特定位置から任意の位置に移動させる先の位置の情報を入力する操作部と、
前記スルー画像から顔の領域を検出する顔検出部と、
前記顔検出部の検出結果に基づいて、前記スルー画像に対して前記顔の領域を示す第2目印を重畳表示させる第2目印表示制御部と、
前記顔の特徴量を抽出する顔認識部と、
前記特徴量に基づいて、前記顔の表情を判定する表情判定部と、
前記第1目印が表示される前記任意の位置と前記第2目印が表示される位置との距離が予め設定した閾値に達しているかを判定する位置判定部と、
前記距離が前記閾値に達していることを前記位置判定部が判定し、かつ、前記第2目印に対応する前記顔の表情が特定の表情である場合に、前記撮像部に前記静止画撮影を行わせる撮影制御部と、
を備えることを特徴する電子カメラ。
An imaging unit that images a subject and generates image data;
A display unit for displaying an image based on the image data;
A first mark display control unit that superimposes and displays a first mark for determining a composition of still image shooting at a specific position of the through image with respect to a through image that is a moving image acquired for composition confirmation;
An operation unit for inputting information of a position to move the first mark from the specific position to an arbitrary position;
A face detection unit for detecting a face region from the through image;
A second mark display control unit that superimposes and displays a second mark indicating the area of the face on the through image based on a detection result of the face detection unit;
A face recognition unit for extracting the feature amount of the face;
A facial expression determination unit that determines the facial expression based on the feature amount;
A position determination unit that determines whether a distance between the arbitrary position where the first mark is displayed and the position where the second mark is displayed has reached a preset threshold;
When the position determination unit determines that the distance has reached the threshold and the facial expression corresponding to the second mark is a specific facial expression , the imaging unit is configured to perform the still image shooting. A shooting control unit to perform,
An electronic camera comprising:
請求項1に記載の電子カメラにおいて、
通常の撮影モードと第1モードとを選択する撮影モード選択用の操作部と、
前記通常の撮影モード時に、半押し操作に応じて自動露出と自動焦点合わせとを指示するための信号を出力し、前記半押し操作に続いて操作される全押し操作に応じて前記静止画撮影の動作を開始させるための信号を出力するレリーズ釦と、を備え、
前記撮影制御部は、前記第1モードが選択されている場合、前記レリーズ釦の全押し操作を行った後に、前記距離が前記閾値に達していることを前記位置判定部が判定し、かつ、前記顔画像が特定の表情である場合に、前記静止画撮影を自動的に実行する
ことを特徴とする電子カメラ。
The electronic camera according to claim 1,
An operation unit for selecting a shooting mode for selecting a normal shooting mode and a first mode,
In the normal shooting mode, a signal for instructing automatic exposure and automatic focusing is output in response to a half-press operation, and the still image shooting is performed in response to a full-press operation operated following the half-press operation. A release button for outputting a signal for starting the operation of
When the first mode is selected, the shooting control unit determines that the distance has reached the threshold after performing the full pressing operation of the release button, and the position determination unit, An electronic camera , wherein the still image shooting is automatically executed when the face image has a specific facial expression .
請求項1又は2に記載の電子カメラにおいて、
前記撮像部が順次生成する複数の画像データに基づいて、被写体の動きを検出する動き検出部と、
前記動き検出部で動きが検出された複数の被写体のうち、注目する被写体を選択する被写体選択部と、
前記注目する被写体を追尾する追尾部と、を備え、
前記第2目印表示制御部は、前記注目する被写体の顔の領域を示す第2目印を前記スルー画像に重畳表示させる
ことを特徴とする電子カメラ。
The electronic camera according to claim 1 or 2 ,
A motion detection unit that detects a motion of a subject based on a plurality of image data sequentially generated by the imaging unit;
A subject selection unit that selects a subject of interest among a plurality of subjects whose movement is detected by the motion detection unit;
A tracking unit that tracks the subject of interest ;
The electronic camera characterized in that the second mark display control unit superimposes and displays a second mark indicating the face area of the subject of interest on the through image .
請求項1から4のいずれか1項に記載の電子カメラにおいて、
撮影者の指が映っているかを検出する検出手段と、
前記検出手段が撮影者の指の映りを検出することに応答して、前記静止画撮影を行う前又は後で、外部に警告を表示する警告手段と、を備える
ことを特徴とする電子カメラ。
The electronic camera according to any one of claims 1 to 4 ,
Detection means for detecting whether the photographer's finger is reflected;
An electronic camera comprising: warning means for displaying a warning externally before or after taking the still image in response to detection of reflection of a photographer's finger by the detection means .
JP2009019962A 2009-01-30 2009-01-30 Electronic camera Expired - Fee Related JP5434104B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009019962A JP5434104B2 (en) 2009-01-30 2009-01-30 Electronic camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009019962A JP5434104B2 (en) 2009-01-30 2009-01-30 Electronic camera

Publications (2)

Publication Number Publication Date
JP2010178158A JP2010178158A (en) 2010-08-12
JP5434104B2 true JP5434104B2 (en) 2014-03-05

Family

ID=42708644

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009019962A Expired - Fee Related JP5434104B2 (en) 2009-01-30 2009-01-30 Electronic camera

Country Status (1)

Country Link
JP (1) JP5434104B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105306801A (en) * 2014-06-09 2016-02-03 中兴通讯股份有限公司 Shooting method and device and terminal
JP6534960B2 (en) * 2016-04-26 2019-06-26 日本電信電話株式会社 Photography support apparatus and photography support method
CN112702564B (en) * 2019-10-23 2023-04-18 成都鼎桥通信技术有限公司 Image monitoring method and device
JP7200965B2 (en) * 2020-03-25 2023-01-10 カシオ計算機株式会社 Image processing device, image processing method and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4135100B2 (en) * 2004-03-22 2008-08-20 富士フイルム株式会社 Imaging device
JP4315148B2 (en) * 2005-11-25 2009-08-19 株式会社ニコン Electronic camera
JP4427515B2 (en) * 2006-01-27 2010-03-10 富士フイルム株式会社 Target image detection display control apparatus and control method thereof
JP2008219451A (en) * 2007-03-05 2008-09-18 Fujifilm Corp Imaging device and control method thereof
US7664389B2 (en) * 2007-05-21 2010-02-16 Sony Ericsson Mobile Communications Ab System and method of photography using desirable feature recognition
JP2010141609A (en) * 2008-12-11 2010-06-24 Fujifilm Corp Imaging apparatus

Also Published As

Publication number Publication date
JP2010178158A (en) 2010-08-12

Similar Documents

Publication Publication Date Title
JP4315148B2 (en) Electronic camera
US10015406B2 (en) Zoom control device, imaging apparatus, control method of zoom control device, and recording medium
JP2007279601A (en) Camera
CN101465972A (en) Apparatus and method for blurring image background in digital image processing device
US8400532B2 (en) Digital image capturing device providing photographing composition and method thereof
JP6302215B2 (en) Imaging device
JP4894708B2 (en) Imaging device
JP2014146989A (en) Image pickup device, image pickup method, and image pickup program
JP5434104B2 (en) Electronic camera
JP6312460B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2010213057A (en) Image pickup device, method for controlling the same, program, and recording medium
JP2014017665A (en) Display control unit, control method for display control unit, program, and recording medium
JP2009060291A (en) Image processing apparatus, image processing method and program
KR20100091844A (en) Photographing apparatus and photographing method
JP2010062943A (en) Electronic camera
JP2014068081A (en) Imaging apparatus and control method of the same, program and storage medium
US8866934B2 (en) Image pickup apparatus capable of deleting video effect superimposed on moving image, method of controlling the apparatus, and moving image-recording apparatus, as well as storage medium
KR20090083713A (en) Apparatus for processing digital image and method for controlling thereof
KR101436327B1 (en) Background first photographing method and photographing apparatus
JP2005223658A (en) Digital camera
JP2016036081A (en) Image processing device, method and program, and recording medium
JP2012186538A (en) Electronic camera, image display device, program, and recording medium
JP6128929B2 (en) Imaging apparatus, control method therefor, and program
JP5423851B2 (en) Electronic camera
JP5093178B2 (en) Electronic camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131125

R150 Certificate of patent or registration of utility model

Ref document number: 5434104

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees