JP4970716B2 - Electronic camera - Google Patents

Electronic camera Download PDF

Info

Publication number
JP4970716B2
JP4970716B2 JP2004254396A JP2004254396A JP4970716B2 JP 4970716 B2 JP4970716 B2 JP 4970716B2 JP 2004254396 A JP2004254396 A JP 2004254396A JP 2004254396 A JP2004254396 A JP 2004254396A JP 4970716 B2 JP4970716 B2 JP 4970716B2
Authority
JP
Japan
Prior art keywords
subject
unit
instruction
electronic camera
composition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2004254396A
Other languages
Japanese (ja)
Other versions
JP2006074368A (en
Inventor
稔 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2004254396A priority Critical patent/JP4970716B2/en
Publication of JP2006074368A publication Critical patent/JP2006074368A/en
Application granted granted Critical
Publication of JP4970716B2 publication Critical patent/JP4970716B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Description

本発明は、構図アシスト用のフレームを表示可能な電子カメラに関する。   The present invention relates to an electronic camera capable of displaying a composition assist frame.

従来より、撮影者が撮影の構図を決定しやすいようにするために、構図アシスト用のフレームを表示する電子カメラが知られている(例えば、特許文献1参照)。構図アシスト用のフレームは、例えば、被写体人物を収めるための枠を画像の左右のいずれかに偏って配置させたものである。この構図アシスト用のフレームでは、人物とは反対側から画像の中央に亘って空間ができるので、この空間に風景を効果的に収めることができる。この構図アシスト用のフレームを用いる場合、画像の中央、即ち、風景側に被写体の顔を向かせることで、落ち着いた雰囲気を演出することが多い。   2. Description of the Related Art Conventionally, an electronic camera that displays a composition assist frame is known in order to make it easier for a photographer to determine a composition for photographing (see, for example, Patent Document 1). The composition assist frame is, for example, one in which a frame for accommodating a subject person is arranged so as to be biased to either the left or right of the image. In this composition assisting frame, a space is created from the opposite side of the person to the center of the image, so that the landscape can be effectively accommodated in this space. When this composition assist frame is used, a calm atmosphere is often produced by directing the subject's face toward the center of the image, that is, the landscape side.

一般に、構図アシスト用のフレームは、電子カメラの背面の液晶表示装置に、被写体のスルー画と重ねて表示される。撮影の際は、表示画像における被写体の位置及び大きさが構図アシスト用のフレームに合うように、電子カメラの向き、撮影レンズのズーム位置、被写体と電子カメラとの距離などを変えていた。そして、構図アシスト用のフレームに被写体画像が合ったところで撮影していた。
特開2002−314874号公報 (第6−7項、図4−図5)
In general, the composition assist frame is displayed on the liquid crystal display device on the back of the electronic camera so as to overlap the through image of the subject. At the time of shooting, the orientation of the electronic camera, the zoom position of the shooting lens, the distance between the subject and the electronic camera, and the like are changed so that the position and size of the subject in the display image matches the frame for composition assistance. The photograph was taken when the subject image was aligned with the composition assist frame.
Japanese Patent Laid-Open No. 2002-314874 (Section 6-7, FIGS. 4 to 5)

上述のように構図アシスト用のフレームを用いる場合、撮影者は、液晶表示装置を見ながら撮影するが、太陽光が当たる等によって液晶表示装置が見づらいことがある。このような撮影条件の下では、撮影者は、被写体人物が構図アシスト用のフレームに収まっているか否かの確認はできても、被写体人物の顔の向き等の細かい点の確認は困難である。このため、例えば前述したように被写体人物を偏って配置させる構図アシスト用のフレームを用いる場合、被写体人物の顔が風景の方を向いていないことに気づかずに撮影してしまうことがあった。従って、容易な方法により、撮影者が意図する構図に撮像画像をできる限り近づけることが望まれていた。   When the composition assist frame is used as described above, the photographer shoots while looking at the liquid crystal display device, but the liquid crystal display device may be difficult to see due to sunlight. Under such shooting conditions, the photographer can confirm whether or not the subject person is within the composition assist frame, but it is difficult to confirm details such as the orientation of the subject person's face. . For this reason, for example, when using a composition assisting frame in which the subject person is biased as described above, the subject person may be photographed without noticing that the face of the subject person is not facing the landscape. Therefore, it has been desired to bring the captured image as close as possible to the composition intended by the photographer by an easy method.

本発明の目的は、構図アシスト用のフレームを表示可能な電子カメラにおいて、表示装置が見づらい条件の下でも、撮影者が意図する構図に撮像画像を近づける技術を提供することである。   An object of the present invention is to provide a technique for bringing a captured image closer to a composition intended by a photographer in an electronic camera capable of displaying a composition assisting frame even under conditions where the display device is difficult to see.

請求項1に記載の電子カメラは、撮影の構図を決定するためのガイド表示を行う表示部と、被写体を撮像して画像データを生成する撮像部と、前記画像データにおける、前記被写体の特徴部位を抽出する抽出部と、装置の正面側に配置され、前記ガイド表示が示す前記撮影の構図に前記被写体を近づけるための指示を出力する指示部とを備え、前記表示部は、前記ガイド表示を行うための所定のフレームに基づいてガイド表示を行い、前記所定のフレームは、当該所定のフレームに対する被写体状態を示す付帯情報が関連付けられてプログラムメモリに記憶され、前記指示部は、前記抽出された前記被写体の特徴部位及び前記付帯情報に基づいて、前記指示を前記被写体に視認可能に出力し、前記ガイド表示が示す前記撮影の構図に前記被写体を近づけるための指示と、前記付帯情報に基づく指示とを、前記被写体の視認により識別可能に出力することを特徴とする。The electronic camera according to claim 1, a display unit that performs guide display for determining a composition of shooting, an imaging unit that captures an image of a subject and generates image data, and a characteristic part of the subject in the image data And an instruction unit that is arranged on the front side of the apparatus and outputs an instruction to bring the subject closer to the photographing composition indicated by the guide display, and the display unit displays the guide display. Guide display is performed based on a predetermined frame to be performed, and the predetermined frame is associated with auxiliary information indicating a subject state with respect to the predetermined frame and stored in a program memory, and the instruction unit extracts the extracted information Based on the characteristic part of the subject and the incidental information, the instruction is output to the subject so as to be visible, and the subject composition is displayed in the photographing composition indicated by the guide display. Instructions and to approximate, the instructions and based on the supplementary information, and outputs to be identified by visual recognition of the object.

請求項2の発明は、請求項1記載の電子カメラにおいて、以下の点を特徴とする。第1に、抽出部は、被写体の顔領域を抽出する。第2に、指示部は、抽出された顔領域に基づいて、画像データが示す画像における被写体の視線の方向を被写体状態として推定して、被写体状態を撮影の構図に近づけるための指示を出力する。 The invention of claim 2 is the electronic camera according to claim 1, characterized by the following points. First, the extraction unit extracts the face area of the subject. Second, the instruction unit, based on the extracted face region, by estimating the direction of the object to be Utsushitai that put the image indicated by the image data line-of-sight as the subject state, the closer the object state in the composition of the shot Is output.

請求項3の発明は、請求項1または請求項2の電子カメラにおいて、指示部は被写体に対して音声による指示を出力する第1の出力部と、撮影者に対して音声による指示を出力する第2の出力部とを備えたことを特徴とする According to a third aspect of the present invention, in the electronic camera according to the first or second aspect, the instruction unit outputs a voice instruction to the photographer and a first output unit that outputs a voice instruction to the subject. And a second output unit .

請求項の発明は、請求項1〜請求項3のいずれかの電子カメラにおいて、以下の点を特徴とする。第1に、抽出された被写体の特徴部位に基づいて、被写体が撮影の構図に合致したか否かを判定し、合致したと判定した後、被写体が撮影合図動作を行ったか否かを抽出された被写体の特徴部位に基づいて判定する動作判定部を備えている。第2に、撮影合図動作を行ったと動作判定部が判定したときから、予め定められた時間経過後に、撮影を開始する。 According to a fourth aspect of the present invention, the electronic camera according to any one of the first to third aspects is characterized by the following points. First, based on the extracted characteristic part of the subject, it is determined whether or not the subject matches the shooting composition. After determining that the subject matches, it is extracted whether or not the subject has performed a shooting cue operation. An operation determination unit for determining based on the characteristic part of the subject . Second, shooting is started after elapse of a predetermined time from when the operation determination unit determines that the shooting cue operation has been performed.

本発明の電子カメラでは、表示部は、撮影の構図を決定するためのガイド表示を行い、抽出部は、撮像により得られた画像データから被写体の領域を抽出する。指示部は、抽出された被写体の領域に基づいて、被写体を撮影の構図に近づけるための指示を出力する。従って、被写体または撮影者がこの指示に従うだけで、ガイド表示が見づらい場合でも、撮影者が意図する構図に撮像画像を近づけることができる。   In the electronic camera of the present invention, the display unit performs guide display for determining the composition of shooting, and the extraction unit extracts a region of the subject from the image data obtained by imaging. The instruction unit outputs an instruction for bringing the subject closer to the shooting composition based on the extracted subject region. Therefore, even if the subject or the photographer only follows this instruction and the guide display is difficult to see, the captured image can be brought close to the composition intended by the photographer.

以下、図面を用いて本発明の実施の形態を説明する。
<本実施形態の構成>
図1は、本実施形態における電子カメラのブロック図である。図に示すように、電子カメラ12は、交換可能な撮影レンズ14と、フォーカルプレーンシャッタ16と、CCD(撮像素子)18と、アナログ信号処理部20と、A/D変換部22と、タイミングジェネレータ26と、絞り駆動機構28と、シャッタ制御部30と、レンズ駆動部32と、指示部34と、MPU(Micro Processor Unit)38と、操作部40と、システムバス44と、画像処理部46と、画像メモリ48と、プログラムメモリ50と、モニタ制御部54と、液晶モニタ(Liquid Crystal Display)56と、カードインターフェース58と、交換可能なメモリカード(記録媒体)60とを有している。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<Configuration of this embodiment>
FIG. 1 is a block diagram of the electronic camera in the present embodiment. As shown in the figure, the electronic camera 12 includes an interchangeable photographing lens 14, a focal plane shutter 16, a CCD (imaging device) 18, an analog signal processing unit 20, an A / D conversion unit 22, and a timing generator. 26, aperture drive mechanism 28, shutter control unit 30, lens drive unit 32, instruction unit 34, MPU (Micro Processor Unit) 38, operation unit 40, system bus 44, and image processing unit 46. , An image memory 48, a program memory 50, a monitor control unit 54, a liquid crystal monitor (Liquid Crystal Display) 56, a card interface 58, and a replaceable memory card (recording medium) 60.

撮影レンズ14は、レンズ群66と、絞り68とを有するズームレンズであり、ピント位置をずらすことなく焦点距離(即ち、画角)を調節可能である。レンズ駆動部32は、MPU38からの指令に従って、レンズ群66を光軸方向に移動させてピントを合わせ、また、焦点距離を調節する。絞り駆動機構28は、MPU38からの指令に従って絞り68を調節して、撮影レンズ14を透過する光量を調節する。シャッタ制御部30は、MPU38からの指令に従って、フォーカルプレーンシャッタ16の先幕及び後幕(図示せず)の走行を制御する。アナログ信号処理部20及びA/D変換部22は、CCD18からの画素出力に、クランプ処理、感度補正処理、A/D変換などを施し、デジタルの画像データを生成する。MPU38は、システムバス44を介して電子カメラ12のシステム制御を行う。操作部40は、不図示の電源釦、撮影モード選択釦、レリーズ釦などの設定用の釦群を有している。   The photographing lens 14 is a zoom lens having a lens group 66 and a diaphragm 68, and can adjust the focal length (that is, the angle of view) without shifting the focus position. The lens driving unit 32 moves the lens group 66 in the direction of the optical axis in accordance with a command from the MPU 38 to adjust the focal length. The aperture driving mechanism 28 adjusts the amount of light transmitted through the photographing lens 14 by adjusting the aperture 68 in accordance with a command from the MPU 38. The shutter control unit 30 controls the travel of the front curtain and rear curtain (not shown) of the focal plane shutter 16 in accordance with a command from the MPU 38. The analog signal processing unit 20 and the A / D conversion unit 22 perform clamp processing, sensitivity correction processing, A / D conversion, and the like on the pixel output from the CCD 18 to generate digital image data. The MPU 38 performs system control of the electronic camera 12 via the system bus 44. The operation unit 40 includes a set of buttons such as a power button, a shooting mode selection button, and a release button (not shown).

本実施形態の電子カメラ12は、従来の撮影モードに加えて、シーンアシスト+顔認識モード、第1セルフ撮影モード、第2セルフ撮影モードの3つの撮影モードを有することを主な特徴とする。以下、これら3つの撮影モードについて説明する。シーンアシスト+顔認識モードでは、構図アシスト用のフレームが表示され、撮影者及び被写体人物に対して移動等の指示が行われる。第1、第2セルフ撮影モードは、同様に構図アシスト用のフレームを表示するものであるが、撮影者自身が被写体であることを想定したものである。即ち、第1または第2セルフ撮影モードに設定し、撮影者が撮影範囲に入ると、ガイド表示等により撮影者に移動等の指示が行われる。この後、セルフタイマーにより自動的に撮影される。   The electronic camera 12 of the present embodiment is mainly characterized by having three shooting modes of a scene assist + face recognition mode, a first self shooting mode, and a second self shooting mode in addition to the conventional shooting mode. Hereinafter, these three shooting modes will be described. In the scene assist + face recognition mode, a composition assist frame is displayed, and instructions such as movement are given to the photographer and the subject person. In the first and second self-photographing modes, a frame for composition assistance is displayed in the same manner, but it is assumed that the photographer himself is the subject. That is, when the first or second self-photographing mode is set and the photographer enters the photographing range, the photographer is instructed to move or the like by a guide display or the like. Thereafter, the image is automatically taken by a self-timer.

これら3つの撮影モードでは、液晶モニタ56上において、撮影者により選択された構図アシスト用のフレームが被写体画像と重ねて表示される。図2は、プログラムメモリ50に予め記憶されている構図アシスト用のフレーム(点線部分)の数例を示している。図2(a)は被写体人物を右にして、画面の左から中央に亘って風景を収めることを想定したものである。図2(b)は、図2(a)で被写体人物を左にしたものである。図2(c)は、ポートレートを撮る際に被写体人物の顔や上半身の配置の目安に用いるものである。図2(d)は、ツーショット用のものである。   In these three shooting modes, the composition assist frame selected by the photographer is displayed on the liquid crystal monitor 56 so as to overlap the subject image. FIG. 2 shows several examples of composition assist frames (dotted line portions) stored in advance in the program memory 50. FIG. 2 (a) assumes that the subject person is on the right and the landscape is stored from the left to the center of the screen. FIG. 2B shows the subject person on the left in FIG. FIG. 2 (c) is used as a guide for the arrangement of the face and upper body of the subject person when taking a portrait. FIG. 2D is for two-shot.

そして、プログラムメモリ50は、これら4つの構図アシスト用のフレームに対してそれぞれ以下の付帯情報を記憶している。なお、付帯情報は、被写体人物の顔の向き及び視線の方向はどちら向きが望ましいかを示すものである。図2(a)の構図アシスト用のフレームの付帯情報は、被写体人物の顔の向き及び視線の方向はやや左向きが望ましいというものである。これは、画像の左側から中央に亘って空間ができるので、空間側に被写体人物の顔を向かせた方が落ち着いた雰囲気を演出できるからである。図2(b)の構図アシスト用のフレームの付帯情報は、被写体人物の顔の向き及び視線の方向はやや右向きが望ましいというものである。図2(c)の構図アシスト用のフレームの付帯情報は、被写体人物の顔の向き及び視線の方向は正面向きが望ましいというものである。図2(d)の構図アシスト用のフレームの付帯情報は、右側の被写体人物の顔の向き及び視線の方向はやや左向きが望ましく、左側の被写体人物の顔の向き及び視線の方向はやや右向きが望ましいというものである。これは、互いに向き合った方が親しげな雰囲気を演出できるからである。   The program memory 50 stores the following supplementary information for each of the four composition assist frames. The accompanying information indicates which direction is desirable for the direction of the face of the subject person and the direction of the line of sight. The supplementary information of the composition assisting frame in FIG. 2A indicates that it is desirable that the direction of the face of the subject person and the direction of the line of sight are slightly leftward. This is because a space is created from the left side to the center of the image, and a calm atmosphere can be produced by directing the face of the subject person to the space side. The supplementary information of the composition assisting frame in FIG. 2B indicates that the direction of the face of the subject person and the direction of the line of sight are preferably slightly rightward. The supplementary information of the composition assisting frame shown in FIG. 2C indicates that the face direction of the subject person and the direction of the line of sight are preferably front-facing. In the supplementary information of the frame for assisting composition in FIG. 2D, the face direction and line-of-sight direction of the right subject person are preferably slightly leftward, and the face direction and line-of-sight direction of the left subject person are slightly rightward. This is desirable. This is because facing each other can produce a friendly atmosphere.

指示部34は、被写体人物の位置等が構図アシスト用のフレーム及びその付帯情報に合致するように、移動等の指示を行う。この指示は、音声や、電子カメラ12のカメラボディの正面に設けられた発光部の点灯及び点滅で行われる。図3は、電子カメラ12の正面図である。図に示すように、指示部34は、正面側音声出力窓72、第1発光部Sa、第2発光部Sb、第3発光部Sc、第4発光部Sd、第5発光部Seをカメラボディの正面に有している。なお、図には示していないが、指示部34は、カメラボディの背面側に背面側音声出力窓74を有している。第1〜第4発光部Sa〜Sdは、第5発光部Seの位置を基準として、上下左右の方向にそれぞれ配置されている。第1発光部Sa、第2発光部Sb、第3発光部Sc、第4発光部Sdは、出光面が三角形であり、第5発光部Seは出光面が円形である。第1〜第5発光部Sa〜Seは、発光ダイオードにより例えば緑色に発光する。   The instructing unit 34 instructs movement or the like so that the position of the subject person matches the frame for assisting composition and the accompanying information. This instruction is performed by sound or lighting and blinking of a light emitting unit provided in front of the camera body of the electronic camera 12. FIG. 3 is a front view of the electronic camera 12. As shown in the figure, the instructing unit 34 includes a front side audio output window 72, a first light emitting unit Sa, a second light emitting unit Sb, a third light emitting unit Sc, a fourth light emitting unit Sd, and a fifth light emitting unit Se. Has in front of. Although not shown in the figure, the instruction unit 34 has a back side audio output window 74 on the back side of the camera body. The first to fourth light emitting units Sa to Sd are arranged in the vertical and horizontal directions with respect to the position of the fifth light emitting unit Se. The first light-emitting portion Sa, the second light-emitting portion Sb, the third light-emitting portion Sc, and the fourth light-emitting portion Sd have a light-emitting surface that is triangular, and the fifth light-emitting portion Se has a circular light-emitting surface. The first to fifth light emitting units Sa to Se emit, for example, green light by the light emitting diode.

図4は、第1〜第5発光部Sa〜Seの指示内容を示す表である。第1発光部Sa、第2発光部Sb、第3発光部Sc、第4発光部Sdは、点滅することにより、被写体人物に対して移動の指示を行う。第1発光部Saが点滅している場合、電子カメラ12に近づく方向の移動指示(前への移動指示)を示す。第3発光部Scが点滅している場合、電子カメラ12から遠ざかる方向の移動指示(後ろへの移動指示)を示す。第2発光部Sbが点滅している場合、カメラボディの正面を見ていると思われる被写体人物に対しては、右への移動指示となる。なお、左右の方向は、カメラボディの背面の液晶モニタ56を見ている撮影者と、カメラボディの正面を見ている被写体人物とで逆になる。第4発光部Sdが点滅している場合、カメラボディの正面を見ていると思われる被写体人物に対しては、左への移動指示となる。   FIG. 4 is a table showing the instruction contents of the first to fifth light emitting units Sa to Se. The first light-emitting unit Sa, the second light-emitting unit Sb, the third light-emitting unit Sc, and the fourth light-emitting unit Sd instruct the subject person to move by blinking. When the first light emitting unit Sa blinks, a movement instruction in the direction approaching the electronic camera 12 (an instruction to move forward) is indicated. When the third light emitting unit Sc is blinking, a movement instruction in the direction away from the electronic camera 12 (rear movement instruction) is shown. When the second light emitting unit Sb is blinking, an instruction to move to the right is given to a subject person who seems to be looking at the front of the camera body. Note that the left and right directions are reversed between the photographer looking at the liquid crystal monitor 56 on the back of the camera body and the subject person looking at the front of the camera body. When the fourth light emitting unit Sd is blinking, an instruction to move to the left is given to a subject person who seems to be looking at the front of the camera body.

また、第1発光部Sa、第2発光部Sb、第3発光部Sc、第4発光部Sdは、点灯することにより、被写体人物に対して顔の向きの指示を行う。第1発光部Saが点灯している場合、顔をもっと上に向ける指示を示す。第3発光部Scが点灯している場合、顔をもっと下に向ける指示を示す。第2発光部Sbが点灯している場合、顔をもっと右に向ける指示を示す。第4発光部Sdが点灯している場合、顔をもっと左に向ける指示を示す。第5発光部Seは、被写体人物の位置、被写体人物の顔の向き、及び被写体人物の視線の方向が選択されている構図アシスト用のフレームに合致したときに、例えば緑色に点灯する。   In addition, the first light-emitting unit Sa, the second light-emitting unit Sb, the third light-emitting unit Sc, and the fourth light-emitting unit Sd turn on to instruct the subject person about the face direction. When the first light emitting unit Sa is lit, an instruction to turn the face upward is shown. When the third light emitting unit Sc is lit, an instruction to turn the face further downward is shown. When the second light emitting unit Sb is lit, an instruction to turn the face to the right is shown. When the fourth light emitting unit Sd is lit, an instruction to turn the face to the left is shown. The fifth light emitting unit Se is lit in green, for example, when the position of the subject person, the orientation of the face of the subject person, and the direction of the line of sight of the subject person match the selected composition assisting frame.

<本実施形態の動作説明>
図5、図6、図7は、本実施形態の電子カメラ12の動作を示す流れ図である。図5は、動作フローの導入部分であり、シーンアシスト+顔認識モードでの動作内容を主に示す。図6は、図5において、第1セルフ撮影モードに設定された後の動作内容を示す。図7は、図5において、第2セルフ撮影モードに設定された後の動作内容を示す。以下、図に示すステップ番号に従って、電子カメラ12の動作を説明する。
<Description of operation of this embodiment>
5, 6 and 7 are flowcharts showing the operation of the electronic camera 12 of the present embodiment. FIG. 5 is an introduction part of the operation flow, and mainly shows the operation contents in the scene assist + face recognition mode. FIG. 6 shows the operation content after setting the first self-photographing mode in FIG. FIG. 7 shows the operation content after the second self-photographing mode is set in FIG. The operation of the electronic camera 12 will be described below according to the step numbers shown in the figure.

[ステップS1]電子カメラ12の電源釦がオンされると、電源オン処理が行われる。この後、ユーザは、操作部40の釦群を操作して、撮影モードなどを設定する。撮影者は、シーンアシスト+顔認識モード、第1セルフ撮影モード、第2セルフ撮影モードのいずれかに設定する場合、このときに構図アシスト用のフレームを選択可能である。そして、ステップS2に進む。   [Step S1] When the power button of the electronic camera 12 is turned on, a power-on process is performed. Thereafter, the user operates the button group of the operation unit 40 to set the shooting mode and the like. When the photographer sets any of the scene assist + face recognition mode, the first self-photographing mode, and the second self-photographing mode, the composition assisting frame can be selected at this time. Then, the process proceeds to step S2.

[ステップS2]MPU38は、シーンアシスト+顔認識モードに設定されているか否かを判定する。シーンアシスト+顔認識モードに設定されている場合、ステップS6に進み、そうでない場合、ステップS3に進む。
[ステップS3]MPU38は、第1セルフ撮影モードに設定されているか否かを判定する。第1セルフ撮影モードに設定されている場合、図6のステップS16に進み、そうでない場合、ステップS4に進む。
[Step S2] The MPU 38 determines whether or not the scene assist + face recognition mode is set. If the scene assist + face recognition mode is set, the process proceeds to step S6, and if not, the process proceeds to step S3.
[Step S3] The MPU 38 determines whether or not the first self-photographing mode is set. If the first self-photographing mode is set, the process proceeds to step S16 in FIG. 6; otherwise, the process proceeds to step S4.

[ステップS4]MPU38は、第2セルフ撮影モードに設定されているか否かを判定する。第2セルフ撮影モードに設定されている場合、図7のステップS27に進み、そうでない場合、ステップS5に進む。
[ステップS5]設定された撮影モードでの撮影が行われ、電子カメラの動作は終了する。この場合の動作は公知なので、説明を省略する。
[Step S4] The MPU 38 determines whether or not the second self-photographing mode is set. If the second self-photographing mode is set, the process proceeds to step S27 in FIG. 7, and if not, the process proceeds to step S5.
[Step S5] Shooting in the set shooting mode is performed, and the operation of the electronic camera ends. Since the operation in this case is publicly known, the description is omitted.

[ステップS6]MPU38は、CCD18の電子シャッタ動作により、予め設定されたフレームレート(例えば30fps)でスルー画用の連写撮影を開始させる。そして、連続的に生成される複数の画像データは、画像処理部46により色補間などの画像処理を施された後、画像メモリ48に取り込まれ、液晶モニタ56にスルー画表示される。このとき、選択されている構図アシスト用のフレームもスルー画に重ねて表示される。この動作の詳細は公知なので説明を省略する。そして、ステップS7に進む。   [Step S6] The MPU 38 starts continuous shooting for through images at a preset frame rate (for example, 30 fps) by the electronic shutter operation of the CCD 18. A plurality of pieces of image data generated continuously are subjected to image processing such as color interpolation by the image processing unit 46, and then taken into the image memory 48 and displayed on the liquid crystal monitor 56 as a through image. At this time, the selected composition assisting frame is also displayed on the through image. Since the details of this operation are known, the description is omitted. Then, the process proceeds to step S7.

[ステップS7]スルー画用の連写開始から所定時間経過後に、MPU38は、スルー画用に生成された複数の画像データの内、最新のものを画像メモリ56から読み込む。なお、後述するステップS10を介して再度ステップS7に到達する場合には、所定時間の経過を待たずに最新のものを読み込んでもよい。そして、MPU38は、読み込んだ画像データが示す画像における、被写体人物の顔領域を抽出する。   [Step S7] After a predetermined time has elapsed since the start of continuous shooting for through images, the MPU 38 reads the latest one of the plurality of image data generated for through images from the image memory 56. In addition, when reaching Step S7 again through Step S10 described later, the latest one may be read without waiting for the elapse of a predetermined time. Then, the MPU 38 extracts the face area of the subject person in the image indicated by the read image data.

具体的には、選択されている構図アシスト用のフレームが示す顔の枠内において、唇、目、眉毛等の顔の特徴点を探し、枠内になければ、枠外に範囲を広げて探す。唇の位置は、例えば、周囲よりもやや赤い領域を検出することで判定できる。目の位置は、例えば、瞳に相当する黒く丸い部分と、その両側の白い部分とを検出することで判定できる。両眉毛の位置は、例えば、両目の上方において周囲よりもやや黒い2つの領域を検出することで判定できる。そして、これら顔の特徴点を内側に含むと共にほぼ肌色と見なせる領域を検出し、これにより画像における顔の位置、及び顔の領域面積を判定する。そして、ステップS8に進む。   Specifically, facial feature points such as lips, eyes, and eyebrows are searched for in the face frame indicated by the selected composition assisting frame, and if not, the range is searched outside the frame. The position of the lips can be determined, for example, by detecting an area slightly redder than the surroundings. The position of the eyes can be determined, for example, by detecting a black round part corresponding to the pupil and white parts on both sides thereof. The position of both eyebrows can be determined, for example, by detecting two areas slightly blacker than the surroundings above the eyes. Then, an area that includes these facial feature points on the inside and can be regarded almost as a skin color is detected, and thereby the position of the face in the image and the area of the face area are determined. Then, the process proceeds to step S8.

[ステップS8]MPU38は、選択されている構図アシスト用のフレーム及びその付帯情報と、抽出した顔領域とを比較する。この比較は、画像における顔の領域面積、顔の位置、視線の方向、顔の向きの4点から行われる。以下、これら4点を合わせて被写体状態という。そして、MPU38は、被写体状態と、構図アシスト用のフレーム及びその付帯情報とが合致しているか否かを判定し、合致しない場合、どのようにずれているかを判定して指示部34に伝達する。以下、図2(a)の構図アシスト用のフレームが選択されている場合を例に挙げて、この判定方法を説明する。ここで、図8(a)は、液晶モニタ56に表示される画像の一例である。   [Step S8] The MPU 38 compares the selected composition assist frame and its accompanying information with the extracted face area. This comparison is performed from four points of the face area, the face position, the line-of-sight direction, and the face direction in the image. Hereinafter, these four points are collectively referred to as a subject state. Then, the MPU 38 determines whether or not the subject state matches the composition assisting frame and its accompanying information. If they do not match, the MPU 38 determines how they are shifted and transmits them to the instruction unit 34. . Hereinafter, this determination method will be described by taking as an example the case where the composition assist frame in FIG. 2A is selected. Here, FIG. 8A is an example of an image displayed on the liquid crystal monitor 56.

MPU38は、第1に、顔の領域面積について判定する。図8(a)の場合、画像における被写体人物の顔領域は、構図アシスト用のフレームが示す顔の枠よりも小さい。従って、MPU38は、顔の領域面積については、合致しておらず、小さいと判定する。
MPU38は、第2に、顔の位置について判定する。図8(a)の場合、画像における被写体人物の顔領域は、構図アシスト用のフレームが示す顔の枠よりも右に位置している。従って、MPU38は、顔の位置については、合致しておらず、右にずれていると判定する。
First, the MPU 38 determines the area area of the face. In the case of FIG. 8A, the face area of the subject person in the image is smaller than the face frame indicated by the composition assisting frame. Accordingly, the MPU 38 determines that the face area does not match and is small.
Second, the MPU 38 determines the face position. In the case of FIG. 8A, the face area of the subject person in the image is located to the right of the face frame indicated by the composition assisting frame. Therefore, the MPU 38 determines that the face position does not match and is shifted to the right.

MPU38は、第3に、視線の方向について判定する。図9は、視線の方向の判定方法を示す説明図である。MPU38は、まず、先に検出した瞳の両側の白い領域(白目に相当)の面積比を判定する。図9(a)に示すように、瞳の右側の白目の面積と、左側の白目の面積とが等しければ、右も左も向いていないと判定する。図9(b)に示すように、瞳の右側の白目の面積が左側より小さければ右を向いていると判定する。図9(c)に示すように、瞳の左側の白目の面積が右側より小さければ左を向いていると判定する。図9(d)に示すように、瞳の外縁の下側のカーブが見えていれば、上を向いていると判定する。図9(e)に示すように、瞳の外縁の上側のカーブが見えていれば、下を向いていると判定する。図9(a)のように、右も左も向いていないと判定されており、さらに、瞳の外縁の上下のカーブが見えない場合、正面を向いていると判定される。そして、図8(a)の場合、被写体人物の視線は、正面方向に向けられている。一方、この構図アシスト用のフレームの付帯情報は、前述したように、『被写体人物の顔の向き及び視線の方向はやや左向きが望ましい』というものである。従って、MPU38は、視線の方向については、合致しておらず、もっと左を向くべきであると判定する。   Third, the MPU 38 determines the direction of the line of sight. FIG. 9 is an explanatory diagram illustrating a method of determining the direction of the line of sight. The MPU 38 first determines the area ratio of the white regions (corresponding to white eyes) on both sides of the previously detected pupil. As shown in FIG. 9A, when the area of the white eye on the right side of the pupil and the area of the white eye on the left side are equal, it is determined that neither the right side nor the left side is facing. As shown in FIG. 9B, if the area of the white eye on the right side of the pupil is smaller than the left side, it is determined that it is facing right. As shown in FIG. 9C, if the area of the white eye on the left side of the pupil is smaller than the right side, it is determined that it is facing left. If the lower curve of the outer edge of the pupil is visible as shown in FIG. If the upper curve of the outer edge of the pupil is visible as shown in FIG. As shown in FIG. 9A, it is determined that neither the right side nor the left side is facing, and when the upper and lower curves of the outer edge of the pupil are not visible, it is determined that the front side is facing. In the case of FIG. 8A, the line of sight of the subject person is directed in the front direction. On the other hand, the supplementary information of the frame for composition assistance is, as described above, “the face direction of the subject person and the direction of the line of sight are preferably slightly leftward”. Therefore, the MPU 38 determines that the direction of the line of sight does not match and should turn to the left.

MPU38は、第4に、顔の向きについて判定する。図10は、顔の向きの判定方法を示す説明図である。MPU38は、まず、画像における両目の面積を比較する。図10(a)に示すように、画像において右側の目の面積の方が左側の目の面積より小さい場合、右を向いていると判定する。一方、図10(b)に示すように、画像において左側の目の面積の方が右側の目の面積より小さい場合、左を向いていると判定する。顔が上を向いているか下を向いているかは、例えば、先に判定した視線の方向と同じ方向に判定すればよい。そして、図8(a)の場合、被写体人物の顔は、正面を向いている。従って、MPU38は、顔の向きついては、構図アシスト用のフレームの付帯情報と合致しておらず、もっと左を向くべきであると判定する。   Fourth, the MPU 38 determines the face orientation. FIG. 10 is an explanatory diagram showing a method for determining the face orientation. The MPU 38 first compares the areas of both eyes in the image. As shown in FIG. 10A, when the area of the right eye is smaller than the area of the left eye in the image, it is determined that it is facing right. On the other hand, as shown in FIG. 10B, when the area of the left eye is smaller than the area of the right eye in the image, it is determined that it is facing left. Whether the face is facing upward or downward may be determined, for example, in the same direction as the direction of the line of sight previously determined. In the case of FIG. 8A, the face of the subject person is facing the front. Therefore, the MPU 38 determines that the face orientation does not match the supplementary information of the composition assisting frame, and should turn to the left.

図8(b)は、図2(d)に示したツーショット用の構図アシスト用のフレームが選択されている場合の液晶モニタ56の表示例である。図8(b)の例では、どちらの被写体人物の被写体状態も、構図アシスト用のフレーム及びその付帯情報と合致していると判定される。以上のように被写体状態を判定後、ステップS9に進む。
[ステップS9]ステップS8において、構図アシスト用のフレーム及びその付帯情報と、被写体状態とが合致していると判定された場合、ステップS11に進む。そうでない場合、ステップS10に進む。
FIG. 8B is a display example of the liquid crystal monitor 56 when the two-shot composition assist frame shown in FIG. 2D is selected. In the example of FIG. 8B, it is determined that the subject state of either subject person matches the composition assisting frame and its accompanying information. After determining the subject state as described above, the process proceeds to step S9.
[Step S9] If it is determined in step S8 that the composition assisting frame and its accompanying information match the subject state, the process proceeds to step S11. Otherwise, the process proceeds to step S10.

[ステップS10]指示部34は、ステップS8でのMPU38の判定結果に基づいて、被写体人物及び撮影者に指示を行う。顔の向きに関しては、第1〜第4発光部Sa〜Sdにより、被写体人物に対して指示する。視線の方向に関しては、正面側音声出力窓72により、被写体人物に対して指示する。移動方向に関しては、背面側音声出力窓74により、撮影者に対して指示する。   [Step S10] The instruction unit 34 instructs the subject person and the photographer based on the determination result of the MPU 38 in step S8. The direction of the face is instructed to the subject person by the first to fourth light emitting units Sa to Sd. The direction of the line of sight is instructed to the subject person through the front side audio output window 72. The moving direction is instructed to the photographer through the back side audio output window 74.

顔の領域面積が小さいと判定された場合、指示部34は、例えば『カメラを前に移動して下さい』という音声を背面側音声出力窓74から発し、撮影者に対して前への移動指示を行う。顔の領域面積が大きいと判定された場合、同様に、『カメラを後ろ移動して下さい』等の音声を発すればよい。
被写体人物の顔領域が構図アシスト用のフレームの顔部分よりも右にずれていると判定された場合、指示部34は、例えば『カメラを右に移動して下さい』という音声を背面側音声出力窓74から発し、電子カメラ12を右に移動させるように撮影者に指示する。顔領域が構図アシスト用のフレームの顔部分よりも左にずれていると判定された場合、同様に、『カメラを左に移動して下さい』等の音声を発すればよい。
When it is determined that the face area is small, the instructing unit 34, for example, emits a voice “Please move the camera forward” from the back side audio output window 74 and instructs the photographer to move forward. I do. Similarly, when it is determined that the face area is large, a sound such as “Please move the camera backward” may be issued.
When it is determined that the face area of the subject person is shifted to the right from the face portion of the composition assisting frame, the instruction unit 34 outputs, for example, a voice “Please move the camera to the right” on the back side. The camera shoots from the window 74 and instructs the photographer to move the electronic camera 12 to the right. Similarly, when it is determined that the face area is shifted to the left from the face portion of the composition assisting frame, a voice such as “Please move the camera to the left” may be generated.

視線の方向について、もっと左を向くべきであると判定された場合、指示部34は、例えば『もう少し視線を右に向けて下さい』等の音声を正面側音声出力窓72から発し、被写体人物に対して視線の方向の指示を行う。なお、MPU38が左または右として処理する方向は、カメラボディの背面の液晶モニタ56の表示画像を見る場合の左右方向である。従って、MPU38の判定結果として出力される左右方向は、カメラボディの正面を見ている被写体人物にとっての左右方向とは逆になる。これは、本ステップで後述する被写体人物への顔の向きの指示と、ステップS20での被写体人物への移動方向の指示においても同様である。   When it is determined that the direction of the line of sight should be directed further to the left, the instructing unit 34 emits a sound such as “Please turn your line of sight to the right” from the front side audio output window 72 to the subject person. The direction of the line of sight is instructed. Note that the direction in which the MPU 38 processes as left or right is the left-right direction when viewing the display image of the liquid crystal monitor 56 on the back of the camera body. Accordingly, the left-right direction output as the determination result of the MPU 38 is opposite to the left-right direction for the subject person looking at the front of the camera body. This also applies to the instruction of the face direction to the subject person described later in this step and the instruction of the movement direction to the subject person in step S20.

視線の方向がもっと上、下、または右を向くべきであると判定された場合も、同様に正面側音声出力窓72から音声を発すればよい。なお、被写体人物に対する視線の方向の指示は、第1〜第4発光部Sa〜Sdを、移動の指示とは別の色で発光させることで行ってもよい。例えば第1〜第4発光部Sa〜Sdのいずれかをオレンジ色で点灯させることで、視線をもっと上、右、下、または左に向けることを指示すればよい。但し、視線の方向に対する指示は、音声の方が望ましいと考えられる。なぜなら、例えば被写体人物が右や左を向いていたら、電子カメラ12が視界に入らないからである。   Similarly, when it is determined that the direction of the line of sight should be more upward, downward, or right, the sound may be emitted from the front-side audio output window 72 in the same manner. Note that the direction of the line of sight for the subject person may be performed by causing the first to fourth light emitting units Sa to Sd to emit light in a color different from the movement instruction. For example, any one of the first to fourth light emitting units Sa to Sd may be lit in orange to indicate that the line of sight is directed further upward, right, lower, or left. However, it is considered that an instruction for the direction of the line of sight is more preferable. This is because, for example, if the subject person faces right or left, the electronic camera 12 does not enter the field of view.

顔の向きについて、もっと上を向くべきであると判定された場合、指示部34は、第1発光部Saを点灯させることで、顔をもっと上に向けるように被写体人物に指示する。顔をもっと下に向けるべきであると判定された場合、指示部34は、第3発光部Scを点灯させることで、顔をもっと下に向けるように被写体人物に指示する。顔をもっと左に向けるべきであると判定された場合、指示部34は、第2発光部Sbを点灯させることで、顔をもっと右に向けるように被写体人物に指示する。顔をもっと右に向けるべきであると判定された場合、指示部34は、第4発光部Sdを点灯させることで、顔をもっと左に向けるように被写体人物に指示する。この後、撮影者及び被写体人物は、指示に従って、撮影の構図に近づける。そして、ステップS6に戻る。   When it is determined that the face should be directed upward, the instruction unit 34 instructs the subject person to turn the face upward by turning on the first light emitting unit Sa. When it is determined that the face should be directed further downward, the instruction unit 34 instructs the subject person to turn the face further downward by turning on the third light emitting unit Sc. When it is determined that the face should be turned to the left, the instruction unit 34 turns on the second light emitting unit Sb to instruct the subject person to turn the face further to the right. When it is determined that the face should be turned to the right, the instruction unit 34 turns on the fourth light emitting unit Sd to instruct the subject person to turn the face further to the left. Thereafter, the photographer and the subject person approach the composition for photographing according to the instruction. Then, the process returns to step S6.

なお、ツーショット用の構図アシスト用のフレームが選択されている場合、被写体人物は2人と考えられるので、第1〜第4発光部Sa〜Sdの指示がどちらの被写体人物に対してなのかが分からないおそれがある。この場合、全ての指示は、正面側音声出力窓72からの音声により、2人の被写体人物に対して別々に行えばよい。例えば、『右側の人はもっと前に移動して下さい。左側の人はもっと右を向いて下さい』等である。或いは、カメラボディの正面側に第1〜第5発光部Sa〜Seと同様のものをもう1つ設けることで、2人の被写体人物に対して別々に指示してもよい。   Note that when the two-shot composition assist frame is selected, it is considered that there are two subject persons, so which subject person the instructions of the first to fourth light emitting units Sa to Sd are directed to. There is a risk of not knowing. In this case, all the instructions may be performed separately for the two subject persons by the sound from the front-side sound output window 72. For example, “The person on the right should move forward. The person on the left should turn to the right. ” Or you may instruct | indicate separately with respect to two subject persons by providing another thing similar to 1st-5th light emission part Sa-Se on the front side of a camera body.

[ステップS11]指示部34は、第5発光部Seを点灯させることにより、被写体状態が構図アシスト用のフレーム及びその付帯情報に合致したことを被写体人物に知らせる。また、指示部34は、『合致しました』等の音声を背面側音声出力窓74から発することにより、被写体状態が構図アシスト用のフレーム及びその付帯情報に合致したことを撮影者に知らせる。そして、ステップS12に進む。   [Step S11] The instructing unit 34 turns on the fifth light emitting unit Se to notify the subject person that the subject state matches the frame for assisting composition and the accompanying information. In addition, the instruction unit 34 emits a sound such as “Matched” from the back side audio output window 74 to notify the photographer that the subject state matches the frame for assisting composition and its accompanying information. Then, the process proceeds to step S12.

[ステップS12]MPU38は、レリーズ釦が全押しされたか否かを判定する。全押しされた場合、ステップS15に進み、そうでない場合、ステップS13に進む。
[ステップS13]MPU38は、ステップS6〜S9と同様の動作により、被写体状態が構図アシスト用のフレーム及びその付帯情報に合致しているか否かを判定し、合致しない場合、どのようにずれているかを判定して指示部34に伝達する。合致している場合、ステップS12に戻り、合致してない場合、ステップS14に進む。
[Step S12] The MPU 38 determines whether or not the release button has been fully pressed. If it is fully pressed, the process proceeds to step S15, and if not, the process proceeds to step S13.
[Step S13] The MPU 38 determines whether or not the subject state matches the composition assisting frame and its accompanying information by the same operation as in Steps S6 to S9. Is transmitted to the instruction unit 34. If they match, the process returns to step S12, and if they do not match, the process proceeds to step S14.

[ステップS14]指示部34は、例えば『ずれました』などの音声を正面側音声出力窓72及び背面側音声出力窓74の両方から同時に発することにより、ずれたことを撮影者及び被写体人物に知らせる。同時に、指示部34は、第5発光部Seを消灯させる。この後、MPU38は、どのようにずれたのかを指示部34に伝達し、ステップS10に戻る。   [Step S14] The instructing unit 34, for example, emits a sound such as “developed” simultaneously from both the front-side audio output window 72 and the rear-side audio output window 74, thereby informing the photographer and the subject person of the deviation. Inform. At the same time, the instruction unit 34 turns off the fifth light emitting unit Se. Thereafter, the MPU 38 transmits how the deviation has occurred to the instruction unit 34 and returns to Step S10.

[ステップS15]公知の動作により静止画撮影が行われ、静止画の画像データが生成される。画像処理部52は、生成された画像データに、ホワイトバランス調整、色補間、色補正、輪郭強調、ガンマ補正、画像圧縮などの画像処理を施す。この後、画像データは、カードインターフェース64を介してメモリカード68に記録される。これにより、電子カメラ12の動作は終了する。   [Step S15] Still image shooting is performed by a known operation, and image data of a still image is generated. The image processing unit 52 performs image processing such as white balance adjustment, color interpolation, color correction, contour enhancement, gamma correction, and image compression on the generated image data. Thereafter, the image data is recorded on the memory card 68 via the card interface 64. Thereby, the operation of the electronic camera 12 ends.

[ステップS16]図6のステップS16〜ステップS26は、第1セルフ撮影モードでの処理である。撮影者は、ステップS1で撮影モードを第1セルフ撮影モードに設定した後、電子カメラ12の撮影範囲に移動する。この後、ステップS16では、電子カメラ12はステップS6と同様の処理を行う。そして、ステップS17に進む。
[ステップS17〜S19]電子カメラ12は、ステップS7〜S9と同様の処理を行う。そして、ステップS18において、構図アシスト用のフレーム及びその付帯情報と、被写体状態とが合致していると判定された場合、ステップS21に進む。そうでない場合、ステップS20に進む。
[Step S16] Steps S16 to S26 in FIG. 6 are processes in the first self-photographing mode. In step S1, the photographer sets the shooting mode to the first self-shooting mode, and then moves to the shooting range of the electronic camera 12. Thereafter, in step S16, the electronic camera 12 performs the same process as in step S6. Then, the process proceeds to step S17.
[Steps S17 to S19] The electronic camera 12 performs the same processing as steps S7 to S9. If it is determined in step S18 that the composition assisting frame and its accompanying information match the subject state, the process proceeds to step S21. Otherwise, the process proceeds to step S20.

[ステップS20]指示部34は、ステップS18でのMPU38の判定結果に基づいて、撮影者である被写体人物に移動等の指示を行う。
顔の領域面積が小さいと判定された場合、指示部34は、第1発光部Saを点滅させることで、電子カメラ12に近づく方向の移動(前への移動)を指示する。顔の領域面積が大きいと判定された場合、指示部34は、第3発光部Scを点滅させることで、電子カメラ12から遠ざかる方向の移動(後ろへの移動)を指示する。被写体人物の顔領域が構図アシスト用のフレームの顔部分よりも右にずれていると判定された場合、指示部34は、第2発光部Sbを点滅させることで、『右への移動』を被写体人物に指示する。ここでの『右への移動』は、前記したようにMPU38が左として処理している方向への移動である。顔領域が構図アシスト用のフレームの顔部分よりも左にずれていると判定された場合、第4発光部Sdを点滅させることで、左への移動を指示する。視線の方向、及び顔の向きについては、ステップS10と同様に指示する。そして、ステップS16に戻る。
[Step S20] The instruction unit 34 instructs the subject person who is the photographer to move based on the determination result of the MPU 38 in step S18.
When it is determined that the face area is small, the instruction unit 34 instructs the movement in the direction approaching the electronic camera 12 (forward movement) by blinking the first light emitting unit Sa. When it is determined that the face area is large, the instruction unit 34 instructs the movement away from the electronic camera 12 (backward movement) by blinking the third light emitting unit Sc. When it is determined that the face area of the subject person is shifted to the right with respect to the face portion of the composition assisting frame, the instruction unit 34 causes the second light emitting unit Sb to blink, thereby causing “move to the right”. Instruct the subject person. Here, “move to the right” is a move in the direction that the MPU 38 is processing as left as described above. When it is determined that the face area is shifted to the left from the face portion of the composition assisting frame, the fourth light emitting unit Sd is blinked to instruct the movement to the left. The direction of the line of sight and the direction of the face are instructed in the same manner as in step S10. Then, the process returns to step S16.

[ステップS21]指示部34は、第5発光部Seを点灯させることにより、被写体状態が構図アシスト用のフレーム及びその付帯情報に合致したことを被写体人物に知らせる。なお、『合致しました』等の音声を正面側音声出力窓72から発することにより知らせてもよい。MPU38は、合致を知らせたときを基準(時刻ゼロ)として、経過時間のカウントを開始する。そして、ステップS22に進む。   [Step S21] The instructing unit 34 turns on the fifth light emitting unit Se to notify the subject person that the subject state matches the frame for assisting composition and the accompanying information. In addition, you may notify by producing | generating the audio | voices, such as "it matched", from the front side audio | voice output window 72. The MPU 38 starts counting the elapsed time with reference to the time when the match is notified (time zero). Then, the process proceeds to step S22.

[ステップS22]MPU38は、ステップS16〜S19と同様の動作により、被写体状態が構図アシスト用のフレーム及びその付帯情報に合致しているか否かを判定する。合致しない場合、ステップS23に進み、合致している場合、ステップS24に進む。
[ステップS23]指示部34は、例えば『ずれました』などの音声を正面側音声出力窓72から発すると共に第5発光部Seを消灯させることにより、ずれたことを知らせる。この後、MPU38は、どのようにずれたのかを指示部34に伝達し、ステップS20に戻る。
[Step S22] The MPU 38 determines whether or not the subject state matches the composition assisting frame and the accompanying information by the same operation as in Steps S16 to S19. If they do not match, the process proceeds to step S23, and if they match, the process proceeds to step S24.
[Step S23] The instructing unit 34 emits a sound such as “deviation” from the front-side audio output window 72 and turns off the fifth light emitting unit Se to notify the deviation. Thereafter, the MPU 38 transmits how the deviation has occurred to the instructing unit 34, and returns to step S20.

[ステップS24]MPU38は、合致を知らせたときからの経過時間が所定時間Aに達したか否かを判定する。ここでの所定時間Aは、撮影者に入力させて設定してもよいし、プログラムメモリ50に予め記憶されているもの(例えば5秒)を用いてもよい。所定時間に達した場合、ステップS25に進み、そうでない場合、ステップS22に戻る。
[ステップS25]MPU38は、セルフタイマーをスタートさせる。ここでのセルフタイマーは、所定時間B経過後に、ステップS26に進んで自動的に撮影を開始するものである。この所定時間Bは、撮影者に入力させて設定してもよいし、プログラムメモリ50に予め記憶されているもの(例えば3秒)を用いてもよい。
[Step S24] The MPU 38 determines whether or not the elapsed time from the notification of the match has reached a predetermined time A. Here, the predetermined time A may be set by being input by the photographer, or a predetermined time (for example, 5 seconds) stored in the program memory 50 may be used. If the predetermined time has been reached, the process proceeds to step S25, and if not, the process returns to step S22.
[Step S25] The MPU 38 starts a self-timer. The self-timer here proceeds to step S26 after a predetermined time B has elapsed and automatically starts photographing. The predetermined time B may be set by being input by the photographer, or may be stored in advance in the program memory 50 (for example, 3 seconds).

[ステップS26]電子カメラ12は、ステップS15と同様の処理により静止画撮影を行った後、動作を終了する。
[ステップS27〜S30]図7のステップS27〜ステップS35は、第2セルフ撮影モードでの処理である。ステップS27〜S30では、電子カメラ12は、ステップS16〜S19と同様の処理を行う。そして、ステップS29において、構図アシスト用のフレーム及びその付帯情報と、被写体状態とが合致していると判定された場合、ステップS32に進む。そうでない場合、ステップS31に進む。
[Step S26] The electronic camera 12 shoots a still image by the same process as in step S15, and then ends the operation.
[Steps S27 to S30] Steps S27 to S35 in FIG. 7 are processes in the second self-photographing mode. In steps S27 to S30, the electronic camera 12 performs the same processing as steps S16 to S19. If it is determined in step S29 that the composition assisting frame and its accompanying information match the subject state, the process proceeds to step S32. Otherwise, the process proceeds to step S31.

[ステップS31]指示部34は、ステップS29でのMPU38の判定結果に基づいて、ステップS20と同様に、撮影者である被写体人物に移動等の指示を行う。
[ステップS32]指示部34は、ステップS21と同様に、被写体状態が構図アシスト用のフレーム及びその付帯情報に合致したことを被写体人物に知らせる。そして、ステップS33に進む。
[Step S31] Based on the determination result of the MPU 38 in step S29, the instruction unit 34 instructs the subject person who is the photographer to move, as in step S20.
[Step S32] As in step S21, the instruction unit 34 notifies the subject person that the subject state matches the composition assisting frame and its accompanying information. Then, the process proceeds to step S33.

[ステップS33]ステップS33〜S35の処理は、被写体が撮影合図動作を行ったか否かを判定する処理である。本実施形態では、目を3回閉じる動作を撮影合図動作の一例として挙げて説明する。ステップS33では、電子カメラ12は、ステップS6と同様に所定のフレームレートでスルー画用の連写撮影を行う。また、MPU38は、連写撮影の開始に同期して、連写撮影期間のカウントを開始する。   [Step S33] The processing of steps S33 to S35 is processing for determining whether or not the subject has performed a shooting cue operation. In the present embodiment, the operation of closing the eyes three times will be described as an example of the photographing cue operation. In step S33, the electronic camera 12 performs continuous shooting for through images at a predetermined frame rate, as in step S6. The MPU 38 starts counting the continuous shooting period in synchronization with the start of the continuous shooting.

[ステップS34]連写撮影期間が所定時間C(例えば3秒)に達したとき、MPU38は、連写撮影期間のカウントをリセットした後、連写撮影期間のカウントを再度開始すると共にステップS35に処理を移行する。なお、連写撮影期間のカウントのリセット後も、連写撮影は継続して行われる。
[ステップS35]MPU38は、連写撮影期間のカウント開始後に生成される画像データを画像メモリ48から読み込み、この画像データから動作判定用の画像領域を抽出して、これを画像メモリ48に記憶させる。ここでの動作判定用の画像領域は、目を3回閉じる動作の判定用なので、ステップS28で検出した両目を含む領域であり、顔の全領域の半分あれば十分である。このように画像データを読み込んで画像領域を抽出する動作を、連写撮影期間のカウント開始後に生成される全ての画像データに対して行う。なお、ステップS34、S35の処理が再度行われる場合、一度読み込んだ画像データは読み込まない。また、ここで読み込む画像データ数は、生成される全てに限定されるものではない。MPU38の処理速度等に応じて任意に設定すればよく、例えば、生成される全ての内3コマに1コマの割合で読み込んでもよい。
[Step S34] When the continuous shooting period reaches a predetermined time C (for example, 3 seconds), the MPU 38 resets the counting of the continuous shooting period, and then restarts the counting of the continuous shooting period and proceeds to Step S35. Migrate processing. Note that the continuous shooting is continuously performed even after the count of the continuous shooting period is reset.
[Step S35] The MPU 38 reads image data generated after the start of counting the continuous shooting period from the image memory 48, extracts an image area for operation determination from this image data, and stores it in the image memory 48. . Since the image region for motion determination here is for determining the motion of closing eyes three times, it is a region including both eyes detected in step S28, and half of the entire region of the face is sufficient. The operation of reading the image data and extracting the image area in this way is performed for all the image data generated after the start of the continuous shooting period counting. Note that when the processing in steps S34 and S35 is performed again, the image data read once is not read. Further, the number of image data read here is not limited to all generated data. What is necessary is just to set arbitrarily according to the processing speed of MPU38, etc. For example, you may read in the ratio of 1 frame in all 3 frames generated.

次に、MPU38は、各画像領域を時間順に並べて、撮影合図動作が行われたか否かを判定する。具体的には例えば、瞳及び白目が消えて再度現れることが3回繰り返されているか否かを判定すればよい。目を閉じたときに瞳上に現れる肌の色と、瞳または白目の色とは、互いに大きく異なるので、この動作は、色の違いから判定可能である。
そして、撮影合図動作を行ってないと判定された場合、ステップS34に戻る。なお、以上の動作判定の処理期間においても、連写撮影による画像データの生成、及び連写撮影期間のカウントは継続されている。また、所定時間Cは、この動作判定に要する期間よりも十分長く設定されている。撮影合図動作を行ったと判定された場合、連写撮影及び連写撮影期間のカウントを停止後、ステップS25に進む。この後、前述と同様に撮影が行われ、電子カメラ12の動作は終了する。以上が本実施形態の電子カメラ12の動作説明である。
Next, the MPU 38 arranges the image areas in order of time, and determines whether or not a shooting cue operation has been performed. Specifically, for example, it may be determined whether or not the appearance of the pupil and the white eye disappearing again is repeated three times. Since the color of the skin that appears on the pupil when the eyes are closed and the color of the pupil or the white of the eye are significantly different from each other, this operation can be determined from the difference in color.
If it is determined that the shooting signal operation is not performed, the process returns to step S34. Note that generation of image data by continuous shooting and counting of the continuous shooting period are continued even during the above-described operation determination processing period. The predetermined time C is set to be sufficiently longer than the period required for this operation determination. If it is determined that the shooting cue operation has been performed, the process proceeds to step S25 after stopping the continuous shooting and counting of the continuous shooting period. Thereafter, shooting is performed in the same manner as described above, and the operation of the electronic camera 12 ends. The above is the description of the operation of the electronic camera 12 of the present embodiment.

<本実施形態の効果>
構図アシスト用のフレームを用いる従来の撮影モードでは、被写体人物の顔認識は行われなかった。このため、被写体人物の顔の向きや視線の方向といった細かい点については、液晶表示装置上に写る被写体画像を見ることにより撮影者が確認していた。従って、液晶表示装置が見づらい場合、撮影者が意図する構図と、撮像画像とが大きく異なることがあった。
<Effect of this embodiment>
In the conventional photographing mode using the composition assist frame, the face recognition of the subject person is not performed. For this reason, the photographer has confirmed details such as the direction of the face of the subject person and the direction of the line of sight by looking at the subject image on the liquid crystal display device. Therefore, when it is difficult to see the liquid crystal display device, the composition intended by the photographer may be greatly different from the captured image.

一方、本実施形態のシーンアシスト+顔認識モード、第1セルフ撮影モード、及び第2セルフ撮影モードでは、被写体人物の顔領域を抽出し、顔の領域面積、顔の位置、視線の方向、顔の向きを判定する。これに基づいて、構図アシスト用のフレーム及びその付帯情報と、被写体状態とが合致しているか否か、合致していない場合にはどのようにずれているかを判定する。合致している場合にはその旨を音声や第5発光部Seの点灯により知らせ、合致していない場合にはどのようにすべきかを指示する。   On the other hand, in the scene assist + face recognition mode, the first self-photographing mode, and the second self-photographing mode of the present embodiment, the face area of the subject person is extracted, and the face area area, face position, line-of-sight direction, face Determine the direction. Based on this, it is determined whether or not the composition assisting frame and its accompanying information match the subject state, and if they do not match, how they are shifted. If they do match, the fact is notified by voice or lighting of the fifth light emitting unit Se, and if they do not match, an instruction is given as to what should be done.

従って、太陽光が当たる等により液晶モニタ56が見えなくても、撮影者及び被写体人物の少なくともいずれかが電子カメラ12の指示に従うだけで、撮影者が意図する構図で撮影できる。また、視線の方向や顔の向きといった細かい点まで指示を行うので、雰囲気のある写真が撮れる。さらに、第1及び第2セルフ撮影モードでは、電子カメラ12の指示に従うだけで、自分が意図する構図の写真を1人で撮ることができる。この結果、ユーザの利便性は大いに向上する。   Therefore, even if the liquid crystal monitor 56 is not visible due to sunlight, at least one of the photographer and the subject person can follow the instructions of the electronic camera 12 and can photograph with the composition intended by the photographer. In addition, since detailed instructions such as the direction of gaze and the direction of the face are given, a photograph with an atmosphere can be taken. Furthermore, in the first and second self-photographing modes, the photographer can take a picture of the composition intended by himself by simply following the instructions of the electronic camera 12. As a result, user convenience is greatly improved.

<本実施形態の補足事項>
[1]なお、シーンアシスト+顔認識モードでは、移動方向の指示を撮影者に対して行い、電子カメラ12を移動させることで画像における被写体人物の位置を調整する例を述べた。本発明は、かかる実施形態に限定されるものではない。例えばステップS20と同様の方法により被写体人物に対して移動方向の指示を行い、被写体人物に移動してもらうことで画像における被写体人物の位置を調整してもよい。また、撮影者に対する移動の指示は、音声でなくガイド表示により行ってもよい。具体的に例えば、カメラボディの背面側に第1〜第5発光部Sa〜Seと同様のものを設けることで実施できる。また、第1及び第2セルフ撮影モードでは、被写体人物に対する移動方向の指示、及び顔の向きの指示を第1〜第5発光部Sa〜Seにより行う例を述べたが、これらの指示は音声により行ってもよい。
<Supplementary items of this embodiment>
[1] In the scene assist + face recognition mode, an example in which the direction of movement is instructed to the photographer and the position of the subject person in the image is adjusted by moving the electronic camera 12 has been described. The present invention is not limited to such an embodiment. For example, the position of the subject person in the image may be adjusted by instructing the subject person in the direction of movement in the same manner as in step S20 and having the subject person move. In addition, the movement instruction to the photographer may be given by guide display instead of voice. Specifically, for example, the same thing as the first to fifth light emitting portions Sa to Se can be provided on the back side of the camera body. In the first and second self-photographing modes, an example in which the moving direction and the face direction are instructed to the subject person by the first to fifth light emitting units Sa to Se has been described. May be performed.

[2]撮影合図動作として、目を3回閉じる動作を挙げた。本発明は、かかる実施形態に限定されるものではない。例えば、顔の正面で手を3回振る動作でもよい。この場合も、連写により生成される画像を時間順に並べた場合に、瞳及び白目が手で覆われて見えない画像が飛び飛びにあるので、動作を判定できる。なお、撮影合図動作は、色の違いから動きを検出できる動作である方が、画像処理により判定しやすいので望ましいと考えられる。   [2] As the shooting signal operation, an operation of closing the eyes three times is given. The present invention is not limited to such an embodiment. For example, an operation of shaking the hand three times in front of the face may be used. Also in this case, when images generated by continuous shooting are arranged in time order, an image that is not visible because the pupils and white eyes are covered with hands can be determined. In addition, it is considered that the shooting cue operation is an operation that can detect a motion from a difference in color because it can be easily determined by image processing.

[3]ステップS7において、スルー画用に生成される複数の画像データの内最新のものを読み込んで、顔認識等の処理を行う例を述べた。本発明は、かかる実施形態に限定されるものではない。MPU38が読み込む画像データは、MPU38の処理速度等に応じて任意に設定すればよい。例えば1秒に1コマの割合で画像データを読み込んで、1秒おきに指示内容を更新してもよい。   [3] The example in which, in step S7, the latest one of the plurality of image data generated for the through image is read and processing such as face recognition is performed. The present invention is not limited to such an embodiment. The image data read by the MPU 38 may be arbitrarily set according to the processing speed of the MPU 38 and the like. For example, image data may be read at a rate of one frame per second, and the instruction content may be updated every other second.

[4]被写体人物の顔の向き及び視線の方向はどちら向きが望ましいかを示す付帯情報としてプログラムメモリ50に予め記憶されたものを用い、これに従って指示を行う例を述べた。本発明は、かかる実施形態に限定されるものではない。各構図アシスト用のフレームの付帯情報は、撮影者の入力により設定するようにしてもよい。また、構図アシスト用のフレームも、撮影者の入力により所望のものを用いるようにしてもよい。   [4] An example has been described in which information stored in advance in the program memory 50 is used as supplementary information indicating which direction is desirable for the direction of the face of the subject person and the direction of the line of sight, and instructions are given accordingly. The present invention is not limited to such an embodiment. The incidental information of each composition assisting frame may be set by the photographer's input. Also, a composition assisting frame may be used as desired by the photographer's input.

[5]最後に、請求項と本実施形態との対応関係を説明する。なお、以下に示す対応関係は、参考のために示した一解釈であり、本発明を限定するものではない。
請求項記載のガイド表示は、構図アシスト用のフレームに対応する。
請求項記載の表示部は、液晶モニタ56に対応する。
請求項記載の撮像部は、撮影レンズ14と、フォーカルプレーンシャッタ16と、CCD18と、アナログ信号処理部20と、A/D変換部22と、タイミングジェネレータ26と、これらに画像データを生成させるMPU38の機能とに対応する。
[5] Finally, the correspondence between the claims and the present embodiment will be described. In addition, the correspondence shown below is one interpretation shown for reference, and does not limit the present invention.
The guide display described in the claims corresponds to a frame for composition assistance.
The display unit described in the claims corresponds to the liquid crystal monitor 56.
The imaging unit described in the claims includes an imaging lens 14, a focal plane shutter 16, a CCD 18, an analog signal processing unit 20, an A / D conversion unit 22, a timing generator 26, and an MPU 38 that causes these to generate image data. It corresponds to the function of.

請求項記載の抽出部は、画像データにおける被写体人物の顔領域を抽出するMPU38の機能に対応する(ステップS5参照)。
請求項記載の指示部は、『顔の領域面積、顔の位置、視線の方向、顔の向きを判定して、これら4点(被写体状態)と、構図アシスト用のフレーム及びその付帯情報とが合致しているか否かを判定するMPU38の機能と、指示部34と』に対応する(ステップS6参照)。
The extraction unit described in the claims corresponds to the function of the MPU 38 for extracting the face area of the subject person in the image data (see step S5).
The instructing unit described in the claims determines that “the area of the face, the position of the face, the direction of the line of sight, and the direction of the face are determined, and these four points (subject state), the frame for assisting composition, and its supplementary information. This corresponds to the function of the MPU 38 that determines whether or not they match, and the instruction unit 34 ”(see step S6).

請求項記載の動作判定部は、『被写体状態が構図アシスト用のフレーム及びその付帯情報に合致しているか否かを判定し、合致したと判定した後、被写体が撮影合図動作を行ったか否かを判定するMPU38の機能』に対応する(ステップS27〜S29、S34、S35参照)。
請求項記載の予め定められた時間は、所定時間Bに対応する(ステップS25参照)。
The operation determination unit described in the claims determines whether or not the subject state matches the frame for assisting composition and its accompanying information, and after determining that the subject matches, whether or not the subject has performed a shooting cue operation. Corresponds to the “function of the MPU 38 for determining“ (see steps S27 to S29, S34, S35).
The predetermined time described in the claims corresponds to the predetermined time B (see step S25).

以上詳述したように本発明は、電子カメラの分野において大いに利用可能である。   As described above in detail, the present invention can be used greatly in the field of electronic cameras.

本実施形態の電子カメラのブロック図である。It is a block diagram of the electronic camera of this embodiment. 電子カメラが予め記憶している構図アシスト用のフレーム例である。It is an example of a frame for composition assistance stored in advance by the electronic camera. 電子カメラの正面図である。It is a front view of an electronic camera. 第1〜第5発光部の指示内容を示す表である。It is a table | surface which shows the instruction content of the 1st-5th light emission part. 電子カメラの動作を示す流れ図の導入部分であり、シーンアシスト+顔認識モードでの動作内容を主に示す。This is an introduction of a flowchart showing the operation of the electronic camera, and mainly shows the operation content in the scene assist + face recognition mode. 図5において、第1セルフ撮影モードに設定された後の動作内容を示す流れ図である。In FIG. 5, it is a flowchart which shows the operation | movement content after setting to 1st self imaging | photography mode. 図5において、第2セルフ撮影モードに設定された後の動作内容を示す流れ図である。In FIG. 5, it is a flowchart which shows the operation | movement content after setting to 2nd self imaging | photography mode. 液晶モニタに表示される画像例であり、(a)は図2(a)の構図アシスト用のフレームが選択されている場合の例であり、(b)は図2(d)の構図アシスト用のフレームが選択されている場合の例である。FIGS. 2A and 2B are examples of images displayed on a liquid crystal monitor, in which FIG. 2A is an example when a frame for composition assistance in FIG. 2A is selected, and FIG. 2B is an image for composition assistance in FIG. This is an example when the frame is selected. 視線の方向の判定方法を示す説明図である。It is explanatory drawing which shows the determination method of the direction of eyes | visual_axis. 顔の向きの判定方法を示す説明図である。It is explanatory drawing which shows the determination method of face direction.

符号の説明Explanation of symbols

12 電子カメラ
14 撮影レンズ
16 フォーカルプレーンシャッタ
18 CCD
20 アナログ信号処理部
22 A/D変換部
26 タイミングジェネレータ
28 絞り駆動機構
30 シャッタ制御部
32 レンズ駆動部
34 指示部
38 MPU
40 操作部
44 システムバス
46 画像処理部
48 画像メモリ
50 プログラムメモリ
54 モニタ制御部
56 液晶モニタ
58 カードインターフェース
60 メモリカード
66 レンズ群
68 絞り
72 正面側音声出力窓
74 背面側音声出力窓
12 Electronic Camera 14 Shooting Lens 16 Focal Plane Shutter 18 CCD
20 Analog signal processing unit 22 A / D conversion unit 26 Timing generator 28 Aperture drive mechanism 30 Shutter control unit 32 Lens drive unit 34 Instruction unit 38 MPU
40 operation unit 44 system bus 46 image processing unit 48 image memory 50 program memory 54 monitor control unit 56 liquid crystal monitor 58 card interface 60 memory card 66 lens group 68 aperture 72 front side audio output window 74 rear side audio output window

Claims (4)

撮影の構図を決定するためのガイド表示を行う表示部と、
被写体を撮像して画像データを生成する撮像部と、
前記画像データにおける、前記被写体の特徴部位を抽出する抽出部と、
装置の正面側に配置され、前記ガイド表示が示す前記撮影の構図に前記被写体を近づけるための指示を出力する指示部とを備え、
前記表示部は、前記ガイド表示を行うための所定のフレームに基づいてガイド表示を行い、
前記所定のフレームは、当該所定のフレームに対する被写体状態を示す付帯情報が関連付けられてプログラムメモリに記憶され、
前記指示部は、前記抽出された前記被写体の特徴部位及び前記付帯情報に基づいて、前記指示を前記被写体に視認可能に出力し、前記ガイド表示が示す前記撮影の構図に前記被写体を近づけるための指示と、前記付帯情報に基づく指示とを、前記被写体の視認により識別可能に出力する
ことを特徴とする電子カメラ。
A display unit for displaying a guide for determining a composition of shooting;
An imaging unit that images a subject and generates image data;
An extraction unit for extracting a characteristic part of the subject in the image data;
An instruction unit that is arranged on the front side of the apparatus and outputs an instruction to bring the subject closer to the photographing composition indicated by the guide display;
The display unit performs guide display based on a predetermined frame for performing the guide display,
The predetermined frame is stored in the program memory in association with incidental information indicating a subject state with respect to the predetermined frame ,
The instruction unit outputs the instruction to the subject so as to be visible based on the extracted characteristic part of the subject and the incidental information, and brings the subject closer to the photographing composition indicated by the guide display. An electronic camera that outputs an instruction and an instruction based on the incidental information so as to be identifiable by visual recognition of the subject.
請求項1記載の電子カメラにおいて、
前記抽出部は、前記被写体の顔領域を抽出し、
前記指示部は、抽出された前記顔領域に基づいて、前記画像データが示す画像における前記被写体の視線の方向を被写体状態として推定して、前記被写体状態を前記撮影の構図に近づけるための指示を出力する
ことを特徴とする電子カメラ。
The electronic camera according to claim 1.
The extraction unit extracts a face area of the subject,
The instruction unit estimates the direction of the line of sight of the subject in the image indicated by the image data as a subject state based on the extracted face area, and gives an instruction to bring the subject state closer to the composition of the shooting. An electronic camera characterized by output.
請求項1または請求項2記載の電子カメラにおいて、
前記指示部は、前記被写体に対して音声による指示を出力する第1の出力部と、撮影者に対して音声による指示を出力する第2の出力部とを備えた
ことを特徴とする電子カメラ。
The electronic camera according to claim 1 or 2,
The instruction unit includes an electronic camera that includes a first output unit that outputs a voice instruction to the subject, and a second output unit that outputs a voice instruction to the photographer. .
請求項1〜請求項3のいずれか1項記載の電子カメラにおいて、
抽出された前記被写体の特徴部位に基づいて、前記被写体が前記撮影の構図に合致したか否かを判定し、合致したと判定した後、前記被写体が撮影合図動作を行ったか否かを抽出された前記被写体の特徴部位に基づいて判定する動作判定部を備え、
前記撮影合図動作を行ったと前記動作判定部が判定したときから、予め定められた時間経過後に、撮影を開始する
ことを特徴とする電子カメラ。
The electronic camera according to any one of claims 1 to 3,
Based on the extracted characteristic part of the subject, it is determined whether or not the subject matches the shooting composition, and after determining that it matches, whether or not the subject has performed a shooting cue operation is extracted. An operation determination unit for determining based on a characteristic part of the subject,
An electronic camera, wherein shooting is started after a predetermined time has elapsed from when the operation determination unit determines that the shooting signal operation has been performed.
JP2004254396A 2004-09-01 2004-09-01 Electronic camera Active JP4970716B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004254396A JP4970716B2 (en) 2004-09-01 2004-09-01 Electronic camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004254396A JP4970716B2 (en) 2004-09-01 2004-09-01 Electronic camera

Publications (2)

Publication Number Publication Date
JP2006074368A JP2006074368A (en) 2006-03-16
JP4970716B2 true JP4970716B2 (en) 2012-07-11

Family

ID=36154508

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004254396A Active JP4970716B2 (en) 2004-09-01 2004-09-01 Electronic camera

Country Status (1)

Country Link
JP (1) JP4970716B2 (en)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4864502B2 (en) * 2006-03-23 2012-02-01 富士フイルム株式会社 Imaging apparatus and imaging condition guide method
JP4891674B2 (en) * 2006-06-30 2012-03-07 オリンパスイメージング株式会社 camera
JP4463792B2 (en) 2006-09-29 2010-05-19 富士フイルム株式会社 Imaging device
JP4904243B2 (en) 2007-10-17 2012-03-28 富士フイルム株式会社 Imaging apparatus and imaging control method
KR100840023B1 (en) * 2007-11-13 2008-06-20 (주)올라웍스 Method and system for adjusting pose at the time of taking photos of himself or herself
JP4944055B2 (en) 2008-03-19 2012-05-30 富士フイルム株式会社 Imaging apparatus and imaging control method
JP5493284B2 (en) * 2008-03-31 2014-05-14 カシオ計算機株式会社 Imaging apparatus, imaging method, and program
JP5251547B2 (en) 2008-06-06 2013-07-31 ソニー株式会社 Image photographing apparatus, image photographing method, and computer program
US8477207B2 (en) 2008-06-06 2013-07-02 Sony Corporation Image capturing apparatus, image capturing method, and computer program
JP5152583B2 (en) * 2008-09-26 2013-02-27 カシオ計算機株式会社 Imaging apparatus, imaging guide method, and program
KR101030652B1 (en) * 2008-12-16 2011-04-20 아이리텍 잉크 An Acquisition System and Method of High Quality Eye Images for Iris Recognition
JP5325626B2 (en) * 2009-03-25 2013-10-23 オリンパスイメージング株式会社 Camera and subject tracking method
JP5385032B2 (en) * 2009-07-08 2014-01-08 ソニーモバイルコミュニケーションズ株式会社 Imaging apparatus and imaging control method
JP5709500B2 (en) * 2010-12-09 2015-04-30 株式会社ザクティ Electronic camera
US9374517B2 (en) * 2012-10-12 2016-06-21 Ebay Inc. Guided photography and video on a mobile device
KR102093647B1 (en) * 2013-02-22 2020-03-26 삼성전자 주식회사 Apparatus and method for shooting an image in a device having a camera
KR101431651B1 (en) 2013-05-14 2014-08-22 중앙대학교 산학협력단 Apparatus and method for mobile photo shooting for a blind person
JP6257198B2 (en) * 2013-07-22 2018-01-10 キヤノン株式会社 Optical apparatus, control method therefor, and control program
CN104718742B (en) * 2013-10-16 2016-12-14 奥林巴斯株式会社 Display device and display packing
WO2015064144A1 (en) 2013-10-30 2015-05-07 オリンパスイメージング株式会社 Image capturing device, image capturing method, and program
JP5702037B1 (en) * 2013-10-30 2015-04-15 オリンパスイメージング株式会社 Imaging apparatus, imaging method, and program
JP6555632B2 (en) * 2014-08-20 2019-08-07 リコーイメージング株式会社 Interchangeable lens camera
JP6640460B2 (en) * 2015-03-30 2020-02-05 富士フイルム株式会社 Image capturing apparatus, image capturing method, program, and recording medium
JP7285927B2 (en) * 2019-07-02 2023-06-02 株式会社Nttドコモ Control device
JP6733945B1 (en) * 2019-11-20 2020-08-05 株式会社エクサウィザーズ Imaging device, information processing device, method and program

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0652362B2 (en) * 1986-04-24 1994-07-06 オリンパス光学工業株式会社 Camera with self-mode function
JPH01310332A (en) * 1988-06-09 1989-12-14 Olympus Optical Co Ltd Camera
JPH0473731A (en) * 1990-07-16 1992-03-09 Nikon Corp Camera instructing change of composition
JP3412238B2 (en) * 1993-03-31 2003-06-03 株式会社ニコン Camera with composition advice function
JPH10243274A (en) * 1997-02-25 1998-09-11 Sanyo Electric Co Ltd Image-photographing device
JP2000244800A (en) * 1999-02-22 2000-09-08 Victor Co Of Japan Ltd Image pickup device
JP2001215403A (en) * 2000-02-01 2001-08-10 Canon Inc Image pickup device and automatic focus detection method
JP2001357404A (en) * 2000-06-14 2001-12-26 Minolta Co Ltd Picture extracting device
JP4421151B2 (en) * 2001-09-17 2010-02-24 株式会社リコー Digital camera imaging device
JP4364465B2 (en) * 2001-09-18 2009-11-18 株式会社リコー Imaging device
JP2003224761A (en) * 2002-01-28 2003-08-08 Konica Corp Imaging apparatus

Also Published As

Publication number Publication date
JP2006074368A (en) 2006-03-16

Similar Documents

Publication Publication Date Title
JP4970716B2 (en) Electronic camera
KR101817657B1 (en) Digital photographing apparatus splay apparatus and control method thereof
JP4442330B2 (en) Electronic camera and electronic camera system
US9210318B2 (en) Imaging device and imaging method
US20120154547A1 (en) Imaging device, control method thereof, and program
JP2010252046A (en) Image pickup apparatus
JP2010147715A (en) Imager
JP4802058B2 (en) Mobile phone with camera and imaging method thereof
JP4652998B2 (en) Imaging device
JP4891674B2 (en) camera
JP2003224761A (en) Imaging apparatus
JP5042896B2 (en) Image processing apparatus and image processing program
JP2010081260A (en) Imaging apparatus and program therefor
JP4717867B2 (en) Imaging apparatus and imaging method
JP2014143595A (en) Image recorder
JP2014053863A (en) Photographing apparatus
US11523048B2 (en) Electronic device, control method of electronic device, and non-transitory computer readable medium
JPWO2019065820A1 (en) Imaging device and its control method and control program
JP4973427B2 (en) Camera with projector
KR101724754B1 (en) A imaging system of the vehicle around image using the motion recognition
JP2011066828A (en) Imaging device, imaging method and program
JP2010034838A (en) Electronic camera
JP2010034837A (en) Electronic camera
JP2013074428A (en) Self-photographing determination device, imaging apparatus, program, and self-photographing determination method
KR102149508B1 (en) Photographing apparatus, method for controlling the same, and computer-readable recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100329

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100720

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20100906

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20110121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120309

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120405

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150413

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4970716

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150413

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250