JP2011234269A - Imaging device and image data generation method - Google Patents

Imaging device and image data generation method Download PDF

Info

Publication number
JP2011234269A
JP2011234269A JP2010104945A JP2010104945A JP2011234269A JP 2011234269 A JP2011234269 A JP 2011234269A JP 2010104945 A JP2010104945 A JP 2010104945A JP 2010104945 A JP2010104945 A JP 2010104945A JP 2011234269 A JP2011234269 A JP 2011234269A
Authority
JP
Japan
Prior art keywords
unit
image
image data
image processing
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010104945A
Other languages
Japanese (ja)
Other versions
JP5690080B2 (en
JP2011234269A5 (en
Inventor
Satoshi Hara
聡司 原
Shigeji Takahashi
薫示 高橋
Akira Tani
憲 谷
Naohisa Nakada
直久 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2010104945A priority Critical patent/JP5690080B2/en
Priority to CN201110112052.4A priority patent/CN102238335B/en
Publication of JP2011234269A publication Critical patent/JP2011234269A/en
Publication of JP2011234269A5 publication Critical patent/JP2011234269A5/en
Application granted granted Critical
Publication of JP5690080B2 publication Critical patent/JP5690080B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device capable of obtaining various moving images, and to provide an image data generation method.SOLUTION: An imaging device comprises: an imaging unit 2 which images a subject and outputs image data of a moving image; a motion analyzing unit 3ca which analyzes the motion of the subject on the basis of image data 31a to 31e; an effect applying unit 3b which performs effect image processing of the image data according to the motion of the subject analyzed by the motion analyzing unit 3ca; and a recording unit 6 which records image data 33b to 33e subjected to effect image processing by the effect applying unit 3b.

Description

本発明は、撮影機器および画像データ生成方法に関し、詳しくは、撮影時における画像処理を自動的に選択可能な撮影機器および画像データ生成方法に関する。   The present invention relates to an imaging device and an image data generation method, and more particularly to an imaging device and an image data generation method capable of automatically selecting image processing at the time of imaging.

近年、デジタルカメラなどの携帯機能付き携帯機器(撮影機器)は、画像処理を利用することにより撮影領域を拡大している。また、様々な画像処理をユーザが利用可能になってきており、撮影者の感性を反映させた絵作りを簡単に楽しむことが可能になってきている。   In recent years, portable devices (photographing devices) with portable functions such as digital cameras have expanded the photographing area by using image processing. In addition, various image processing has become available to users, and it has become possible to easily enjoy making pictures reflecting the sensitivity of the photographer.

例えば、特許文献1には、デジタルエフェクトキーを操作することにより、アニメーションデータや文字列データが読み出され、特殊効果を施した画像を楽しむことができる映像記録装置が開示されている。また、特許文献2には、動画像の動きに応じて視覚的なアクションを施すようにした画像合成装置が開示されている。   For example, Patent Document 1 discloses a video recording apparatus in which animation data and character string data are read out by operating a digital effect key, and an image with a special effect can be enjoyed. Further, Patent Document 2 discloses an image composition device that performs a visual action according to the motion of a moving image.

特開2005−347886号公報JP-A-2005-347886 特許4142427号公報Japanese Patent No. 4142427

このように、画像に処理を施すことは種々提案されている。しかし、特許文献1に開示の映像記録装置は、静止画に対する特殊効果を施すのみであって、動画に対して特殊効果を施すことについては何ら考慮されていない。特許文献2に開示の画像合成装置は、動画に対して特殊効果を施すようにしている。しかし、一瞬の動きに反応するだけであって、動きの過程を分析し、動き全体に対して特殊効果を調節するものではない。動画の場合には、動きが重要であり、この動き全体に応じて画像処理を変化させると、変化に富んだ画像となるが、従来はこのような観点の撮影機器は提案されていなかった。   As described above, various proposals have been made for processing an image. However, the video recording apparatus disclosed in Patent Document 1 only applies a special effect to a still image, and does not consider any special effect to a moving image. The image synthesizing apparatus disclosed in Patent Document 2 is to apply a special effect to a moving image. However, it only reacts to the movement of the moment, it does not analyze the process of movement and adjust the special effects on the whole movement. In the case of a moving image, the movement is important. If the image processing is changed in accordance with the entire movement, an image rich in change is obtained. However, a photographing apparatus of such a viewpoint has not been proposed conventionally.

本発明は、このような事情を鑑みてなされたものであり、撮影中に特別な操作を行うことなく、変化に富んだ動画像を取得することの可能な撮影機器および画像データ生成方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and provides a photographing apparatus and an image data generation method capable of acquiring a moving image rich in change without performing a special operation during photographing. The purpose is to do.

上記目的を達成するため第1の発明に係わる撮影機器は、被写体像を撮像し、画像データを出力する撮像部と、上記画像データに基づいて、人物の画像の内の顔部分の向きの変化の開始時点と終了時点を判定する顔変化判定部と、上記顔変化判定部に判定された上記開始時点と上記終了時点に基づいて、上記画像データの画像処理を行う画像処理部と、を具備する。   In order to achieve the above object, a photographing apparatus according to a first aspect of the present invention includes an imaging unit that captures a subject image and outputs image data, and a change in the orientation of a face portion in a person image based on the image data. A face change determination unit that determines a start time and an end time of the image, and an image processing unit that performs image processing of the image data based on the start time and the end time determined by the face change determination unit. To do.

第2の発明に係わる撮影機器は、上記第1の発明において、上記顔変化判定部は、さらに上記顔の部分の大きさの変化を判定し、上記画像処理部は、上記顔の大きさの変化に基づいて、上記画像処理の内容を決定する。   In the photographing apparatus according to a second aspect of the present invention, in the first aspect, the face change determination unit further determines a change in the size of the face portion, and the image processing unit determines the size of the face. The content of the image processing is determined based on the change.

第3の発明に係わる撮影機器は、被写体像を撮像し、動画の画像データを出力する撮像部と、上記画像データに基づいて、被写体の動きを解析する動き解析部と、上記動き解析部によって解析された被写体の動きに応じて、上記画像データに対して効果画処理を行う効果付与部と、上記効果付与部によって効果画処理が施された画像データを記録する記録部と、を具備する。   According to a third aspect of the present invention, there is provided an imaging device that captures a subject image and outputs moving image data, a motion analysis unit that analyzes the motion of the subject based on the image data, and the motion analysis unit. The image processing apparatus includes an effect applying unit that performs an effect image process on the image data according to the analyzed movement of the subject, and a recording unit that records the image data subjected to the effect image process by the effect applying unit. .

第4の発明に係わる撮影機器は、上記第3の発明において、さらに、上記動き解析部によって解析された上記被写体の動きに基づいて、上記効果付与部によって効果画処理を施す範囲を判定する動作始点終点判定部を有する。
第5の発明に係わる撮影機器は、上記第4の発明において、上記効果付与部は、上記動作始点終点判定部によって判定された始点と終点の間の画像データに対して、上記効果画処理を施す。
According to a fourth aspect of the present invention, there is provided the photographing apparatus according to the third aspect, further comprising: determining an area on which the effect applying unit performs the effect image processing based on the movement of the subject analyzed by the motion analyzing unit. It has a start point / end point determination unit.
According to a fifth aspect of the present invention, in the fourth aspect, the effect applying unit performs the effect image processing on the image data between the start point and the end point determined by the operation start point / end point determination unit. Apply.

第6の発明に係わる撮影機器は、上記第3の発明において、上記動き解析部は、上記被写体の動きを予め決められたパターンに分類する。
第7の発明に係わる撮影機器は、上記第6の発明において、上記効果付与部は、上記動き解析部によるパターンに応じて、効果画処理を変更する。
第8の発明に係わる撮影機器は、上記第3の発明において、上記動作解析部は、被写体の人物の顔の向きおよび大きさの少なくとも1つを用いて、被写体の動きを解析する。
According to a sixth aspect of the present invention, in the photographing apparatus according to the third aspect, the motion analysis unit classifies the movement of the subject into a predetermined pattern.
In the photographing apparatus according to a seventh aspect based on the sixth aspect, the effect imparting unit changes the effect image processing according to the pattern by the motion analysis unit.
In the photographing apparatus according to the eighth aspect based on the third aspect, the motion analysis unit analyzes the movement of the subject using at least one of the direction and size of the face of the person of the subject.

第9の発明に係わる画像データ生成方法は、被写体像を撮像して動画の画像データを出力し、上記画像データに基づいて、被写体の動きを解析し、上記解析された被写体の動きに応じて、上記画像データに対して効果画処理を行い、上記効果画処理が施された画像データを記録する。   According to a ninth aspect of the present invention, there is provided an image data generation method for capturing a subject image and outputting moving image data, analyzing the motion of the subject based on the image data, and according to the analyzed subject motion. Then, effect image processing is performed on the image data, and the image data subjected to the effect image processing is recorded.

本発明によれば、被写体の動きに応じて画像処理を施すので、撮影中に特別な操作を行うことなく、変化に富んだ動画像を取得することの可能な撮影機器および画像データ生成方法を提供することができる。   According to the present invention, since image processing is performed in accordance with the movement of a subject, a photographing apparatus and an image data generation method capable of acquiring a moving image rich in change without performing a special operation during photographing. Can be provided.

本発明の一実施形態に係わるカメラの主として電気的構成を示すブロック図である。1 is a block diagram mainly showing an electrical configuration of a camera according to an embodiment of the present invention. 本発明の一実施形態に係わるカメラの画像処理部の詳細を示すブロック図である。It is a block diagram which shows the detail of the image processing part of the camera concerning one Embodiment of this invention. 本発明の一実施形態に係わるカメラにおいて、動きのある被写体を撮影している様子を示す図である。It is a figure which shows a mode that the to-be-photographed object is image | photographed in the camera concerning one Embodiment of this invention. 本発明の一実施形態に係わるカメラにおいて、動きのある被写体を撮影した場合の画像処理を説明する図であり、(a)は画像処理を施す前の画像であり、(b)は画像処理を施した後の画像である。4A and 4B are diagrams for explaining image processing when a moving subject is photographed in the camera according to the embodiment of the present invention. FIG. 5A is an image before image processing is performed, and FIG. It is the image after giving. 本発明の一実施形態に係わるカメラにおいて、別の動きのある被写体を撮影している様子を示す図である。It is a figure which shows a mode that the to-be-photographed object is image | photographed in the camera concerning one Embodiment of this invention. 本発明の一実施形態に係わるカメラにおいて、別の動きのある被写体を撮影した場合の画像処理を説明する図であり、(a)は画像処理を施す前の画像であり、(b)は画像処理を施した後の画像である。4A and 4B are diagrams for explaining image processing when a subject with another motion is photographed in the camera according to the embodiment of the present invention, FIG. 5A is an image before image processing is performed, and FIG. It is an image after processing. 本発明の一実施形態に係わるカメラにおいて、被写体の人物の顔の部分の動きの検出を説明する図であって、(a)は顔が正面を向いている場合、(b)は顔が右側を向いている場合、(c)は顔が左側を向いている場合を示す。In the camera according to an embodiment of the present invention, it is a diagram for explaining the detection of the movement of the face portion of the person of the subject, (a) when the face is facing the front, (b) is the right side (C) shows the case where the face is facing the left side. 本発明の一実施形態に係わるカメラにおいて、被写体の人物の顔の部分の動きを顔の陰影の追跡によって検出する場合を説明する図であって、(a)〜(c)は顔が正面から次第に右側に向かって移動する様子を示す。In the camera concerning one embodiment of the present invention, it is a figure explaining the case where the motion of the face part of the person of a subject is detected by tracking the shadow of a face, and (a)-(c) is a face from the front. The state of gradually moving toward the right side is shown. 本発明の一実施形態に係わるカメラにおいて、被写体の人物の顔の部分の動きを示す図であって、(a)は目鼻の陰影の中心からの距離の変化を示し、(b)は人物の頭部の大きさの変化を示すグラフである。In the camera according to an embodiment of the present invention, it is a diagram showing the movement of the face portion of the subject person, (a) shows the change in the distance from the center of the shadow of the eyes and nose, (b) is the figure of the person It is a graph which shows the change of the size of a head. 本発明の一実施形態に係わるカメラのカメラ制御の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the camera control of the camera concerning one Embodiment of this invention. 本発明の一実施形態に係わるカメラの軌跡判定の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the locus | trajectory determination of the camera concerning one Embodiment of this invention. 本発明の一実施形態に係わるカメラにおいて、被写体の人物の顔の部分の動きを示す図であって、(a)〜(c)は人物の頭部が上下する場合の変化を示す図である。In the camera concerning one embodiment of the present invention, it is a figure showing the motion of the face part of the person of a subject, and (a)-(c) is a figure showing change when a person's head goes up and down. . 本発明の一実施形態に係わるカメラの始点終点判定の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the starting point end point determination of the camera concerning one Embodiment of this invention. 本発明の一実施形態に係わるカメラの効果画処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the effect image process of the camera concerning one Embodiment of this invention.

以下、図面に従って本発明を適用したカメラを用いて好ましい実施形態について説明する。図1は、本発明の一実施形態に係わるカメラ10の電気的構成を示すブロック図である。カメラ10は、デジタルカメラであり、制御部1、撮像部2、顔検出部2a、画像処理部3、記録部6、時計部7、表示部8、操作部9等から構成される。   Hereinafter, a preferred embodiment will be described using a camera to which the present invention is applied according to the drawings. FIG. 1 is a block diagram showing an electrical configuration of a camera 10 according to an embodiment of the present invention. The camera 10 is a digital camera, and includes a control unit 1, an imaging unit 2, a face detection unit 2a, an image processing unit 3, a recording unit 6, a clock unit 7, a display unit 8, an operation unit 9, and the like.

撮像部2は、ズーム機能を有する撮影レンズ(ズームレンズ)や、シャッタ・絞り等の露出制御部、撮像素子、撮像素子の駆動及び読出回路等を含み、撮影レンズによって形成された被写体像を撮像素子によって画像データに変換し、これを出力する。なお、本明細書においては、撮像素子から出力される画像信号に基づく信号であれば、画像処理された信号も含めて画像データと称する。   The imaging unit 2 includes a photographing lens (zoom lens) having a zoom function, an exposure control unit such as a shutter / aperture, an imaging element, a driving and reading circuit for the imaging element, and the like, and captures an object image formed by the photographing lens. It is converted into image data by the element and output. In this specification, a signal based on an image signal output from the image sensor is referred to as image data including an image processed signal.

顔検出部2aは撮像部2から出力され、制御部1内の画像処理部3によって処理された画像データに基づいて、被写体像の中に人物の顔が含まれているか否か、また顔が含まれていた場合にはその位置や大きさ等を検出し、検出結果を制御部1に出力する。なお、顔の検出にあたっては、顔の中の目、鼻、口等のパーツの陰影を抽出し、パターンマッチング法等によって行う。また、顔を検出することができた場合には、頭部の大きさ(顔の大きさ)も検出する。   The face detection unit 2a is output from the imaging unit 2, and based on the image data processed by the image processing unit 3 in the control unit 1, whether or not a human face is included in the subject image, If it is included, its position and size are detected, and the detection result is output to the control unit 1. In detecting a face, shadows of parts such as eyes, nose, and mouth in the face are extracted and performed by a pattern matching method or the like. If the face can be detected, the size of the head (face size) is also detected.

制御部1は、記憶されているプログラムに従ってカメラ10の全体のシーケンスを制御する。制御部1は、記録制御部1a、顔変化判定部1b、モード設定部1c、画像処理部3を有する。記録制御部1aは、静止画や動画の画像データの記録部6への記録の制御を行う。この制御にあたって、動画アートモードが設定されている場合には、画像を解析し、所定の動作区間に対して画像処理を施してから記録されるように制御する。   The control unit 1 controls the entire sequence of the camera 10 according to a stored program. The control unit 1 includes a recording control unit 1a, a face change determination unit 1b, a mode setting unit 1c, and an image processing unit 3. The recording control unit 1a controls recording of still image or moving image image data in the recording unit 6. In this control, when the moving image art mode is set, the image is analyzed, and control is performed so as to be recorded after performing image processing on a predetermined operation section.

顔変化判定部1bは、顔検出部2aによって人物の顔の部分が検出された場合には、この検出された顔の向きの変化を判定する。モード設定部1cは、メニュー画面等によって動画アートモードを設定するための処理部である。この動画アートモードは、後述するように、顔変化判定部1bの判定結果を用いて、人物の顔の向き等が所定の範囲にある場合、その範囲内において、画像処理を施し、変化に富んだ動画像にするためのモードである。   When the face detection unit 2a detects a face portion of a person, the face change determination unit 1b determines a change in the detected face orientation. The mode setting unit 1c is a processing unit for setting a moving image art mode on a menu screen or the like. As will be described later, in the moving image art mode, when the orientation of the person's face is within a predetermined range using the determination result of the face change determination unit 1b, image processing is performed within the range and the change is rich. This is a mode for creating a moving image.

制御部1内の画像処理部3は、仮記録部3a、効果付与部3b、およびその他の画像処理部を有する。その他の画像処理部では、撮像部2から出力される画像データを取り込み、間引き処理、切り出し処理、エッジ強調、色補正、画像圧縮等の種々の画像処理を行い、動画のライブビュー表示用、記録部6における静止画および動画の記録用、静止画および動画の再生表示用等の画像処理を行う。画像圧縮・伸張等にあたっては、静止画用圧縮・伸張回路、動画用圧縮・伸張回路等、それぞれの処理に応じて静止画用や動画用の回路を有する。   The image processing unit 3 in the control unit 1 includes a temporary recording unit 3a, an effect applying unit 3b, and other image processing units. The other image processing unit captures the image data output from the imaging unit 2, performs various image processing such as thinning processing, clipping processing, edge enhancement, color correction, image compression, and the like for live view display and recording of moving images. The image processing such as recording of still images and moving images and reproduction / display of still images and moving images is performed in the unit 6. In image compression / expansion, a still image compression / expansion circuit, a moving image compression / expansion circuit, and the like are provided for still images and moving images in accordance with respective processes.

また、仮記録部3aは、後述するように、動画の画像データを仮記録するためのメモリであり、効果付与部3bは、動画アートモードが設定された場合には、仮記録された動画像に対して画像効果を与えるような画像処理を施す。画像処理部3の詳細は、図2を用いて後述する。   As will be described later, the temporary recording unit 3a is a memory for temporarily recording moving image data. The effect applying unit 3b is a temporarily recorded moving image when the moving image art mode is set. Image processing that gives an image effect to the image is performed. Details of the image processing unit 3 will be described later with reference to FIG.

操作部9は、レリーズ釦、パワースイッチ、再生モード設定釦、メニュー釦等、種々の操作部材を含み、これらの操作部材の操作状態を判定し、制御部1に判定結果を送る。前述の制御部1は、操作部材の操作状態に応じて、所定のシーケンスで撮影や再生の制御を行う。なお、動画アートモードは、前述したようにメニュー画面にて設定するが、これ以外にも、動画アートモード設定用の動画アートモード釦を設け、この釦を操作することによって設定するようにしても構わない。また、動画撮影時には必ずアートモードが設定されるようにしても良い。   The operation unit 9 includes various operation members such as a release button, a power switch, a reproduction mode setting button, a menu button, etc., determines the operation state of these operation members, and sends a determination result to the control unit 1. The above-described control unit 1 controls photographing and reproduction in a predetermined sequence according to the operation state of the operation member. The movie art mode is set on the menu screen as described above, but in addition to this, a movie art mode button for setting the movie art mode is provided, and the movie art mode may be set by operating this button. I do not care. In addition, the art mode may be set at the time of moving image shooting.

記録部6は、レリーズ釦によって撮影の指示がなされた際に、撮像部2によって取得され、画像処理部3によって圧縮処理された静止画や動画の画像データを記録する。表示部8は、カメラ10の背面等に配置された液晶パネルや有機ELパネル等の表示部を有し、撮影前のライブビュー表示や、記録済みの画像の通常再生表示や、カメラ情報やメニュー画面の表示等を行う。撮影者はライブビュー表示を観察し、構図やタイミングを決定することができる。また、動画撮影時における動画アートモードで撮影された画像の再生表示も行う。   The recording unit 6 records image data of still images and moving images acquired by the imaging unit 2 and compressed by the image processing unit 3 when a shooting instruction is given by the release button. The display unit 8 includes a display unit such as a liquid crystal panel or an organic EL panel arranged on the back surface of the camera 10, and displays live view display before shooting, normal playback display of recorded images, camera information, and menus. Display the screen. The photographer can observe the live view display and determine the composition and timing. In addition, an image shot in the moving image art mode at the time of moving image shooting is also displayed.

時計部7は、計時動作を行い、撮影日時情報を出力する。この撮影日時情報は、静止画や動画の画像データを記録部6に記録する際に合わせて記録する。また、動画アートモードで撮影する際には、動画撮影における計時動作にも使用される。   The clock unit 7 performs a time measuring operation and outputs photographing date / time information. This shooting date / time information is recorded when image data of a still image or a moving image is recorded in the recording unit 6. In addition, when shooting in the moving image art mode, it is also used for a timing operation in moving image shooting.

次に、図2を用いて画像処理部3の構成の詳細について説明する。画像処理部3は、前述したように、撮像部2から出力される画像データを取り込み、間引き処理、切り出し処理等の各種画像処理を行うが、図2には、動画アートモードにおける画像データ生成に関連する構成を示し、この構成を主に説明する。   Next, details of the configuration of the image processing unit 3 will be described with reference to FIG. As described above, the image processing unit 3 takes in the image data output from the imaging unit 2 and performs various image processing such as thinning processing and clipping processing. FIG. 2 illustrates image data generation in the moving image art mode. A related configuration is shown and this configuration will be mainly described.

仮記録部3aは、撮像部2からの画像データと、顔検出部2aからの顔検出結果を、それぞれ仮記録するためのメモリ0〜メモリnを有する。メモリ0〜メモリnに仮記録された顔検出結果の出力は、動作解析部3caに接続される。この動作解析部3caは、顔の軌跡や大きさの変化を解析する。   The temporary recording unit 3a includes memories 0 to n for temporarily recording the image data from the imaging unit 2 and the face detection result from the face detection unit 2a. The output of the face detection result temporarily recorded in the memories 0 to n is connected to the motion analysis unit 3ca. The motion analysis unit 3ca analyzes changes in the face trajectory and size.

動作解析部3caは動作始点終点判定部3cbに接続され、この動作始点終点判定部3cbは、動作解析部3caの解析結果を用いて、人物の所定動作の始点や終点を判定する。所定動作としては、例えば、人物が踊りながら回るような場合があり、この場合の始点は任意の位置と、その位置から1周回った位置が相当する。この回る動作以外にも、例えば、振り返るような動作や、後ろ向きになって遠くに去っていく動作等、種々の所定動作がある。   The motion analysis unit 3ca is connected to the motion start point / end point determination unit 3cb, and the motion start point / end point determination unit 3cb uses the analysis result of the motion analysis unit 3ca to determine the start point and end point of the predetermined motion of the person. As the predetermined operation, for example, there is a case where a person turns while dancing, and the starting point in this case corresponds to an arbitrary position and a position that goes around from that position. In addition to this turning action, there are various predetermined actions such as a turning action and an action of turning backward and leaving far away.

動作始点終点判定部3cbの出力と、仮記録部3aに仮記録された動画の画像データの出力は、効果付与部3bの1つである採用決定部3baに接続されている。採用決定部3baは、動作始点終点判定部3cbによって始点と終点の間にあると判定された画像データを、採用決定する。採用決定部3baからの画像データの出力にあたっては、採用決定された画像データと採用決定されない画像データの両方を出力するが、その際、採用決定された画像データか、採用決定されていない画像データかを識別できるようにして出力する。   The output of the operation start point / end point determination unit 3cb and the output of moving image data temporarily recorded in the temporary recording unit 3a are connected to an adoption determining unit 3ba which is one of the effect applying units 3b. The adoption deciding unit 3ba decides to adopt the image data determined by the operation start point / end point determination unit 3cb to be between the start point and the end point. When outputting the image data from the adoption determining unit 3ba, both the image data decided to be adopted and the image data not decided to be adopted are outputted. At this time, the image data decided to be adopted or the image data not decided to be adopted is used. Is output so that it can be identified.

採用決定部3baの出力は、効果付与部3bの1つである効果付与部3bbに接続され、この効果付与部3bbは、採用決定部3baによって採用決定された画像データに対して、所定の画像効果を付与する画像処理を行う。所定の画像効果としては、例えば、人物の服装の色や模様等を変更したり、また、セピア調に色調を変更したり、さらに次第に明るくしたり、逆に暗くする等の画像処理を行う。なお、採用決定されなかった画像データについては、効果を付与することなく、そのまま画像データを出力する。   The output of the adoption determining unit 3ba is connected to an effect applying unit 3bb, which is one of the effect applying units 3b. The effect applying unit 3bb provides a predetermined image for the image data determined to be adopted by the employment determining unit 3ba. Perform image processing to add effects. As the predetermined image effect, for example, image processing such as changing the color or pattern of a person's clothes, changing the color tone to a sepia tone, making it gradually brighter, or making it darker is performed. For image data that has not been determined to be adopted, the image data is output as it is without giving any effect.

効果付与部3bbの出力は、動画圧縮部3dに接続されており、この動画圧縮部3dは、効果付与部3bbから出力される動画データの画像圧縮を行う。動画圧縮部3dは、記録部6に接続されており、圧縮処理された画像データは記録部6に記録される。   The output of the effect applying unit 3bb is connected to the moving image compressing unit 3d, and the moving image compressing unit 3d performs image compression of the moving image data output from the effect applying unit 3bb. The moving image compression unit 3 d is connected to the recording unit 6, and the compressed image data is recorded in the recording unit 6.

このように、本実施形態における画像処理部3は構成されているので、動作解析部3caによって、後述する図3に示すように、人物が振り返ってから遠ざかっていくのか、図5に示すように、人物がくるくると回転している等、所定の動作を解析することができる。この解析結果に基づいて、動作始点終点判定部3cbは、人物が回転している場合には、一回転の中で始点と終点を定め、また、振り返ってから遠ざかる場合には、振り返って向こう側を見た際の頭部のサイズが半分になるまでを動作の始点と終点に定めることができる。始点と終点が決まると、この間の画像データに対して、効果付与部3bは画像効果を付与し、記録部6に記録する。なお、本実施形態においては、画像処理部3の内部構成は、ハードウエア構成としたが、適宜、ソフトウエアによって実現してもよい。   As described above, since the image processing unit 3 in the present embodiment is configured, as shown in FIG. 5, whether or not the person is turned away by the motion analysis unit 3 ca as shown in FIG. 3 described later. It is possible to analyze a predetermined operation such as rotating when a person turns around. Based on the analysis result, the motion start point / end point determination unit 3cb determines the start point and the end point in one rotation when the person is rotating, and when looking back, the other side looks back. It is possible to determine the start point and end point of the movement until the size of the head when viewing is reduced to half. When the start point and the end point are determined, the effect imparting unit 3b imparts an image effect to the image data in the meantime and records it in the recording unit 6. In the present embodiment, the internal configuration of the image processing unit 3 is a hardware configuration, but may be appropriately realized by software.

次に、図3ないし図6を用いて、本実施形態における画像効果の付与について説明する。図3は、撮影者側を見ていた人物21が、反対側に向いて立ち去っていくシーンを示している。これは、映画やテレビドラマに登場する馴染みのシーンであり、旅立ちや別れの表現として一般的である。このようなシーンは、ストーリー性のある動画のオープニングやエンディングで感情を高ぶらせることができ、特殊効果を付与することによって、画像を強調し、また感情を増幅させることができる。   Next, the application of image effects in the present embodiment will be described with reference to FIGS. FIG. 3 shows a scene in which the person 21 who was looking at the photographer side leaves toward the opposite side. This is a familiar scene that appears in movies and TV dramas, and is commonly used as a departure or parting expression. In such a scene, emotion can be enhanced by opening and ending a moving image with a story, and by adding a special effect, the image can be enhanced and the emotion can be amplified.

そこで、本実施形態においては、カメラ10によって、人物21の動画像を取得する。これによって、カメラ10内の仮記録部3aには、図4(a)に示すように、画像31a〜画像31eに対応する画像データが仮記録される。前述の動作解析部3caおよび動作始点終点判定部3cbによって、振り返って反対側を見た時点を始点とし、人物21の頭部が始点時と比較し、頭部(顔の大きさ)が半分になる時を終点として、特殊効果を付与する。なお、終点のタイミングとしては、始点時の半分以外にも、1/3程度でも、1/4程度でもよく、動画で鑑賞した際に、画像処理を終了しても違和感のない程度であればよい。   Therefore, in the present embodiment, a moving image of the person 21 is acquired by the camera 10. As a result, the image data corresponding to the images 31a to 31e is temporarily recorded in the temporary recording unit 3a in the camera 10 as shown in FIG. By using the motion analysis unit 3ca and the motion start point / end point determination unit 3cb, the time point when looking back is the start point, and the head of the person 21 is half the head (face size) compared to the start point. A special effect is applied with the end point. The end point timing may be about 1 / or ¼, in addition to half of the start point, as long as there is no sense of incongruity even when the image processing is finished when watching a movie. Good.

本実施形態においては、図4(b)に示すように、始点前の画像33aに対しては特殊効果を付与しない。始点後の画像33b、33cに対してセピア調とし、これに続く画像33dに対して消えていくように画像を明るくし、最後の画像33eには枠をつけるような特殊効果を付与する。このような画像処理を行うことにより、人物21が立ち去っていく哀しさを表現することができる。この場合、効果をいっきに付与するのではなく、順序を追って変化していくようにする。なお、セピア調以外にも、モノクロ調にする等、他の画処理でもよい。   In this embodiment, as shown in FIG. 4B, no special effect is applied to the image 33a before the start point. Separation is applied to the images 33b and 33c after the start point, and a special effect is applied such that the image 33d is brightened so as to disappear with respect to the subsequent image 33d, and a frame is added to the last image 33e. By performing such image processing, the sadness that the person 21 leaves can be expressed. In this case, the effects are not given all at once, but are changed in order. In addition to the sepia tone, other image processing such as a monochrome tone may be performed.

図5に示す例は、人物21の別の所定動作であり、踊るような感じで回っている場合である。このとき、カメラ10によって動画撮影を行うと、図6(a)に示すような動画を構成する画像32a〜32fを取得することができる。この場合、人物21の顔の部分が正面を向いている画像34aを始点とすると、顔の部分が回転し、再び、正面を向いている画像34fが終点となる。   The example shown in FIG. 5 is another predetermined operation of the person 21 and is a case where the person 21 is turning like a dance. At this time, when moving image shooting is performed by the camera 10, images 32a to 32f constituting the moving image as illustrated in FIG. 6A can be acquired. In this case, if the image 34a in which the face portion of the person 21 faces the front is the starting point, the face portion rotates, and the image 34f that faces the front again becomes the end point.

そこで、本実施形態においては、人物21の顔の回転に着目し、顔が一回転する間に、取得した画像34a〜34fに対して、服の部分の色を変えて、着せ替えのような効果を出している。顔の動きの変化を解析することにより、始点と終点を決められることから、このような変化を付けることができる。なお、人物21が何回転もする場合には、正面を向いてから次の正面を向くまでの1区間として、同様に服の色を変化させればよい。また、色だけではなく、模様を変えてもよく、模様と色を同時に変えるようにしてもよい。さらに、図6(b)では、スカートのみを変化させているが、上着も変化させてもよい。   Therefore, in the present embodiment, paying attention to the rotation of the face of the person 21, while the face rotates once, the color of the clothes portion is changed to change the clothes image 34 a to 34 f. Has an effect. Since the start point and the end point can be determined by analyzing the change in the movement of the face, such a change can be added. When the person 21 rotates many times, the color of the clothes may be changed similarly as one section from the front to the next front. In addition to the color, the pattern may be changed, and the pattern and the color may be changed at the same time. Further, in FIG. 6B, only the skirt is changed, but the outerwear may also be changed.

このように、本実施形態においては、人物21の顔の回転に着目して動作の始点と終点を判定している。顔の向きの変化の判定法について、図7を用いて説明する。図7は人物の顔の内、目鼻の陰影と、顔の外形を示している。すなわち、楕円は顔の外形を、顔の外形の内部のT字形状は、目鼻の陰影を示している。   Thus, in the present embodiment, the start point and end point of the operation are determined by paying attention to the rotation of the face of the person 21. A method for determining the change in the orientation of the face will be described with reference to FIG. FIG. 7 shows the shadow of the eyes and nose and the outline of the face of the human face. That is, the ellipse indicates the outer shape of the face, and the T shape inside the outer shape of the face indicates the shadow of the eyes and nose.

すなわち、図7(a)は人物の顔が正面を向いている場合であり、この場合には、人物の鼻筋線37は、顔の外形の中心線36と一致する。しかし、図7(b)に示すように、人物が右側を向くと、鼻筋線37は中心線36よりも右側にずれ、差分Xはプラスの値となる。一方、図7(c)に示すように、人物が左側を向くと、鼻筋線37は中心線36よりも左側にずれ差分Xはマイナスとなる。なお、本実施形態においては、顔の外形や、目鼻の陰影とその変化は、顔変化判定部1bによって判定される。   That is, FIG. 7A shows a case where the face of the person is facing the front. In this case, the nose line 37 of the person coincides with the center line 36 of the outer shape of the face. However, as shown in FIG. 7B, when the person faces the right side, the nose line 37 is shifted to the right side from the center line 36, and the difference X becomes a positive value. On the other hand, as shown in FIG. 7C, when the person faces the left side, the nose muscle line 37 is shifted to the left side from the center line 36, and the difference X becomes negative. In the present embodiment, the face outline, the shadow of the nose and the change thereof are determined by the face change determination unit 1b.

また、目鼻の陰影の検出が困難場合には、まず、図8(a)に示すように、正面を向いた状態で顔を検出した後に、陰影の特徴点の時間変化を追尾すれば、いずれの側に顔が向いていくかを判定することができる。図8に示す例では、両眼を結ぶ線の端部までの距離が図8(b)ではX1、図8(c)ではX2と変化していることから、顔が右側を向いていることを判定することができる。また、目鼻の陰影の特徴点以外にも、目鼻陰影の周囲の輪郭検出によって頭部の大きさφを判定し、この大きさφに基づいて、人物が遠ざかっているか否かを判定することができる。   If it is difficult to detect the shadow of the eyes and nose, first, as shown in FIG. 8 (a), after detecting the face while facing the front, tracking the temporal change of the feature points of the shadow, It can be determined whether the face is facing to the side. In the example shown in FIG. 8, the distance to the end of the line connecting both eyes changes to X1 in FIG. 8B and X2 in FIG. 8C, so that the face is facing the right side. Can be determined. In addition to the feature points of the shadows of the eyes and nose, it is possible to determine the size φ of the head by detecting the outline around the shadows of the eyes and determine whether the person is moving away based on the size φ. it can.

図9(a)は、顔の部分が回転した場合の特徴点の変化を示す。すなわち、鼻筋線37と中心線36との差分Xは、顔の部分が正面を向いている際には0である(時刻t0)。顔の部分が次第に右側に向いているとすると、時刻t1までは差分Xは徐々に増加し、時刻t1において、顔が後ろ向きになることから、差分Xは消滅する。今、顔の部分が回転しているとすると、時刻t2において鼻筋線が左側から正面に向かって移動することから、破線で示すように変化する。   FIG. 9A shows changes in feature points when the face portion is rotated. That is, the difference X between the nose muscle line 37 and the center line 36 is 0 when the face portion is facing the front (time t0). Assuming that the face portion is gradually turned to the right side, the difference X gradually increases until time t1, and the face turns backward at time t1, so the difference X disappears. Now, assuming that the face portion is rotating, the nose muscle line moves from the left side toward the front side at time t2, and thus changes as shown by a broken line.

また、図9(b)は頭部の大きさφの変化を示す。図9(b)中の実線の例では、時刻t1、t2と経過するにつれて、大きさφが小さくなっていることから、被写体である人物は遠ざかっているといえる。一方、破線の例では、時刻t1、t2と経過しても、頭部の大きさφは、一定であることから、撮影者からの距離は変化していないといえる。   FIG. 9B shows a change in the head size φ. In the example of the solid line in FIG. 9B, since the size φ decreases as time t1 and t2 elapse, it can be said that the person who is the subject is moving away. On the other hand, in the example of the broken line, it can be said that the distance from the photographer does not change because the head size φ is constant even when the times t1 and t2 have elapsed.

図9(a)(b)において、実線で示す例は、顔の目鼻の陰影が後ろに向いた後、消滅しており、また、頭部の大きさφは時間の経過と共に小さくなっていることから、図3、図4を用いて説明したように、振り返って遠ざかっていく人物であると推定される。一方、破線で示す例は(但し、図9(a)の時刻t0〜t1の実線部分を含む)、顔の目鼻の陰影が一旦消滅した後に再び反対側から出現し、また頭部の大きさφが時間の経過と共に変化せず一定であることから、図5、図6を用いて説明したように、回転している人物であると推定される。   9 (a) and 9 (b), the example indicated by the solid line disappears after the shadow of the face's eyes and nose is directed backward, and the size φ of the head decreases with time. Therefore, as described with reference to FIGS. 3 and 4, it is estimated that the person looks back and moves away. On the other hand, in the example indicated by the broken line (however, including the solid line part at time t0 to t1 in FIG. 9A), the shadows of the eyes and nose appear once again from the opposite side, and the size of the head Since φ does not change with time and is constant, it is estimated that the person is rotating as described with reference to FIGS. 5 and 6.

このように、本実施形態においては、顔の目鼻の陰影や、頭部の大きさφを検出することにより、人物の動きを検出し、また、その始点や終点を検出することができる。   As described above, in the present embodiment, by detecting the shadow of the eyes and nose of the face and the size φ of the head, it is possible to detect the movement of the person and to detect the start point and the end point thereof.

次に、本実施形態に係わるカメラ10の動作を図10に示すカメラ制御のフローチャートを用いて説明する。後述する図11、図13、図14に示すフローチャートも含めて、本実施形態におけるフローは、図示しないメモリに記憶されているプログラムに従って、制御部1によって実行される。また、本実施形態においては、撮影モードにおいては、動画撮影モードおよび動画アートモードが選択されている場合について説明する。   Next, the operation of the camera 10 according to the present embodiment will be described using the camera control flowchart shown in FIG. The flow in the present embodiment, including the flowcharts shown in FIGS. 11, 13, and 14 described later, is executed by the control unit 1 in accordance with a program stored in a memory (not shown). In the present embodiment, the case where the moving image shooting mode and the moving image art mode are selected in the shooting mode will be described.

カメラ10がパワーオンとなり起動すると、図10に示すフローがスタートする。まず、撮影モードか否かの判定を行う(S1)。このカメラ10には、撮影モードと再生モード等の他のモードが備えられており、操作部9の操作状態に基づいて撮影者のモード選択状態を判定する。なお、このカメラ10のデフォルト状態におけるモードは撮影モードである。   When the camera 10 is powered on and activated, the flow shown in FIG. 10 starts. First, it is determined whether or not the photographing mode is set (S1). The camera 10 is provided with other modes such as a shooting mode and a playback mode, and the mode selection state of the photographer is determined based on the operation state of the operation unit 9. The mode in the default state of the camera 10 is a shooting mode.

ステップS1における判定の結果、撮影モードが選択されていなかった場合には、撮影モード以外の処理を行う(S35)。ここでは、再生モード等、ユーザによって選択されたモードに従って処理を行う。撮影モード以外の処理を行うと、ステップS1に戻る。   If the result of determination in step S1 is that the shooting mode has not been selected, processing other than shooting mode is carried out (S35). Here, processing is performed according to a mode selected by the user, such as a playback mode. When processing other than the shooting mode is performed, the process returns to step S1.

ステップS1における判定の結果、撮影モードであった場合には、撮像、表示、および顔検出を行う(S3)。このステップでは、撮像部2によって取得した画像データについて画像処理部3において画像処理し、この画像処理された画像データを用いて表示部8にライブビュー表示を行う。撮影者がライブビュー表示を見ながら構図やシャッタチャンスを決定することができる。また、顔検出部2aにおいて、画像の中に顔の部分が含まれているか否か、また含まれていた場合にはその位置や大きさを検出する。   If the result of determination in step S <b> 1 is shooting mode, imaging, display, and face detection are performed (S <b> 3). In this step, the image data acquired by the imaging unit 2 is subjected to image processing in the image processing unit 3, and live view display is performed on the display unit 8 using the image data subjected to the image processing. The photographer can determine the composition and the photo opportunity while viewing the live view display. Further, the face detection unit 2a detects whether or not a face portion is included in the image and, if included, the position and size thereof.

撮像、表示、顔検出を行うと、次に、撮影開始か否かの判定を行う(S5)。ここでは、動画釦等が操作され、動画撮影開始の指示がなされたか否かの判定を行う。この判定の結果、撮影開始ではなかった場合には、ステップS1に戻る。撮影モードが選択されている場合には、ステップS1〜S5を繰り返し実行する間、ライブビュー表示が更新される。   Once imaging, display, and face detection have been performed, it is next determined whether or not imaging has started (S5). Here, it is determined whether or not a moving image button or the like is operated and an instruction to start moving image shooting is given. If the result of this determination is that shooting has not started, processing returns to step S1. When the shooting mode is selected, the live view display is updated while steps S1 to S5 are repeatedly executed.

ステップS5における判定の結果、撮影開始であった場合には、次に、連続撮影および顔検出結果の仮記録を開始する(S7)。ここでは、撮像部2から出力される動画の画像データと、顔検出部2aから出力される顔検出結果を仮記録部3aのメモリ0〜メモリnに順次、仮記録する。   If the result of determination in step S5 is that shooting has started, then continuous shooting and temporary recording of face detection results are started (S7). Here, the image data of the moving image output from the imaging unit 2 and the face detection result output from the face detection unit 2a are temporarily recorded sequentially in the memory 0 to the memory n of the temporary recording unit 3a.

動画の画像データと顔検出結果を仮記録すると、次に、軌跡判定を行う(S9)。この軌跡判定では、動作解析部3caが、仮記録された画像データと、顔の検出結果に基づいて、被写体である人物が、図3〜図9を用いて説明したような所定の動きを行っているか否か、言い換えると顔の部分の軌跡が所定の変化となっているかを判定する。この軌跡判定のフローの詳細について、図11を用いて後述する。   Once the image data of the moving image and the face detection result are provisionally recorded, a trajectory determination is performed (S9). In this trajectory determination, the motion analysis unit 3ca performs a predetermined movement as described with reference to FIGS. 3 to 9 based on the temporarily recorded image data and the face detection result. It is determined whether or not, in other words, the locus of the face portion has a predetermined change. Details of the trajectory determination flow will be described later with reference to FIG.

軌跡判定を行うと、次に、軌跡が所定の変化であるか否かを判定する(S11)。ここでは、ステップS9において行った軌跡判定に基づいて、動作始点終点判定部3cbが、軌跡が所定変化であったか否かを判定する。   Once the trajectory is determined, it is next determined whether or not the trajectory is a predetermined change (S11). Here, based on the trajectory determination performed in step S9, the motion start point / end point determination unit 3cb determines whether or not the trajectory is a predetermined change.

ステップS11における判定の結果、軌跡が所定の変化でなかった場合には、次に、所定時間変化がないか否かを判定する(S21)。ステップS9において軌跡判定を行うためには、所定時間の間のデータが必要となる。この所定時間が短時間過ぎると、十分な判定ができず、また長時間の場合には仮記録部3aとして大容量のメモリが必要となる。そこど、これらを勘案して、適宜、所定時間の長さを選定すればよい。本実施形態においては、例えば、10秒程度とする。   If the result of determination in step S11 is that the trajectory is not a predetermined change, it is next determined whether or not there is no change for a predetermined time (S21). In order to perform trajectory determination in step S9, data for a predetermined time is required. If the predetermined time is too short, sufficient determination cannot be made, and if the predetermined time is long, a large-capacity memory is required as the temporary recording unit 3a. However, in consideration of these, the length of the predetermined time may be selected as appropriate. In the present embodiment, for example, about 10 seconds.

ステップS21における判定の結果、所定時間の間、軌跡に所定の変化がなかった場合には、次に、それ以前の画像は、画処理なしで圧縮記録を行う(S23)。この場合には、図3ないし図9を用いて説明したような所定の動きを行わなかったことから、動画に効果を与えるような画像処理を行うことなく、そのまま動画の画像データを圧縮し、記録する。すなわち、効果付与部3bbは何ら効果を付与することなく、動画圧縮部3dにおいて画像圧縮した後、記録部6に画像データの記録を行う。   If the result of determination in step S21 is that there is no predetermined change in the trajectory for a predetermined time, then the previous image is compressed and recorded without image processing (S23). In this case, since the predetermined movement as described with reference to FIGS. 3 to 9 was not performed, the image data of the moving image is compressed as it is without performing image processing that has an effect on the moving image. Record. That is, the effect imparting unit 3bb records the image data in the recording unit 6 after compressing the image in the moving image compressing unit 3d without imparting any effect.

一方、ステップS11における判定の結果、軌跡が所定の変化であった場合には、次に、始点終点判定を行う(S13)。ここでは、所定の動作であった場合に、動作の始点と終点を求める。例えば、図3及び図4において説明したような反対側に顔を向け、遠ざかって去っていく人物の場合には、反対側に顔を向けた位置を始点とし、頭部が始点時の半分になった位置を終点とする。また、図5及び図6において説明したような顔の部分が回転している場合には、正面を向いた位置を始点とし、一周回って再び正面を向いた位置を終点とする。この始点終点判定のフローについては、図13を用いて詳述する。   On the other hand, if the result of determination in step S11 is that the trajectory is a predetermined change, next, start point end point determination is performed (S13). Here, in the case of a predetermined operation, the start point and end point of the operation are obtained. For example, in the case of a person who faces the opposite side as described in FIG. 3 and FIG. 4 and leaves away, the position where the face is directed to the opposite side is the starting point, and the head is half of the starting point. The end position is the end point. Further, when the face portion as described in FIGS. 5 and 6 is rotating, the position facing the front is set as the start point, and the position turning around once and facing the front is set as the end point. The flow of the start point / end point determination will be described in detail with reference to FIG.

始点終点判定を行うと、次に、始点から終点の間の動画に効果画処理を行い、画像圧縮を行う(S15)。始点終点が決まると、その間の動画の画像データに対して特殊効果を付与するような画処理を行う。すなわち、採用決定部3baによって始点と終点の間の動画データが識別されるので、この画像に対して、効果付与部3bが画処理を行う。画処理を行うと、動画圧縮部3dによって画像圧縮を行う。このステップにおける動作の内、画処理の部分のフローについては、図14を用いて詳述する。   Once the start point / end point determination is performed, an effect image process is performed on the moving image between the start point and the end point, and image compression is performed (S15). When the start point and the end point are determined, image processing is performed so as to give a special effect to the image data of the moving image during that time. That is, since the moving image data between the start point and the end point is identified by the adoption determining unit 3ba, the effect applying unit 3b performs image processing on this image. When image processing is performed, image compression is performed by the moving image compression unit 3d. Of the operations in this step, the flow of the image processing portion will be described in detail with reference to FIG.

続いて、始点より前の画像について圧縮し記録する(S17)。ステップS13における始点終点判定において始点を判定していることから、このステップでは、始点以前に仮記録部3aに記録された画像データを動画圧縮部3dにおいて圧縮した後、記録部6に記録する。始点以前の画像データに対しては、画処理を行うことがないことから、記録部6に記録し、仮記録部3aの負荷を軽減する。   Subsequently, the image before the start point is compressed and recorded (S17). Since the start point is determined in the start point / end point determination in step S13, in this step, the image data recorded in the temporary recording unit 3a before the start point is compressed in the moving image compression unit 3d and then recorded in the recording unit 6. Since the image data before the start point is not subjected to image processing, it is recorded in the recording unit 6 to reduce the load on the temporary recording unit 3a.

ステップS17において始点より前の画像圧縮記録を行うと、またはステップS23において画処理なしで圧縮記録を行うと、またはステップS21における判定の結果、所定時間の間に変化があった場合には、次に、撮影終了か否かの判定を行う(S19)。ここでは、動画釦等が再度操作され、動画撮影終了の指示がなされたか否かの判定を行う。この判定の結果、撮影終了でなかった場合には、ステップS9に戻る。   If image compression recording before the start point is performed in step S17, or compression recording is performed without image processing in step S23, or if the result of determination in step S21 is a change during a predetermined time, Next, it is determined whether or not the photographing is finished (S19). Here, it is determined whether or not the moving image button or the like has been operated again to instruct the end of moving image shooting. If the result of this determination is that photography has not ended, processing returns to step S9.

ステップS19における判定の結果、撮影終了であった場合、ステップS13において判定された終点より後の画像が仮記録部3aにそのまま残っている。そこで、終点より後の所定動作の継続状態に応じて処理を異ならせている。まず、終点より後も同様の動作が継続しているか否かの判定を行う(S25)。ここでは、動作解析部3caによって、終点以後、撮影終了前の間で所定動作が継続しているか否かを判定する。   If the result of determination in step S19 is that shooting has been completed, the image after the end point determined in step S13 remains in the temporary recording unit 3a. Therefore, the processing is varied according to the continuation state of the predetermined operation after the end point. First, it is determined whether the same operation continues after the end point (S25). Here, it is determined by the motion analysis unit 3ca whether or not a predetermined operation continues after the end point and before the end of shooting.

ステップS25における判定の結果、同様の動作が継続していた場合には、終点より後の画像の効果画処理を行った後、圧縮し記録する(S27)。ここでは、ステップS15において施した画処理と同じ画処理を効果付与部3bbは行い、動画圧縮部3dによって圧縮した後に記録部6に記録する。図5及び図6に示したような回転しているシーンであれば、服を変えるような効果が持続する。   If the same operation is continued as a result of the determination in step S25, the effect image processing of the image after the end point is performed, and then compressed and recorded (S27). Here, the effect applying unit 3bb performs the same image processing as the image processing performed in step S15, and the image is compressed by the moving image compressing unit 3d and then recorded in the recording unit 6. If the scene is rotating as shown in FIG. 5 and FIG. 6, the effect of changing clothes persists.

一方、ステップS25における判定の結果、同様の動作が継続していなかった場合には、終点から撮影終了までの時間が5秒以上か否かの判定を行う(S29)。この判定の結果、5秒以上、動作が継続していない場合には、終点より撮影終了までの間の画像に対して、効果を付与せず、そのまま圧縮し記録する(S33)。この場合には、5秒間以上、同様の動作を行っていないことから、全く別の動作を開始したような状況であり、特殊効果を付与すると不自然な画像となることから、そのまま圧縮して記録する。   On the other hand, if the result of determination in step S25 is that the same operation has not continued, it is determined whether or not the time from the end point to the end of shooting is 5 seconds or longer (S29). If the result of this determination is that the operation has not continued for 5 seconds or more, the image from the end point to the end of shooting is not compressed and recorded as it is (S33). In this case, since the same operation has not been performed for 5 seconds or more, a completely different operation is started, and when a special effect is applied, an unnatural image is obtained. Record.

ステップS29における判定の結果、終点から撮影終了までの時間が5秒未満であった場合には、ステップS27と同様、終点より後の画像に効果画処理を施し、圧縮した後に記録する(S31)。終点からの時間が短時間であることから、効果画処理を継続するようにしている。ステップS27、S31、S33において、終点以降の画像の記録を行うと、ステップS1に戻る。   If the result of determination in step S29 is that the time from the end point to the end of shooting is less than 5 seconds, as in step S27, effect image processing is performed on the image after the end point, and the image is compressed and recorded (S31). . Since the time from the end point is short, the effect image processing is continued. In step S27, S31, S33, when the image after the end point is recorded, the process returns to step S1.

次に、ステップS9における軌跡判定のフローの詳細について、図11に示すフローチャートを用いて説明する。このフローに入ると、まず、顔の向きが横向きか否かの判定を行う(S41)。ここでは、顔検出部2aによる検出結果に基づいて、目鼻の陰影が横向きの陰影か否かであることにより判定する。   Next, details of the trajectory determination flow in step S9 will be described using the flowchart shown in FIG. If this flow is entered, it is first determined whether or not the face orientation is landscape (S41). Here, based on the detection result by the face detection unit 2a, the determination is made based on whether or not the shadow of the eyes and nose is a horizontal shadow.

ステップS41における判定の結果、顔の向きが横向きであった場合には、次に、目鼻パターンが消失したか否かを判定する(S43)。前述したように、人物の顔が正面と反対を向くと目鼻の陰影が消滅するので、動作解析部3caが目鼻の陰影に基づいて判定する。   If the result of determination in step S41 is that the face orientation is landscape, it is next determined whether or not the eye-nose pattern has disappeared (S43). As described above, since the shadow of the eyes and nose disappears when the face of the person faces away from the front, the motion analysis unit 3ca makes a determination based on the shadow of the eyes and nose.

ステップS43における判定の結果、目鼻パターンが消失した場合には、次に、頭部の判定が可能か否かを判定する(S45)。ここでは、図8(c)において示したような頭部の大きさφを、顔検出部2aが測定可能であるか否かを判定する。この判定の結果、頭部の大きさを判定できる場合には、次に、頭部が縮小していくか否かを判定する(S47)。このステップでは、顔検出部2aにおいて検出された頭部の大きさφの時間的変化に基づいて判定する。なお、ステップS43からS47にかけては、経時変化を見ながら判定する。   If the eye / nose pattern disappears as a result of the determination in step S43, it is next determined whether or not the head can be determined (S45). Here, it is determined whether or not the head size φ as shown in FIG. 8C can be measured by the face detection unit 2a. If the size of the head can be determined as a result of this determination, it is next determined whether or not the head is reduced (S47). In this step, the determination is made based on the temporal change of the head size φ detected by the face detection unit 2a. It should be noted that the determination is made while observing the change with time from step S43 to S47.

ステップS47における判定の結果、頭部が縮小していた場合には、パターン1と設定する(S49)。この場合は、図3及び図4において説明したように、人物が振り返って遠ざかって行くシーンに相当し、パターン1の所定軌跡として設定する。   If the result of determination in step S47 is that the head has shrunk, pattern 1 is set (S49). In this case, as described with reference to FIGS. 3 and 4, this corresponds to a scene where a person looks back and moves away, and is set as a predetermined locus of pattern 1.

一方、ステップS47における判定の結果、頭部が縮小していなかった場合には、次に、目鼻パターンを再度検出できるか否かの判定を行う(S51)。ステップS43において、目鼻の陰影が消失したことを検出しているが、このステップでは、目鼻の陰影が再度、現われたかを、動作解析部3caによって判定する。   On the other hand, if the result of determination in step S47 is that the head has not shrunk, it is next determined whether or not the eye-nose pattern can be detected again (S51). In step S43, it is detected that the shadow of the eyes and nose has disappeared. In this step, it is determined by the motion analysis unit 3ca whether the shadow of the eyes and nose has appeared again.

ステップS51における判定の結果、目鼻パターンが再度検出できた場合には、パターン2と設定する(S53)。この場合は、図5及び図6において説明したように、人物が回転しているシーンであり、パターン2の所定軌跡として設定する。   If the result of determination in step S51 is that the eye-nose pattern can be detected again, it is set as pattern 2 (S53). In this case, as described in FIGS. 5 and 6, the scene is a scene in which a person is rotating, and is set as a predetermined locus of the pattern 2.

一方、ステップS51における判定の結果、目鼻パターンが再度検出できなかった場合には、次に、2秒間静止状態か否かを判定する(S55)。ここでは、目鼻の陰影が消失したままで、2秒、変化がないかを判定する。なお、2秒は、例示であり、これより短くても長くてもよく、後述するように、人物が空を斜め仰ぎ見ていると判定できる程度の時間であればよい。また、ある動作の後、被写体の人物が一呼吸おくような時間、または、揺れることなく止まっていられる時間程度でもよい。   On the other hand, if the result of determination in step S51 is that the eye-nose pattern cannot be detected again, it is next determined whether or not it is stationary for 2 seconds (S55). Here, it is determined whether there is no change for 2 seconds while the shadows of the eyes and nose are still disappearing. Note that 2 seconds is an exemplification, and may be shorter or longer than this, as long as it can be determined that a person is looking up at the sky obliquely as described later. Further, it may be the time for the subject person to take a breath after a certain operation, or the time for the person to stop without shaking.

ステップS55における判定の結果、2秒間の間、静止していれば、パターン3と設定する(S57)。この場合には、目鼻の陰影が消失したままで、頭部の大きさが小さくなることなく、2秒静止していることから、空を斜め上に仰ぎ見るようなシーンであり、パターン3の所定軌跡と設定する。   If the result of determination in step S55 is that it has been stationary for 2 seconds, pattern 3 is set (S57). In this case, the shadow of the eyes and nose remains disappeared, the head is not reduced in size, and remains stationary for 2 seconds. Set as a predetermined trajectory.

ステップS41における判定において、顔の動きが横向きでなかった場合には、次に、頭部が上下に動いているか否かを判定する(S61)。ここでは、動作解析部3caが、図12に示すように、目鼻の陰影に基づいて、頭部が上下に動いているか否かを判定する。すなわち、図12(a)に示すように、顔が正面を向いている際に、両眼を結ぶ水平線38を決める。そして、図12(b)(c)に示すように、頭部が上下に動いた際に、水平線38と両眼を結ぶ眼線39の差Y1、Y2を求め、Y1、Y2に基づいて、頭部が上下したかを判定する。   If it is determined in step S41 that the face is not moving sideways, it is next determined whether or not the head is moving up and down (S61). Here, as shown in FIG. 12, the motion analysis unit 3ca determines whether or not the head is moving up and down based on the shadow of the eyes and nose. That is, as shown in FIG. 12A, when the face is facing the front, a horizontal line 38 connecting both eyes is determined. Then, as shown in FIGS. 12B and 12C, when the head moves up and down, differences Y1 and Y2 between the horizontal line 38 and the eye line 39 connecting both eyes are obtained, and the head is calculated based on Y1 and Y2. It is determined whether the part has moved up and down.

ステップS61における判定の結果、頭部が上下に動いていた場合には、次に、ステップS55と同様に、2秒静止しているか否かを判定する(S63)。ここでは、目鼻の陰影が消失したままで、2秒、変化がないかを判定する。具体的には、前述した水平線38と眼線39との差分Y1、Y2が変化しないかをみる。なお、2秒は例示であり、下を向いてうつむいている場合や、また、うなずいている場合等と判定できる程度の時間であればよい。また、ある動作の後、被写体の人物が一呼吸おくような時間、または、揺れることなく止まっていられる時間程度でもよい。   If the result of determination in step S61 is that the head has moved up and down, it is next determined whether or not it has been stationary for 2 seconds, as in step S55 (S63). Here, it is determined whether there is no change for 2 seconds while the shadows of the eyes and nose are still disappearing. Specifically, it is checked whether the differences Y1 and Y2 between the horizontal line 38 and the eye line 39 described above are not changed. Note that 2 seconds is an example, and it may be a time that can be determined to be when facing down or when nodding. Further, it may be the time for the subject person to take a breath after a certain operation, or the time for the person to stop without shaking.

ステップS63における判定の結果、2秒静止していれば、パターン4と設定する(S65)。この場合には、頭部が上下に動き、かつそのままで2秒間静止していることから、うつむいている場合や、また、うなずいているようなシーンであり、パターン4の所定軌跡と設定する。   If the result of determination in step S63 is that it has been stationary for 2 seconds, pattern 4 is set (S65). In this case, since the head moves up and down and remains as it is for 2 seconds, the scene is depressed or nodded, and the predetermined locus of the pattern 4 is set.

ステップS49、S53、S57、またはS65において、パターン1〜パターン4のいずれかが設定されると、軌跡が所定であると設定し(S69)、元のフローに戻る。この場合には、元のフローに戻ると、次のステップS11においてNoと判定され、ステップS21に進む。   In step S49, S53, S57, or S65, if any of pattern 1 to pattern 4 is set, the trajectory is set to be predetermined (S69), and the process returns to the original flow. In this case, when returning to the original flow, it is determined No in the next step S11, and the process proceeds to step S21.

ステップS43における判定の結果、目鼻パターンが消失していなかった場合、またはステップS45における判定の結果、頭部判定が不能であった場合、またはステップS55における判定の結果、2秒間静止していなかった場合、またはステップS61における判定の結果、頭部が上下に動いていなかった場合、またはステップS63における判定の結果、2秒間静止していなかった場合には、軌跡が所定以外と設定し(S67)、元のフローに戻る。この場合には、元のフローに戻ると、次のステップS11においてYesと判定され、ステップS13に進む。   As a result of the determination in step S43, when the eye-nose pattern has not disappeared, or as a result of the determination in step S45, the head determination is impossible, or as a result of the determination in step S55, it has not been stationary for 2 seconds. If the result of the determination in step S61 is that the head has not moved up or down, or if the result of determination in step S63 is that the head has not been stationary for 2 seconds, the trajectory is set to other than the predetermined (S67). Return to the original flow. In this case, when returning to the original flow, it is determined Yes in the next step S11, and the process proceeds to step S13.

このように軌跡判定のサブルーチンにおいては、動作解析部3caによって、人物の顔の部分の動きが判定され、所定の軌跡であるか否かが判定される。また、所定の軌跡の場合には、軌跡のパターンが、1〜4で分類付けされる。   Thus, in the trajectory determination subroutine, the motion analysis unit 3ca determines the movement of the face portion of the person, and determines whether or not the trajectory is a predetermined trajectory. In the case of a predetermined trajectory, the trajectory patterns are classified by 1 to 4.

次に、ステップS13における始点終点判定のフローの詳細について、図13に示すフローチャートを用いて説明する。このフローに入ると、まず、パターン1か否かの判定を行う(S71)。図11に示す軌跡判定のサブルーチンのステップS49において、人物がパターン1の軌跡を行っていれば、その旨が設定されている。そこで、このステップにおいては、パターン1が設定されているか否かを判定する。   Next, details of the start point / end point determination flow in step S13 will be described using the flowchart shown in FIG. If this flow is entered, it is first determined whether or not it is pattern 1 (S71). In step S49 of the trajectory determination subroutine shown in FIG. 11, if a person has followed the trajectory of pattern 1, that fact is set. Therefore, in this step, it is determined whether or not pattern 1 is set.

ステップS71における判定の結果、パターン1であった場合には、顔の向きの変化開始を始点とし、縮小開始を終点する(S81)。パターン1は、図3及び図4を用いて説明したように、反対側に振りむき、遠ざかる方向に去っていく人物を撮影するシーンである。このため、反対側を振りむくことによって顔の向きが変化し始めた時点を開始点とし、頭部が半分に縮小した時点を終点とする。   If the result of determination in step S71 is pattern 1, the start of face orientation change is set as the start point and the reduction start is ended (S81). As described with reference to FIGS. 3 and 4, the pattern 1 is a scene in which a person who swings to the opposite side and leaves in the direction of moving away is photographed. For this reason, the time when the orientation of the face starts to change by swinging the opposite side is set as the start point, and the time when the head is reduced in half is set as the end point.

ステップS71における判定の結果、パターン1でなかった場合には、次に、パターン2か否かの判定を行う(S73)。ステップS53において、人物がパターン2の軌跡を行っていれば、その旨が設定されている。そこで、このステップにおいては、パターン2が設定されているか否かを判定する。   If the result of determination in step S71 is not pattern 1, it is next determined whether or not it is pattern 2 (S73). In step S53, if the person has followed the trajectory of pattern 2, that fact is set. Therefore, in this step, it is determined whether or not the pattern 2 is set.

ステップS73における判定の結果、パターン2であった場合には、正面から正面を始点とし、終点とする(S83)。パターン2は、図5及び図6を用いて説明したように、踊るように回転している人物を撮影するシーンである。このため、正面を向いているときが始点であり、この後、一回転して再び正面を向いたときが終点である。   If the result of determination in step S73 is pattern 2, the front from the front is set as the start point and the end point is set (S83). As described with reference to FIGS. 5 and 6, the pattern 2 is a scene for photographing a person who is rotating to dance. For this reason, the time when it faces the front is the starting point, and the time when it turns one turn after that and turns to the front again is the end point.

ステップS73における判定の結果、パターン2でなかった場合には、次に、パターン3か否かの判定を行う(S75)。ステップS57において、人物がパターン3の軌跡を行っていれば、その旨が設定されている。そこで、このステップにおいては、パターン3が設定されているか否かを判定する。   If the result of determination in step S73 is not pattern 2, it is next determined whether pattern 3 or not (S75). In step S57, if the person is following the trajectory of pattern 3, that fact is set. Therefore, in this step, it is determined whether or not the pattern 3 is set.

ステップS75における判定の結果、パターン3であった場合には、顔の向きの変化開始を始点とし、変化停止を終点とする(S85)。パターン3は、前述したように、空を斜め上に仰ぎ見るような人物を撮影するシーンである。このため、顔の向きが変化し始めた時点を始点とし、その変化が停止した時点を終点とする。   If the result of determination in step S75 is pattern 3, the start of face direction change is set as the start point and change stop is set as the end point (S85). As described above, the pattern 3 is a scene for photographing a person who looks up at the sky diagonally upward. For this reason, the time when the orientation of the face starts to change is set as the start point, and the time when the change stops is set as the end point.

ステップS75における判定の結果、パターン3でなかった場合には、次に、停止が正面であるか否かの判定を行う(S77)。ここでは、パターン4の場合であり、この場合は、うつむいた状態やうなずいた状態である。そこで、このパターン4に属する場合であって、かつ顔の動きの停止時点で、正面を向いているか否かを、動作解析部3caによって判定する。   If the result of determination in step S75 is not pattern 3, it is next determined whether or not the stop is in front (S77). Here, it is the case of the pattern 4, and in this case, it is a depressed state or a nodding state. Therefore, the motion analysis unit 3ca determines whether or not the face belongs to the pattern 4 and faces the front when the facial motion stops.

ステップS77における判定の結果、停止が正面であった場合には、向きの変化開始を始点、表情変化停止を終点とする(S87)。この場合は、例えば、下を向いてうつむいていた人物が正面を向いてニコッと笑った場合である。そこで、正面方向に顔が動き出した時点(すなわち、向きの変化開始時点)を始点とし、また、正面を向いて表情変化が停止した時点(ニコッと笑った時点)を終点としている。   If the result of determination in step S77 is that the stop is in front, the start of change in direction is taken as the start point and the stop of facial expression change is taken as the end point (S87). In this case, for example, the person who was looking down and laughed smiled at the front. Therefore, the time when the face starts to move in the front direction (that is, the change start time of the orientation) is set as the start point, and the time when the facial expression change is stopped facing the front (when the smile is smiled) is set as the end point.

ステップS77における判定の結果、停止が正面でなかった場合には、正面の表情変化停止時点を始点とし、頭部の動きが停止した時点を終点とする(S79)。この場合は、例えば、正面を向いていた人物が急に表情を変えて下を向きにうつむいたような場合である。そこで、表情が変化した時点を始点とし、下向きの動きが停止した時点を終点としている。   If the result of determination in step S77 is that the stop is not front, the front facial expression change stop time is taken as the start point and the time point when head movement stops is taken as the end point (S79). In this case, for example, a person who is facing the front suddenly changes his expression and looks down. Therefore, the time when the facial expression changes is set as the start point, and the time when the downward movement is stopped is set as the end point.

ステップS79、S81、S83、S85、またはS87において、始点と終点を決めると元のフローに戻る。このように、始点終点判定のサブルーチンにおいては、所定の動作に対応して、それぞれ特殊効果を付与するためのタイミング(始点と終点)を決めている。   In step S79, S81, S83, S85, or S87, when the start point and the end point are determined, the process returns to the original flow. As described above, in the start point / end point determination subroutine, the timing (start point and end point) for applying a special effect is determined in correspondence with a predetermined operation.

ステップS15、S27、S31において種々の処理が行われるが、その内の効果画処理のフローの詳細について、図14に示すフローチャートを用いて説明する。このフローに入ると、まず、ステップS71と同様にパターン1か否かの判定を行う(S91)。   Various processes are performed in steps S15, S27, and S31. The details of the flow of the effect image process will be described with reference to the flowchart shown in FIG. If this flow is entered, it is first determined whether or not it is pattern 1 as in step S71 (S91).

ステップS91における判定の結果、パターン1であった場合には、始点から終点の間の画像をセピア調かつソフトフォーカスとなるように画処理を行う(S101)。前述したように、パターン1は、人物がカメラ10の反対側に向いて遠ざかって去っていくシーンであることから、この雰囲気に相応しい画面となるように、セピア調に色調を変換すると共に、ソフトフォーカスとなるように画面のコントラストを調整する。なお、セピア調に変えてモノクロトーンでもよく、またソフトフォーカスに変えて他のアートフィルタを施してもよい。   If the result of determination in step S91 is pattern 1, image processing is performed so that the image between the start point and end point is in sepia and soft focus (S101). As described above, pattern 1 is a scene in which a person goes away from the camera 10 and moves away. Therefore, the color tone is converted into a sepia tone so as to obtain a screen suitable for this atmosphere, and the software 1 Adjust the screen contrast so that it is in focus. Note that monochrome tone may be used instead of sepia tone, and other art filters may be applied instead of soft focus.

一方、ステップS91における判定の結果、パターン1でなかった場合には、次に、ステップS73と同様に、パターン2か否かの判定を行う(S93)。この判定の結果、パターン2であった場合には、始点から終点の間の画像の中で、顔の下の服装部の色を変更するように画処理を行う(S103)。前述したように、パターン2は、前述したように、人物が踊るように回転しているシーンであることから、楽しんで鑑賞できるように、人物の服装の色を変化させる画処理を行う。なお、複数の色を変化させる以外にも、模様等を変化させて楽しむようにしてもよい。   On the other hand, if the result of determination in step S91 is not pattern 1, it is next determined whether or not it is pattern 2 as in step S73 (S93). If the result of this determination is pattern 2, image processing is performed so as to change the color of the clothing part under the face in the image between the start point and the end point (S103). As described above, since the pattern 2 is a scene that is rotating so that the person dances as described above, the image processing is performed to change the color of the clothes of the person so that the person can enjoy and appreciate it. In addition to changing a plurality of colors, a pattern or the like may be changed and enjoyed.

ステップS93における判定の結果、パターン2でなかった場合には、次に、ステップS75と同様に、パターン3か否かの判定を行う(S95)。この判定の結果、パターン3であった場合には、始点から終点の間の画像に光沢効果がでるような画処理を施す(S105)。パターン3は、前述したように、空を斜め上に仰ぎ見るような人物を撮影するシーンであることから、この雰囲気に相応しい画面となるように、顔の一部がきらきらと輝くような光沢効果を与える。このきらきら輝くような光沢処理としては、顔の部分または近傍の画素のいくつかを明るく表示したり暗く表示したりして、画素の輝度を時間的に変化させる処理を行う。   If the result of determination in step S93 is not pattern 2, it is next determined whether or not it is pattern 3 as in step S75 (S95). If the result of this determination is pattern 3, image processing is performed so that a gloss effect is produced on the image between the start point and end point (S105). As described above, Pattern 3 is a scene for shooting a person who looks up at the sky diagonally, so a glossy effect that sparkles part of the face so that the screen is suitable for this atmosphere. give. As this glittering glossing process, a process of changing the luminance of the pixels with time by displaying some of the pixels in the face portion or in the vicinity brightly or darkly is performed.

ステップS95における判定の結果、パターン3でなかった場合には、次に、ステップS77と同様に、停止状態で顔が正面を向いているか否かを判定する(S97)。この判定の結果、停止状態で顔が正面を向いている場合には、次に、始点から終点の間の画像に、明るさを増すような画処理を行う(S107)。この場合は、前述したように、例えば、下を向いてうつむいていた人物が正面を向いてニコッと笑ったシーンである。そこで、この雰囲気に相応しく、明るい画面となるように画処理を施す。   If the result of determination in step S95 is not pattern 3, it is next determined whether or not the face is facing front in a stopped state (S97), as in step S77. If the result of this determination is that the face is facing forward in the stopped state, image processing that increases the brightness is then performed on the image between the start point and end point (S107). In this case, as described above, for example, it is a scene in which a person who was facing down and smiled smiled facing the front. Therefore, image processing is performed so as to obtain a bright screen suitable for this atmosphere.

一方、ステップS97における判定の結果、停止状態で顔が正面を向いていなかった場合には、次に、始点から終点の間の画像に明るさを落とすような画処理を行う(S99)。この場合は、例えば、正面を向いていた人物が急に表情を変えて下を向きにうつむいたようなシーンである。そこで、この雰囲気に相応しく、重苦しい画面となるように画面の明るさを落とすような画処理を施す。   On the other hand, if the result of determination in step S97 is that the face is not facing forward in the stopped state, next, image processing is performed to reduce the brightness of the image between the start point and end point (S99). In this case, for example, it is a scene in which a person who is facing the front suddenly changes facial expressions and looks down. Therefore, image processing is performed to reduce the brightness of the screen so that the screen is suitable for this atmosphere and is heavy.

ステップS99〜S107における画処理を施すと、元のフローに戻る。このように、効果画処理のサブルーチンにおいては、パターン化された所定動作に応じて相応しい画面となるように画処理を行っている。   When the image processing in steps S99 to S107 is performed, the process returns to the original flow. In this way, in the effect image processing subroutine, image processing is performed so that an appropriate screen is obtained in accordance with the patterned predetermined operation.

以上説明したように、本発明の一実施形態においては、動き解析部3ca(ステップS9の軌跡判定、図11参照)によって解析された被写体の動きに応じて、効果付与部3b(ステップS15、S27、S31、図14の効果画処理参照)が画像データに対して効果画処理を行っている。このため、被写体の全体の動きに応じて画像処理を変化させており、変化に富んだ画像を得ることができる。従来のカメラにおいては、動いている被写体を撮影する場合、その動きを撮影するためにフレーミングしたり、撮影開始終了のタイミングを調整することしかできず、被写体の短時間の動きの最中に、撮影者がいろいろなカメラ操作をすることが不可能であった。徒競争のようなレースを撮影する場合のように、長時間、撮影する場合とは異なり、人物が瞬時に行った仕草に対応してカメラ操作を行うことは不可能であった。本実施形態では、このような瞬時の動作であっても、カメラが人物の動きを分析し、動きに応じた画像処理を行うことができる。   As described above, in one embodiment of the present invention, the effect applying unit 3b (steps S15 and S27) is selected according to the movement of the subject analyzed by the motion analysis unit 3ca (track determination in step S9, see FIG. 11). , S31, see the effect image processing in FIG. 14) is performing the effect image processing on the image data. For this reason, image processing is changed according to the overall movement of the subject, and an image rich in change can be obtained. With conventional cameras, when shooting a moving subject, you can only frame it to capture its movement or adjust the timing of the start of shooting, and during the short-term movement of the subject, It was impossible for the photographer to perform various camera operations. Unlike shooting for a long time, such as when shooting a race like a competition, it was impossible to operate the camera in response to a gesture that a person performed instantaneously. In this embodiment, even with such an instantaneous operation, the camera can analyze the movement of the person and perform image processing according to the movement.

なお、本発明の一実施形態においては、被写体の所定動作として、パターン1〜パターン4を対象としたが、これ以外の動作を加えてもよく、またパターン1〜パターン4のいずれかを省略するようにしてもよい。   In the embodiment of the present invention, patterns 1 to 4 are targeted as predetermined motions of the subject, but other motions may be added, and any of patterns 1 to 4 is omitted. You may do it.

また、本発明の一実施形態においては、所定動作を行っているか否かの判定にあたって、顔の向きと頭部の大きさに基づいて判定したが、これに限らず、手足の動き等、また顔の表情等、他の情報を用いて判定するようにしても勿論かまわない。   Further, in one embodiment of the present invention, in determining whether or not a predetermined operation is being performed, the determination is made based on the orientation of the face and the size of the head. Of course, the determination may be made using other information such as facial expressions.

さらに、本発明の一実施形態においては、効果画処理として、パターン1〜パターン4に応じて、異なる効果画処理を設定したが、効果画処理の内容は、適宜、異ならせてもよい。   Furthermore, in the embodiment of the present invention, different effect image processing is set as the effect image processing according to the patterns 1 to 4, but the content of the effect image processing may be appropriately changed.

さらに、本発明の一実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話や携帯情報端末(PDA:Personal Digital Assist)、ゲーム機器等に内蔵されるカメラでも構わない。いずれにしても、動画を撮影可能な機器であれば、本発明を適用することができる。   Furthermore, in the embodiment of the present invention, the digital camera is used as the photographing device. However, the camera may be a digital single lens reflex camera or a compact digital camera, such as a video camera or a movie camera. It may be a camera for moving images, or may be a camera built in a mobile phone, a personal digital assistant (PDA), a game device, or the like. In any case, the present invention can be applied to any device capable of shooting a moving image.

本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, you may delete some components of all the components shown by embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

1・・・制御部、1a・・・記録制御部、1b・・・顔変化判定部、1c・・・モード設定部、2・・・撮像部、2a・・・顔検出部、3・・・画像処理部、3a・・・仮記録部、3b・・・効果付与部、6・・・記録部、7・・・時計部、9・・・時計部、10・・・カメラ、21・・・人物、31a〜31e・・・画像、32a〜32f・・・画像、33a〜33e・・・画像、34a〜34f・・・画像、36・・・中心線、37・・・鼻筋線、38・・・水平線、39・・・眼線 DESCRIPTION OF SYMBOLS 1 ... Control part, 1a ... Recording control part, 1b ... Face change determination part, 1c ... Mode setting part, 2 ... Imaging part, 2a ... Face detection part, ... Image processing unit, 3a ... temporary recording unit, 3b ... effect applying unit, 6 ... recording unit, 7 ... clock unit, 9 ... clock unit, 10 ... camera, 21. .. person, 31a-31e ... image, 32a-32f ... image, 33a-33e ... image, 34a-34f ... image, 36 ... center line, 37 ... nose muscle line, 38 ... horizontal line, 39 ... gaze

Claims (9)

被写体像を撮像し、画像データを出力する撮像部と、
上記画像データに基づいて、人物の画像の内の顔部分の向きの変化の開始時点と終了時点を判定する顔変化判定部と、
上記顔変化判定部に判定された上記開始時点と上記終了時点に基づいて、上記画像データの画像処理を行う画像処理部と、
を具備することを特徴とする撮影機器。
An imaging unit that captures a subject image and outputs image data;
A face change determination unit that determines a start time and an end time of a change in the orientation of a face portion of a person image based on the image data;
An image processing unit that performs image processing of the image data based on the start time and the end time determined by the face change determination unit;
An imaging apparatus comprising:
上記顔変化判定部は、さらに上記顔の部分の大きさの変化を判定し、
上記画像処理部は、上記顔の大きさの変化に基づいて、上記画像処理の内容を決定する、
ことを特徴とする請求項1に記載の撮影機器。
The face change determination unit further determines a change in the size of the face part,
The image processing unit determines the content of the image processing based on a change in the size of the face;
The photographing apparatus according to claim 1, wherein:
被写体像を撮像し、動画の画像データを出力する撮像部と、
上記画像データに基づいて、被写体の動きを解析する動き解析部と、
上記動き解析部によって解析された被写体の動きに応じて、上記画像データに対して効果画処理を行う効果付与部と、
上記効果付与部によって効果画処理が施された画像データを記録する記録部と、
を具備することを特徴とする撮影機器。
An imaging unit that captures a subject image and outputs video data;
A motion analysis unit that analyzes the motion of the subject based on the image data;
An effect applying unit that performs an effect image process on the image data according to the motion of the subject analyzed by the motion analysis unit;
A recording unit for recording the image data subjected to the effect image processing by the effect applying unit;
An imaging apparatus comprising:
さらに、上記動き解析部によって解析された上記被写体の動きに基づいて、上記効果付与部によって効果画処理を施す範囲を判定する動作始点終点判定部を有することを特徴とする請求項3に記載の撮影機器。   The apparatus according to claim 3, further comprising: an operation start point end point determination unit that determines a range on which the effect image processing is performed by the effect applying unit based on the movement of the subject analyzed by the motion analysis unit. Shooting equipment. 上記効果付与部は、上記動作始点終点判定部によって判定された始点と終点の間の画像データに対して、上記効果画処理を施すことを特徴とする請求項4に記載の撮影機器。   5. The photographing apparatus according to claim 4, wherein the effect applying unit performs the effect image processing on the image data between the start point and the end point determined by the operation start point / end point determination unit. 上記動き解析部は、上記被写体の動きを予め決められたパターンに分類することを特徴とする請求項3に記載の撮影機器。   The photographing apparatus according to claim 3, wherein the motion analysis unit classifies the motion of the subject into a predetermined pattern. 上記効果付与部は、上記動き解析部によるパターンに応じて、効果画処理を変更することを特徴とする請求項6に記載の撮影機器。   The photographing apparatus according to claim 6, wherein the effect applying unit changes the effect image processing in accordance with the pattern by the motion analysis unit. 上記動作解析部は、被写体の人物の顔の向きおよび大きさの少なくとも1つを用いて、被写体の動きを解析することを特徴とする請求項3に記載の撮影機器。   The photographing apparatus according to claim 3, wherein the motion analysis unit analyzes the movement of the subject using at least one of the direction and size of the face of the person of the subject. 被写体像を撮像して動画の画像データを出力し、
上記画像データに基づいて、被写体の動きを解析し、
上記解析された被写体の動きに応じて、上記画像データに対して効果画処理を行い、
上記効果画処理が施された画像データを記録する、
ことを特徴とする画像データ生成方法。
Capture the subject image and output the video image data.
Based on the above image data, analyze the movement of the subject,
In accordance with the analyzed movement of the subject, effect image processing is performed on the image data,
Record the image data subjected to the effect image processing;
An image data generation method characterized by the above.
JP2010104945A 2010-04-30 2010-04-30 Moving image data generation device and moving image data generation method Expired - Fee Related JP5690080B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010104945A JP5690080B2 (en) 2010-04-30 2010-04-30 Moving image data generation device and moving image data generation method
CN201110112052.4A CN102238335B (en) 2010-04-30 2011-04-29 Photographic device and image data generating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010104945A JP5690080B2 (en) 2010-04-30 2010-04-30 Moving image data generation device and moving image data generation method

Publications (3)

Publication Number Publication Date
JP2011234269A true JP2011234269A (en) 2011-11-17
JP2011234269A5 JP2011234269A5 (en) 2013-05-23
JP5690080B2 JP5690080B2 (en) 2015-03-25

Family

ID=44888495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010104945A Expired - Fee Related JP5690080B2 (en) 2010-04-30 2010-04-30 Moving image data generation device and moving image data generation method

Country Status (2)

Country Link
JP (1) JP5690080B2 (en)
CN (1) CN102238335B (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9282241B2 (en) 2012-05-30 2016-03-08 Panasonic Intellectual Property Corporation Of America Image processing device, image processing method, and image processing program

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5872981B2 (en) * 2012-08-02 2016-03-01 オリンパス株式会社 Shooting equipment, moving body shooting method, shooting program
CN104580886B (en) * 2014-12-15 2018-10-12 小米科技有限责任公司 Filming control method and device
JP6341184B2 (en) * 2015-11-18 2018-06-13 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
TWI620440B (en) * 2015-12-24 2018-04-01 緯創資通股份有限公司 Method and related camera device for generating pictures with rotation trace

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004207869A (en) * 2002-12-24 2004-07-22 Mega Chips Corp Image compositing apparatus
JP2007193824A (en) * 2000-04-13 2007-08-02 Fujifilm Corp Image processing method
JP2009088729A (en) * 2007-09-28 2009-04-23 Casio Comput Co Ltd Composite image output device and composite image output processing program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1434170A3 (en) * 2002-11-07 2006-04-05 Matsushita Electric Industrial Co., Ltd. Method and apparatus for adding ornaments to an image of a person
JP4412365B2 (en) * 2007-03-26 2010-02-10 アイシン・エィ・ダブリュ株式会社 Driving support method and driving support device
JP4782725B2 (en) * 2007-05-10 2011-09-28 富士フイルム株式会社 Focusing device, method and program
JP4823970B2 (en) * 2007-05-24 2011-11-24 オリンパスイメージング株式会社 Image editing device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007193824A (en) * 2000-04-13 2007-08-02 Fujifilm Corp Image processing method
JP2004207869A (en) * 2002-12-24 2004-07-22 Mega Chips Corp Image compositing apparatus
JP2009088729A (en) * 2007-09-28 2009-04-23 Casio Comput Co Ltd Composite image output device and composite image output processing program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9282241B2 (en) 2012-05-30 2016-03-08 Panasonic Intellectual Property Corporation Of America Image processing device, image processing method, and image processing program

Also Published As

Publication number Publication date
JP5690080B2 (en) 2015-03-25
CN102238335B (en) 2014-04-16
CN102238335A (en) 2011-11-09

Similar Documents

Publication Publication Date Title
JP5350928B2 (en) Camera and camera control method
US8970717B2 (en) Photographing apparatus
US8125526B2 (en) Camera for selecting an image from a plurality of images based on a face portion and contour of a subject in the image
JP4877762B2 (en) Facial expression guidance device, facial expression guidance method, and facial expression guidance system
JP5107806B2 (en) Image processing device
JP2006101186A (en) Camera
JP5690080B2 (en) Moving image data generation device and moving image data generation method
JP2007300562A (en) Image processing apparatus and image processing method
JP2008011457A (en) Camera
TWI477887B (en) Image processing device, image processing method and recording medium
JP2010021795A (en) Image capturing apparatus, correction controller, correction control method, and program
Cohen et al. The moment camera
JP2007235924A (en) Camera
JP5451197B2 (en) Imaging device
JP4849330B2 (en) Display control apparatus and method, imaging apparatus, information processing apparatus and method, and program
JP5563037B2 (en) Image processing device
JP5509287B2 (en) Reproduction display device, reproduction display program, reproduction display method, and image processing server
JP5782548B2 (en) Image processing apparatus and image processing method
JP2017076998A (en) Image processing device, image processing method, and program
WO2022158201A1 (en) Image processing device, image processing method, and program
JP5106240B2 (en) Image processing apparatus and image processing server
JP6270784B2 (en) Image processing apparatus and image processing method
JP5695728B2 (en) Imaging apparatus and imaging method
JP5628992B2 (en) CAMERA, CAMERA CONTROL METHOD, DISPLAY CONTROL DEVICE, AND DISPLAY CONTROL METHOD
JP5267183B2 (en) Image layout apparatus and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130404

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150130

R151 Written notification of patent or utility model registration

Ref document number: 5690080

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees