JP2010237911A - Electronic apparatus - Google Patents

Electronic apparatus Download PDF

Info

Publication number
JP2010237911A
JP2010237911A JP2009084245A JP2009084245A JP2010237911A JP 2010237911 A JP2010237911 A JP 2010237911A JP 2009084245 A JP2009084245 A JP 2009084245A JP 2009084245 A JP2009084245 A JP 2009084245A JP 2010237911 A JP2010237911 A JP 2010237911A
Authority
JP
Japan
Prior art keywords
subject
image
moving image
period
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009084245A
Other languages
Japanese (ja)
Inventor
Takanori Oshima
孝典 大嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2009084245A priority Critical patent/JP2010237911A/en
Publication of JP2010237911A publication Critical patent/JP2010237911A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an electronic apparatus capable of regenerating only a portion with a specified subject included in an image. <P>SOLUTION: The electronic apparatus includes an animation image generating means for generating an animation image, by acquiring an image by photographing in every prescribed time, and the electronic apparatus detects the subject included in the image for a prescribed time or more, from the image, by executing subject detection processing and subject identification processing, records the subject, an animation file name included with the subject, a start point and a period included with the subject, or the like in association with one another, thereby retrieves easily the image photographed with the subject, and regenerates only the portion with the subject included in the image. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、撮像装置に関し、特に動画像から同一人物当の特定の被写体を検出する技術に関する。   The present invention relates to an imaging apparatus, and more particularly to a technique for detecting a specific subject corresponding to the same person from a moving image.

この種の装置の一例が、特許文献1に開示されている。この特許文献1によれば、モードスイッチにより個人認証による再生モードが選択されると、個人認証装置は、記録メディアに記録されている画像ファイルのうち、最後に記録された画像ファイルから検出された顔Xの特徴量を取得する。次に当該顔Xの特徴量と、記録メディア内の他の画像ファイルに含まれる顔の特徴量とを比較することにより、顔Xと同一の顔を含む画像ファイル(関連画像ファイル)を特定し、CPU30に出力する。CPU30は、個人認証装置により選択された関連画像ファイルを取得して液晶モニタに表示する。   An example of this type of device is disclosed in Patent Document 1. According to Patent Document 1, when a playback mode based on personal authentication is selected by a mode switch, the personal authentication device is detected from the last recorded image file among the image files recorded on the recording medium. The feature amount of the face X is acquired. Next, an image file (related image file) including the same face as the face X is identified by comparing the feature amount of the face X with the face feature amount included in another image file in the recording medium. , Output to the CPU 30. The CPU 30 acquires the related image file selected by the personal authentication device and displays it on the liquid crystal monitor.

特開2007−329679号公報JP 2007-329679 A

しかし、特許文献1に係る発明によると、再生時に関連画像ファイルの特定を行うため、例えば、記録されている画像ファイルの数が多い場合などに、関連画像ファイルの特定に時間を要してしまい、結果として関連画像ファイルの表示に時間がかかってしまうという問題があった。   However, according to the invention according to Patent Document 1, since the related image file is specified at the time of reproduction, for example, when there are a large number of recorded image files, it takes time to specify the related image file. As a result, there is a problem that it takes time to display the related image file.

本願の請求項1にかかる電子機器は、所定時間毎の撮影により撮影画像を取得するとともに、該撮影画像に基づいて第1動画像を生成する動画像生成手段、前記動画像に所定期間以上継続して含まれる被写体を検出する被写体検出手段、前記被写体が前記動画像に継続して含まれる始点及び期間を示す期間情報を導出する期間情報導出手段、前記動画像を構成する前記撮影画像のうち、前記被写体が継続して含まれる期間の動画像を構成する前記撮影画像のいずれかから前記被写体画像を抽出する被写体抽出手段、前記動画像、前記被写体画像、及び前記期間情報を関連付けて記録媒体に記録する関連付け手段、前記期間情報に基づいて前記被写体が前記動画像に継続して含まれる期間の再生を行う再生手段を備えることを特徴とする。   The electronic apparatus according to claim 1 of the present application acquires a captured image by capturing every predetermined time, and also generates a first moving image based on the captured image, and continues to the moving image for a predetermined period or longer. A subject detection unit for detecting a subject included in the image, a period information deriving unit for deriving period information indicating a start point and a period in which the subject is continuously included in the moving image, and among the captured images constituting the moving image , A subject extracting means for extracting the subject image from any of the captured images constituting a moving image of a period in which the subject is continuously included, a recording medium in association with the moving image, the subject image, and the period information And a reproducing unit for reproducing the period in which the subject is continuously included in the moving image based on the period information.

本願の請求項2にかかる電子機器は、請求項1に従属し、前記記録媒体に、前記動画像生成手段により生成された第2動画像が記録されている場合において、前記第2動画像に前記被写体が前記所定期間以上継続して含まれているかどうかを判断する同定手段を備え、前記同定手段により、前記被写体が前記第2動画像に前記所定期間以上継続して含まれていると判断された場合、前記期間情報導出手段は、前記第2動画像から前記被写体が前記第2動画像に継続して含まれている期間を示す第2期間情報を導出し、前記関連付け手段は、前記動画像、前記被写体画像、及び前記期間情報、並びに前記第2動画像、及び前記第2期間情報を関連付けて前記記録媒体に記録することを特徴とする。   An electronic device according to a second aspect of the present invention is dependent on the first aspect, and when the second moving image generated by the moving image generating unit is recorded on the recording medium, the second moving image is recorded on the second moving image. An identification unit that determines whether or not the subject is continuously included for the predetermined period or longer is provided, and the identification unit determines that the subject is continuously included in the second moving image for the predetermined period or longer. The period information deriving unit derives second period information indicating a period during which the subject is continuously included in the second moving image from the second moving image, and the associating unit includes: The moving image, the subject image, the period information, the second moving image, and the second period information are associated with each other and recorded on the recording medium.

本願の請求項3にかかる電子機器は、請求項1乃至2に従属し、前記再生手段は、被写体画像、該被写体画像の被写体が所定期間以上継続して含まれる1又は複数の動画像、及び前記被写体が前記各動画像それぞれに含まれる期間を示す期間情報が関連付けて記録されている記録媒体から、前記被写体画像を抽出するとともに第1被写体画像として表示装置に表示する第1表示手段、前記各動画像それぞれから前記被写体が継続して含まれる期間の前記各動画像を構成する複数の撮影画像の一部を抽出するとともに、抽出された前記一部の撮影画像それぞれを第2被写体画像として表示装置に表示する第2表示手段、を備えることを特徴とする。   An electronic device according to a third aspect of the present invention is dependent on the first or second aspect, wherein the reproduction means includes a subject image, one or a plurality of moving images including the subject of the subject image continuously for a predetermined period, and First display means for extracting the subject image from a recording medium in which period information indicating a period during which the subject is included in each of the moving images is recorded in association with the subject and displaying the extracted subject image as a first subject image on the display device; Extracting a part of a plurality of captured images constituting each moving image during a period in which the subject is continuously included from each moving image, and using each of the extracted captured images as a second subject image 2nd display means to display on a display apparatus, It is characterized by the above-mentioned.

本願の請求項4にかかる電子機器は、請求項1乃至3に従属し、前記第2表示手段によって表示される第2被写体画像のいずれか1つを選択する選択手段、選択された前記第2被写体画像を含む動画像を、前記第2被写体画像が含まれる期間だけ再生する動画像再生手段、を備えることを特徴とする。   An electronic device according to a fourth aspect of the present invention is dependent on the first to third aspects, the selection means for selecting any one of the second subject images displayed by the second display means, and the selected second A moving image reproducing means for reproducing a moving image including a subject image only during a period in which the second subject image is included is provided.

本発明は上記課題に鑑みてなされたものであり、撮影中に動画に所定時間以上存在する被写体の特徴情報や時間情報を記録しておくことで、再生時に当該被写体の表示に要する時間を軽減することが可能な電子機器を提供することを目的とする。   The present invention has been made in view of the above problems, and by recording characteristic information and time information of a subject existing for a predetermined time or longer in a moving image during shooting, the time required for displaying the subject during playback is reduced. It is an object of the present invention to provide an electronic device that can be used.

撮像装置1の構成の概略を示すブロック図である。1 is a block diagram illustrating an outline of a configuration of an imaging apparatus 1. FIG. メモリ6のマッピング状態の一例を示す図解図である。It is an illustration figure which shows an example of the mapping state of the memory. フレーム画像の一例を示す図解図である。It is an illustration figure which shows an example of a frame image. 関連付け処理部24の内部構造の概略を示すブロック図である。3 is a block diagram illustrating an outline of an internal structure of an association processing unit 24. FIG. 記録媒体28のディレクトリ構造の一例を示す図解図である。3 is an illustrative view showing one example of a directory structure of a recording medium 28. FIG. 管理テーブルの一例を示す図解図である。It is an illustration figure which shows an example of a management table. LCDモニタ14の表示例を示す図解図である。FIG. 6 is an illustrative view showing a display example of the LCD monitor 14. 実施例における撮影モードの処理動作の一部を示すフローチャートである。6 is a flowchart illustrating a part of processing operation in an imaging mode in the embodiment. 実施例における撮影モードの処理動作のその他の一部を示すフローチャートである。It is a flowchart which shows a part of other processing operation | movement of the imaging | photography mode in an Example. 実施例における関連付け処理の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation | movement of the correlation process in an Example. 実施例における注目被写体再生モードの処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the attention object reproduction | regeneration mode in an Example.

図1は、本発明の一実施例における撮像装置1の概略を示したブロック図である。   FIG. 1 is a block diagram showing an outline of an imaging apparatus 1 according to an embodiment of the present invention.

撮像装置1は、焦点距離を一定の範囲内で自由に変更できるズームレンズ、被写体の光学像を撮像素子に結像させるフォーカスレンズ、露出の制御を行う絞り、及び入射される光をフレーム周期でアナログ画像信号に変換する撮像素子からなる撮像部2、撮像部2から出力されるアナログ画像信号に対してA/D変換を施すA/D変換部4、A/D変換部4から出力されるデジタル画像信号(以下、フレーム画像信号、または、フレーム画像と記載する。)を一時記録するメモリ6、メモリ6の制御を行うメモリ制御部8、メモリ6に一時記録されたフレーム画像にホワイトバランス調整を施すホワイトバランス調整部、色補間処理を施すことにより色同時化処理(色分離処理ともいう。)を行う色同時化処理部などからなる信号処理部10、信号処理部10で処理されたフレーム画像が静止画を撮影したものである場合はJPEG(Joint Photographic Experts Group)方式、動画を撮影したものである場合はMPEG(Moving Picture Experts Group)方式などにより該画像信号に圧縮符号化処理を施し、圧縮画像信号を生成する画像コーデック部12、伸張されたフレーム画像を表示するLCD(Liquid Crystal Display)モニタ14、LCDモニタ14の駆動を制御するLCDドライバ16、フレーム画像から当該フレーム画像に含まれる人物などの被写体を検出する被写体検出部18、被写体検出部18で検出された被写体と1フレーム前のフレーム画像において検出された被写体が同一被写体であるか否かを判定する被写体同定処理部20、被写体が最初に検出されたフレーム画像のフレーム番号や該フレーム画像からの経過フレーム数などから成る時間情報を取得する時間情報取得部22、被写体の特徴情報と動画ファイルの名称、及び被写体に関する時間情報とを関連付けて記録する関連付け処理部24、I/F(インターフェース)回路26、フレーム画像信号や関連付け処理部24で関連付けされた情報などを記録する記録媒体28、CPU(Central Processing Unit)30、撮像装置1の操作を行う操作部32、を備えている。   The imaging apparatus 1 includes a zoom lens that can freely change a focal length within a certain range, a focus lens that forms an optical image of a subject on an imaging device, an aperture that controls exposure, and incident light in a frame period. An image pickup unit 2 including an image pickup device that converts an analog image signal, an A / D conversion unit 4 that performs A / D conversion on the analog image signal output from the image pickup unit 2, and an output from the A / D conversion unit 4 A memory 6 for temporarily recording a digital image signal (hereinafter referred to as a frame image signal or a frame image), a memory control unit 8 for controlling the memory 6, and a white balance adjustment for the frame image temporarily recorded in the memory 6 A signal processing unit 10 including a white balance adjustment unit for performing color synchronization, a color synchronization processing unit for performing color synchronization processing (also referred to as color separation processing) by performing color interpolation processing, and the like. If the frame image processed by the processing unit 10 is a still image taken, the image is obtained by the JPEG (Joint Photographic Experts Group) method, and if the frame image is taken a moving image by the MPEG (Moving Picture Experts Group) method. An image codec section 12 that performs compression encoding processing on the signal to generate a compressed image signal, an LCD (Liquid Crystal Display) monitor 14 that displays an expanded frame image, an LCD driver 16 that controls driving of the LCD monitor 14, a frame A subject detection unit 18 that detects a subject such as a person included in the frame image from the image, and whether the subject detected by the subject detection unit 18 and the subject detected in the frame image one frame before are the same subject. The subject identification processing unit 20 to determine, the frame number of the frame image in which the subject is first detected, and the frame number A time information acquisition unit 22 for acquiring time information including the number of elapsed frames from a frame image, an association processing unit 24 for associating and recording subject feature information, a moving image file name, and time information about the subject, An F (interface) circuit 26, a recording medium 28 for recording information associated with the frame image signal and the association processing unit 24, a CPU (Central Processing Unit) 30, and an operation unit 32 for operating the imaging device 1 are provided. Yes.

撮像素子としてはCCD(Charge Coupled Device)イメージセンサ、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等が使用される。
また、メモリ6としては、例えば、VRAM(Video Random Access Memory)、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、或いはSDRAM(Synchronous DRAM)などの一般的に用いられているメモリが使用される。
また、記録媒体28としては、例えばフラッシュメモリなどの撮像装置1に内蔵される内部記録媒体、或いはSDメモリカードやメモリスティック(登録商標)などの撮像装置1への着脱が自在な外部記録媒体が使用される。
また、LCDモニタ14は、有機ELモニタでも構わない。
As the image sensor, a CCD (Charge Coupled Device) image sensor, a CMOS (Complementary Metal Oxide Semiconductor) image sensor, or the like is used.
In addition, as the memory 6, for example, a commonly used memory such as a video random access memory (VRAM), a static random access memory (SRAM), a dynamic random access memory (DRAM), or a synchronous DRAM (SDRAM) is used. used.
As the recording medium 28, for example, an internal recording medium built in the imaging apparatus 1 such as a flash memory, or an external recording medium that can be freely attached to and detached from the imaging apparatus 1 such as an SD memory card or a Memory Stick (registered trademark). used.
The LCD monitor 14 may be an organic EL monitor.

操作部32が操作され、撮影モードが選択されると、CPU30は、スルー画像(プレビュー画像とも言う。)処理を実行するべく、プリ露光動作及び間引き読み出し動作の繰り返しを撮像部2に命令する。撮像部2は、フレーム周期で、撮像素子の受光面にプリ露光を施すと共に、撮像素子の受光面に結像された撮影領域の光学像を表す電荷を光電変換によって生成する。生成された電荷の一部をラスタ走査態様で受光面から読み出す。この結果、撮影領域を表すアナログ画像信号がフレーム周期で撮像部2から出力される。   When the operation unit 32 is operated and the photographing mode is selected, the CPU 30 instructs the imaging unit 2 to repeat the pre-exposure operation and the thinning-out reading operation in order to execute a through image (also referred to as a preview image) process. The imaging unit 2 performs pre-exposure on the light receiving surface of the image sensor at a frame period, and generates a charge representing an optical image of the imaging region imaged on the light receiving surface of the image sensor by photoelectric conversion. A part of the generated charge is read from the light receiving surface in a raster scanning manner. As a result, an analog image signal representing the imaging region is output from the imaging unit 2 at a frame period.

A/D変換部4は、撮像部2から出力されたアナログ画像信号に対して、A/D変換処理を施す。A/D変換処理によって生成されたフレーム画像信号は、メモリ制御部8を介してメモリ6のワークエリア6c(図2参照)に書き込まれる。信号処理部10は、ワークエリア6cに書き込まれたフレーム画像信号をメモリ制御部8を介して読み出し、読み出したデジタル画像信号にホワイトバランス調整、色同時化処理などを施し、メモリ制御8を介してワークエリア6cに書き込む。LCDドライバ16は、ワークエリア6cに書き込まれたフレーム画像信号を読み出し、読み出されたフレーム画像信号に基づいてLCDモニタ14を駆動する。その結果、撮影領域を表すスルー画像がLCDモニタ14に表示される。   The A / D conversion unit 4 performs A / D conversion processing on the analog image signal output from the imaging unit 2. The frame image signal generated by the A / D conversion process is written into the work area 6c (see FIG. 2) of the memory 6 via the memory control unit 8. The signal processing unit 10 reads out the frame image signal written in the work area 6 c via the memory control unit 8, performs white balance adjustment, color synchronization processing, etc. on the read digital image signal, and passes through the memory control 8. Write to work area 6c. The LCD driver 16 reads the frame image signal written in the work area 6c, and drives the LCD monitor 14 based on the read frame image signal. As a result, a through image representing the shooting area is displayed on the LCD monitor 14.

操作部32から動画撮影の操作がなされると、撮像装置1は動画撮影を開始する。CPU30は、アナログ画像信号出力の一連の動作を実行することを撮像部2に命令する。撮像部2は、撮像素子の受光面に本露光を施すと共に、撮像素子に結像された撮影領域の光学像を表す電荷を光電変換によって生成し、生成された電荷をラスタ走査態様で読み出す。この結果、撮影領域を表す高解像度のアナログ画像信号が撮像部2から出力される。   When a moving image shooting operation is performed from the operation unit 32, the imaging apparatus 1 starts moving image shooting. The CPU 30 commands the imaging unit 2 to execute a series of operations for outputting an analog image signal. The imaging unit 2 performs main exposure on the light receiving surface of the imaging device, generates charges representing an optical image of the imaging region imaged on the imaging device by photoelectric conversion, and reads the generated charges in a raster scanning manner. As a result, a high-resolution analog image signal representing the imaging region is output from the imaging unit 2.

撮像部2から順次出力されるアナログ画像信号は、A/D変換部4、信号処理部10によって上述と同様の信号処理を施され、フレーム画像信号に変換される。変換されたフレーム画像信号は、メモリ制御部8を介してワークエリア6cに書き込まれる。
また、CPU30は、操作部32の撮影操作に応答して圧縮命令及び記録命令を画像コーデック部12及びI/F回路26にそれぞれ与える。画像コーデック部12は、ワークエリア6cに書き込まれたフレーム画像信号をメモリ制御部8を介して読み出し、読み出したフレーム画像信号に、例えば、MPEG等の圧縮符号化処理を施し、圧縮されたフレーム画像信号をメモリ制御部8を介してワークエリア6cに書き込む。
I/F回路26は、メモリ制御部8を介してワークエリア6cに書き込まれた圧縮フレーム画像信号を読み出し、記録媒体28に記録する。
Analog image signals sequentially output from the imaging unit 2 are subjected to signal processing similar to that described above by the A / D conversion unit 4 and the signal processing unit 10 and converted into frame image signals. The converted frame image signal is written into the work area 6 c via the memory control unit 8.
In addition, the CPU 30 gives a compression command and a recording command to the image codec unit 12 and the I / F circuit 26 in response to the photographing operation of the operation unit 32. The image codec unit 12 reads out the frame image signal written in the work area 6c via the memory control unit 8, and performs a compression encoding process such as MPEG on the read frame image signal, thereby compressing the frame image signal. The signal is written into the work area 6c via the memory control unit 8.
The I / F circuit 26 reads the compressed frame image signal written in the work area 6 c via the memory control unit 8 and records it on the recording medium 28.

撮像装置1は、上記処理を繰り返し、複数のフレーム画像信号から1つの動画像信号(以下、動画像とも記載する。)を生成し、記録することで動画撮影を行う。   The imaging apparatus 1 repeats the above process, generates a single moving image signal (hereinafter also referred to as a moving image) from a plurality of frame image signals, and records a moving image.

操作部32から撮影終了の操作がなされると、撮像装置1は、動画撮影を終了し、
撮影開始から撮影終了までに記録された動画像信号を動画ファイルとして保存する。
When an operation for ending the shooting is performed from the operation unit 32, the imaging device 1 ends the video shooting,
The moving image signal recorded from the start of shooting to the end of shooting is saved as a moving image file.

操作部32が操作され、再生モードが選択され、且つ所望の動画ファイルが指定されると、CPU30は、I/F回路26及び画像コーデック部12に再生命令及び伸張命令をそれぞれ与える。   When the operation unit 32 is operated, the reproduction mode is selected, and a desired moving image file is designated, the CPU 30 gives a reproduction command and an expansion command to the I / F circuit 26 and the image codec unit 12, respectively.

I/F回路26は、指定された動画ファイルに含まれる動画像を記録媒体28から読み出し、読み出された動画像をメモリ制御部8を介してメモリに書き込む。画像コーデック部12は、メモリに格納された動画像をメモリ制御部8を介して読み出し、読み出された動画像に伸張処理を施し、伸張された動画像をメモリ制御部8を介してメモリ6のワークエリア6cに書き込む。
LCDドライバ16は、メモリ6に格納された動画像データをメモリ制御部8を介して順次読み出し、読み出された動画像に基づいてLCDモニタ14を駆動する。この結果、動画像がLCDモニタ14に表示される。
The I / F circuit 26 reads the moving image included in the designated moving image file from the recording medium 28 and writes the read moving image to the memory via the memory control unit 8. The image codec unit 12 reads out the moving image stored in the memory via the memory control unit 8, performs an expansion process on the read out moving image, and reads the expanded moving image through the memory control unit 8. Is written in the work area 6c.
The LCD driver 16 sequentially reads the moving image data stored in the memory 6 via the memory control unit 8 and drives the LCD monitor 14 based on the read moving image. As a result, a moving image is displayed on the LCD monitor 14.

操作部32が操作され、動画更新操作がなされると、CPU30は、I/F回路26及び画像コーデック部12に再生命令及び伸張命令をそれぞれ与える。この結果、次の動画ファイルの動画像がLCDモニタ14に表示される。   When the operation unit 32 is operated and a moving image update operation is performed, the CPU 30 gives a reproduction command and an expansion command to the I / F circuit 26 and the image codec unit 12, respectively. As a result, the moving image of the next moving image file is displayed on the LCD monitor 14.

撮像装置1は、「撮影中に、所定時間以上動画像に含まれている被写体の特徴情報及び該被写体に関する時間情報を取得し、該被写体の顔画像、該特徴情報、該時間情報、及び該動画像のファイル名とを関連付けて記録する。」関連付け機能を備えている。ここで、被写体の特徴情報はフレーム画像中における被写体の位置や大きさ、目、鼻、耳、口などの位置や大きさなどであり、被写体に関する時間情報は、例えば、最初に被写体を検出したフレーム画像のフレーム番号、該フレーム番号からの経過フレーム数などである。   The imaging apparatus 1 acquires “feature information included in a moving image for a predetermined time or more during shooting and time information related to the subject, and captures the face image of the subject, the feature information, the time information, and the The file name of the moving image is recorded in association with each other. Here, the feature information of the subject is the position and size of the subject in the frame image, the position and size of the eyes, nose, ears, mouth, etc., and the time information about the subject is, for example, the first subject detected The frame number of the frame image, the number of elapsed frames from the frame number, and the like.

関連付け機能は、例えば、次のようにして実現される。図3は撮像装置1が取得したフレーム画像を示している。図3では、フレーム画像に人物である被写体Aと被写体Bが含まれている。CPU30は、被写体検出部18に被写体検出の命令を与える。被写体検出部18は取得したフレーム画像に対して、顔検出処理を行う。
顔検出は、例えば、次のようにして実現される。被写体検出部18に予め一般的な顔の特徴(顔の輪郭、顔の色、目、鼻、耳、髪などの特徴)を記録しておき、取得したフレーム画像から、その特徴と合致する部分があるか否かを走査する。走査の結果顔の特徴と合致する領域があった場合、フレーム画像に顔が含まれると判断する。尚、この顔検出処理は上述した手法を用いることで犬や猫などの動物の顔についても応用可能である。本実施例では、被写体が人物である場合について記載する。
The association function is realized as follows, for example. FIG. 3 shows a frame image acquired by the imaging apparatus 1. In FIG. 3, subject A and subject B, which are persons, are included in the frame image. The CPU 30 gives a subject detection command to the subject detection unit 18. The subject detection unit 18 performs face detection processing on the acquired frame image.
Face detection is realized as follows, for example. General facial features (features such as face outline, facial color, eyes, nose, ears, hair, etc.) are recorded in advance in the subject detection unit 18, and a portion that matches the features from the acquired frame image Scan whether there is any. If there is an area that matches the facial feature as a result of scanning, it is determined that the face is included in the frame image. This face detection process can also be applied to the faces of animals such as dogs and cats by using the method described above. In this embodiment, a case where the subject is a person will be described.

被写体検出部18は、フレーム画像内に顔を検出すると、該顔を囲う顔枠を生成する。図3のフレーム画像には、被写体A及び被写体Bが存在するため、被写体Aの顔を囲う顔枠KA、被写体Bの顔を囲う顔枠KBがそれぞれ生成される。被写体検出部18は、各被写体の特徴情報を導出し、当該フレーム画像のヘッダに書き込む。   When the subject detection unit 18 detects a face in the frame image, the subject detection unit 18 generates a face frame surrounding the face. Since the subject A and the subject B exist in the frame image of FIG. 3, a face frame KA surrounding the face of the subject A and a face frame KB surrounding the face of the subject B are generated. The subject detection unit 18 derives feature information of each subject and writes it in the header of the frame image.

被写体同定処理部20は、検出された被写体が1フレーム前のフレーム画像(以下、前フレーム画像と記載する。)にも含まれていたか否かを判別する被写体同定処理を行う。現フレーム画像で検出された被写体が前フレーム画像に含まれていたか否かを判断するには、例えば、顔枠のサイズに基づき、被写体の上半身に相当する大きさの矩形枠を顔枠の下方向であって上半身が存在すると考えられる位置に生成し、該矩形枠内の色味(例えば、服装の色)を検出するとともに、検出された色味が前フレーム画像で検出された被写体の上半身の色味と略同一であれば、同一人物であるとする被写体同定手法や前のフレーム画像で生成された顔枠に対応する現フレーム画像で生成された顔枠との中心間の距離を導出し、該距離が所定の閾値以下であれば同一被写体であると判断する被写体同定手法などを用いる。尚、被写体が検出されたフレーム画像が、1フレーム目のフレーム画像である場合、前フレーム画像は存在しないため、被写体同定処理は行わない。   The subject identification processing unit 20 performs subject identification processing for determining whether or not the detected subject is also included in a frame image one frame before (hereinafter referred to as a previous frame image). In order to determine whether or not the subject detected in the current frame image is included in the previous frame image, for example, based on the size of the face frame, a rectangular frame having a size corresponding to the upper body of the subject is placed below the face frame. It is generated at a position where the upper body is considered to be in the direction, the color within the rectangular frame (for example, the color of clothing) is detected, and the upper body of the subject whose detected color is detected in the previous frame image If it is almost the same as the color of the subject, the distance between the center of the face frame generated with the current frame image corresponding to the face frame generated with the subject identification method or the previous frame image is derived as the same person If the distance is equal to or smaller than a predetermined threshold, a subject identification method that determines that the subject is the same is used. If the frame image in which the subject is detected is the first frame image, the previous frame image does not exist, and thus the subject identification process is not performed.

被写体同定処理の結果、前フレーム画像で検出された被写体と現フレーム画像で検出された被写体が同一被写体でないと判断された場合、生成された顔枠に囲まれた領域の画像を現フレーム画像から切り出し、導出した特徴情報と共にメモリ6の被写体情報保持部6aに書き込む。時間情報取得部22は、検出した被写体に関する時間情報を取得し、メモリ6の時間情報保持部6bに書き込む。尚、最初に被写体を検出した段階では、当該フレーム画像のフレーム番号と該フレーム番号からの経過フレーム数として「0」を書き込む。   As a result of subject identification processing, if it is determined that the subject detected in the previous frame image and the subject detected in the current frame image are not the same subject, an image of the area surrounded by the generated face frame is extracted from the current frame image. The extracted and derived feature information is written together with the subject information holding unit 6a of the memory 6. The time information acquisition unit 22 acquires time information regarding the detected subject and writes it in the time information holding unit 6 b of the memory 6. At the stage where the subject is detected for the first time, “0” is written as the frame number of the frame image and the number of elapsed frames from the frame number.

現フレーム画像で検出された被写体と前フレームで検出された被写体とが同一人物であると判断された場合は、顔枠に囲われた領域の画像の切り出しは行わず、時間情報保持部6bに保持されている該被写体に関する時間情報のうち該被写体が最初に検出されてからの経過フレーム数を更新する。   If it is determined that the subject detected in the current frame image and the subject detected in the previous frame are the same person, the image of the area surrounded by the face frame is not cut out, and the time information holding unit 6b The number of frames that have elapsed since the subject was first detected among the time information about the subject that is held is updated.

また、被写体同定処理部20は、前フレーム画像で検出された被写体が現フレーム画像で検出されなかった場合、該被写体がフレームアウトしたと判断する。被写体がフレームアウトすると、時間情報取得部22部は、該被写体が撮影中の動画像に途切れることなく継続して含まれていた時間を導出する。該時間の導出は、例えば、被写体がフレームアウトしたと判断されたフレーム画像のフレーム番号と最初に該被写体が検出されたフレーム画像のフレーム番号の差分から導出する。導出された時間と所定の閾値との比較を行い、該時間<閾値であれば、メモリ6に保持されている前記被写体の顔画像、特徴情報及び時間情報を削除する。該時間≧閾値であった場合、関連付け処理部24は、被写体の顔画像、特徴情報、時間情報、及び撮影中の動画ファイルの名称を関連付けて、記録媒体28に保存する。   In addition, when the subject detected in the previous frame image is not detected in the current frame image, the subject identification processing unit 20 determines that the subject is out of frame. When the subject is out of frame, the time information acquisition unit 22 derives the time during which the subject was continuously included in the moving image being shot. The time is derived, for example, from the difference between the frame number of the frame image in which the subject is determined to be out of frame and the frame number of the frame image in which the subject is first detected. The derived time is compared with a predetermined threshold, and if the time <threshold, the face image, feature information, and time information of the subject held in the memory 6 are deleted. If the time is greater than or equal to the threshold, the association processing unit 24 associates the face image of the subject, the feature information, the time information, and the name of the moving image file being photographed and stores them in the recording medium 28.

図4は関連付け処理部24の内部構成を示している。関連付け処理部24は、人物照合部24a、情報登録部24bを備えている。
図5は記録媒体28のディレクトリ構造の一例を示している。図5に示す例では、生成された動画ファイルは動画ディレクトリに記録される。切り出された被写体の顔画像は、画像コーデック部12により圧縮されるとともに当該圧縮された顔画像のヘッダ領域に特徴情報が書き込まれ、画像ファイルとして被写体画像ディレクトリに記録される。被写体に関する時間情報は、管理情報ディレクトリに生成される管理テーブルに書き込まれる。
FIG. 4 shows the internal configuration of the association processing unit 24. The association processing unit 24 includes a person verification unit 24a and an information registration unit 24b.
FIG. 5 shows an example of the directory structure of the recording medium 28. In the example shown in FIG. 5, the generated moving image file is recorded in the moving image directory. The extracted face image of the subject is compressed by the image codec unit 12, and feature information is written in the header area of the compressed face image, and is recorded in the subject image directory as an image file. Time information about the subject is written in a management table generated in the management information directory.

図6は、管理情報ディレクトリに記録されている被写体に関する時間情報の一例を示している。時間情報は、例えば、図6に示すような管理テーブルで管理される。管理テーブルは被写体画像ディレクトリに記録されている被写体ごとに作成される。管理テーブルの行項目は動画ファイル名、列項目はシーンIDで構成される。シーンIDは、同一動画ファイルにおいて、被写体が所定時間以上含まれるシーンが複数回ある場合に各シーンを個別に識別するための識別子であり、時間的に早いシーンから順にID1,2,・・・M(Mは正の整数)と割り当てられる。そして、シーンID1,2,・・・Mに対応するセルに時間帯が記録される。これにより、当該被写体がいずれの動画ファイルのいずれの時間帯に含まれているかが管理される。尚、時間帯は、時間情報に基づき導出され、具体的には、最初に被写体が検出されたフレーム画像のフレーム番号と該フレーム画像からの経過フレーム画像数に基づき導出される。例えば、最初に被写体が検出されたフレーム画像のフレーム番号が「1」で、経過フレーム画像数が「99」であった場合、フレーム番号が1のフレーム画像から、フレーム番号が1+99=100のフレーム画像までに当該被写体が含まれていることを意味する。この場合、管理テーブルの当該セルには時間帯として「1〜100」が書き込まれる。例えば、図6(A)に示すように、被写体Aが動画2においてフレーム番号2000〜5000のまでのフレーム画像、及びフレーム番号10000〜15000のまでのフレーム画像の2つのシーンに含まれている場合、シーンID1に対応するセルに時間帯「2000〜5000」が、シーンID2に対応するセルに時間帯「10000〜15000」が書き込まれる。   FIG. 6 shows an example of time information related to the subject recorded in the management information directory. The time information is managed by, for example, a management table as shown in FIG. A management table is created for each subject recorded in the subject image directory. The row items of the management table are composed of moving image file names, and the column items are composed of scene IDs. The scene ID is an identifier for individually identifying each scene when there are a plurality of scenes in which the subject is included for a predetermined time or more in the same moving image file. IDs 1, 2,... M (M is a positive integer) is assigned. Then, the time zone is recorded in the cells corresponding to the scene IDs 1, 2,. Thus, it is managed in which time zone of which moving image file the subject is included. The time zone is derived based on the time information. Specifically, the time zone is derived based on the frame number of the frame image in which the subject is first detected and the number of elapsed frame images from the frame image. For example, when the frame number of the first frame image in which the subject is detected is “1” and the number of elapsed frame images is “99”, the frame number is 1 + 99 = 100 from the frame image with the frame number 1. This means that the subject is included in the image. In this case, “1 to 100” is written as the time zone in the cell of the management table. For example, as shown in FIG. 6A, the subject A is included in two scenes of the frame image of frame number 2000 to 5000 and the frame image of frame number 10000 to 15000 in the moving image 2. The time zone “2000-5000” is written in the cell corresponding to the scene ID1, and the time zone “10000-15000” is written in the cell corresponding to the scene ID2.

関連付け処理部24は、撮影中の動画像に所定時間以上含まれている被写体が、過去に管理情報ディレクトリの管理テーブルに記録されているか否かを判断する人物照合を行う。
今、管理情報ディレクトリに図6の被写体Aに関する管理テーブル(以下、管理テーブルAと記載する。)及び被写体Bに関する管理テーブル(以下、管理テーブルBと記載する。)が生成されているとし、撮影中の動画像において所定時間以上含まれる被写体が新たに検出されたとする(以下、当該被写体を検出被写体と記載する)。
The association processing unit 24 performs person verification to determine whether or not a subject included in a moving image being shot for a predetermined time or longer has been recorded in the management table of the management information directory in the past.
Now, it is assumed that a management table related to the subject A (hereinafter referred to as management table A) and a management table related to the subject B (hereinafter referred to as management table B) in FIG. It is assumed that a subject included in the middle moving image for a predetermined time or more is newly detected (hereinafter, the subject is referred to as a detected subject).

人物照合部26aは、記録媒体28の管理情報ディレクトリに保存されている管理テーブルAを参照し、検出被写体が被写体Aと同一人物か否かを判断する。具体的には、人物照合部26aは、管理テーブルAに関連づけられて記録媒体28の被写体画像ディレクトリに格納されている被写体Aの画像ファイル中の特徴情報と検出被写体の特徴情報とを比較する。次に、管理テーブルAに書き込まれている動画ファイル「動画1」を動画ディレクトリから読出し、そのフレーム番号1〜1000までのフレーム画像のヘッダ領域に記録されている被写体Aの特徴情報と検出被写体の特徴情報とを比較する。尚、検出被写体の特徴情報としては、メモリ6の被写体情報保持部6aに検出被写体の顔画像と共に格納されている特徴情報を採用することができる。   The person verification unit 26a refers to the management table A stored in the management information directory of the recording medium 28, and determines whether or not the detected subject is the same person as the subject A. Specifically, the person verification unit 26a compares the feature information in the image file of the subject A stored in the subject image directory of the recording medium 28 in association with the management table A with the feature information of the detected subject. Next, the moving image file “moving image 1” written in the management table A is read from the moving image directory, and the feature information of the subject A recorded in the header area of the frame images from the frame numbers 1 to 1000 and the detected subject. Compare with feature information. As the feature information of the detected subject, feature information stored in the subject information holding unit 6a of the memory 6 together with the face image of the detected subject can be employed.

人物照合部26aは、同様にして「動画2」のフレーム番号2000〜5000まで及びフレーム番号10000〜15000までのフレーム画像のヘッダ領域に記録されている被写体Aの特徴情報、・・・並びに「動画N」フレーム番号1〜2500までのフレーム画像のヘッダ領域に記録されている被写体Aの特徴情報と検出被写体の特徴情報とを比較する。
比較の結果、検出被写体と被写体Aが同一であると判断された場合には、情報登録部24bが、該フレーム画像に含まれる当該被写体の管理テーブルAに撮影中の動画ファイル名及び検出被写体に関する時間情報を追記し、メモリ6に一時的に格納されている検出被写体の顔画像及び特徴情報、並びに時間情報を削除する。
比較の結果、検出被写体と被写体Aが同一でないと判断された場合には、人物照合部26a及び情報登録部24bは、管理テーブルBについて同様の処理を行なう。
Similarly, the person collating unit 26a performs the feature information of the subject A recorded in the header areas of the frame images of the frame number 2000 to 5000 and the frame numbers 10000 to 15000 of “Movie 2”,. N ”The feature information of the subject A recorded in the header area of the frame images from frame numbers 1 to 2500 is compared with the feature information of the detected subject.
As a result of the comparison, when it is determined that the detected subject and the subject A are the same, the information registration unit 24b relates to the name of the moving image file being captured and the detected subject in the subject management table A included in the frame image. The time information is additionally written, and the face image and feature information of the detected subject and the time information temporarily stored in the memory 6 are deleted.
As a result of the comparison, when it is determined that the detected subject and the subject A are not the same, the person verification unit 26a and the information registration unit 24b perform the same processing on the management table B.

検出被写体が被写体A及びBと同一でないと判断された場合は、情報登録部24bは、検出被写体の画像ファイルを生成し、記録媒体28の被写体画像ディレクトリに記録するとともに、検出被写体の管理テーブルを新規作成し、該管理テーブルに動画ファイル名及び時間情報を書き込み、検出被写体の顔画像ファイルと関連付けて、管理情報ディレクトリに格納する。尚、顔画像ファイルと管理テーブルの関連付けは、例えば、両者に同一のユニークな識別記号を付与することにより実現することができる。この結果、撮影中の動画像に所定時間以上含まれる被写体の顔画像、特徴情報、時間情報、及び動画ファイル名とが関連付けて記録される。尚、過去に動画撮影を行ったことが無い場合(換言すると、記録媒体28の動画ディレクトリに他の動画ファイルが記録されていない場合)、被写体画像ディレクトリ及び管理情報ディレクトリにデータが存在しない場合は、人物照合処理は行われない。   When it is determined that the detected subject is not the same as the subjects A and B, the information registration unit 24b generates an image file of the detected subject, records it in the subject image directory of the recording medium 28, and creates a detected subject management table. A new file is created, the moving image file name and time information are written in the management table, and the information is stored in the management information directory in association with the face image file of the detected subject. The association between the face image file and the management table can be realized, for example, by assigning the same unique identification symbol to both. As a result, the face image, feature information, time information, and moving image file name of the subject included in the moving image being shot for a predetermined time or more are recorded in association with each other. In the case where no moving image has been shot in the past (in other words, when no other moving image file is recorded in the moving image directory of the recording medium 28), there is no data in the subject image directory and the management information directory. No person verification process is performed.

撮像装置1は、「動画像に所定時間以上含まれている被写体のシーンを再生する。」注目被写体再生機能を備えている。注目被写体再生機能は、例えば、次のようにして実現される。   The imaging apparatus 1 has a subject reproduction function of “reproduce a scene of a subject included in a moving image for a predetermined time or more”. The attention subject reproduction function is realized as follows, for example.

図7は、注目被写体再生モードが選択された場合のLCDモニタ14の表示の一例を示している。操作部32において、注目被写体再生モードの操作がなされると、CPU30は、I/F回路26及び画像コーデック部12に被写体情報の再生命令を及び伸張命令を与える。I/F回路26は、記録媒体28の被写体画像ディレクトリに記録されている全ての被写体の顔画像ファイルを読み出し、メモリ6のワークエリア6cに書き込む。画像コーデック部12はワークエリア6cに書き込まれた顔画像に伸張処理を施す。LCDドライバ16は伸張処理を施した顔画像をメモリ制御部8を介して読み出し、LCDモニタ14を駆動する。その結果LCDモニタ14の領域14aに表示する。カーソルCUが操作され、所望の被写体の顔画像が選択されると、CPU30は、該顔画像と関連付けられている管理テーブルを読み出し、該管理テーブルに記録されている時間帯に基づき対応する動画ファイルから前記被写体が含まれているシーンの先頭のフレーム画像(例えば、当該シーンの時間帯がフレーム番号100〜1000である場合、フレーム番号100のフレーム画像に相当する。)の再生命令及び伸張命令をI/F回路26及び画像コーデック部12に与える。I/F回路26は記録媒体28の動画ファイルディレクトリから当該フレーム画像を読み出し、メモリ制御部8を介してメモリ6のワークエリア6cに書き込む。画像コーデック部12はワークエリア6cに書き込まれたフレーム画像に伸張処理を施す。CPU30は、伸張処理を施したフレーム画像に基づきサムネイル画像を生成し、LCDドライバ16は、該サムネイル画像をメモリ制御部8を介して読み出し、LCDモニタ14を駆動する。その結果、LCDモニタ14の領域14bに該フレーム画像がサムネイル表示される。表示されたサムネイル画像から所望の動画ファイルが選択されると、時間帯に基づき、上述した要領で、被写体が含まれるフレーム画像のみが再生される。   FIG. 7 shows an example of the display on the LCD monitor 14 when the attention subject reproduction mode is selected. When the operation unit 32 is operated in the subject reproduction mode, the CPU 30 gives a subject information reproduction command and an expansion command to the I / F circuit 26 and the image codec unit 12. The I / F circuit 26 reads the face image files of all the subjects recorded in the subject image directory of the recording medium 28 and writes them in the work area 6 c of the memory 6. The image codec unit 12 performs a decompression process on the face image written in the work area 6c. The LCD driver 16 reads the face image subjected to the decompression process via the memory control unit 8 and drives the LCD monitor 14. As a result, it is displayed in the area 14a of the LCD monitor 14. When the cursor CU is operated and a face image of a desired subject is selected, the CPU 30 reads a management table associated with the face image, and a corresponding moving image file based on the time zone recorded in the management table From the beginning frame image of the scene including the subject (for example, when the time zone of the scene is frame number 100 to 1000, it corresponds to the frame image of frame number 100) This is given to the I / F circuit 26 and the image codec unit 12. The I / F circuit 26 reads the frame image from the moving image file directory of the recording medium 28 and writes it to the work area 6 c of the memory 6 via the memory control unit 8. The image codec unit 12 performs an expansion process on the frame image written in the work area 6c. The CPU 30 generates a thumbnail image based on the decompressed frame image, and the LCD driver 16 reads the thumbnail image via the memory control unit 8 and drives the LCD monitor 14. As a result, the frame image is displayed as a thumbnail in the area 14 b of the LCD monitor 14. When a desired moving image file is selected from the displayed thumbnail images, only the frame image including the subject is reproduced in the manner described above based on the time zone.

図8及び図9は、本実施例における撮像装置1の撮像動作を示すフローチャートである。   8 and 9 are flowcharts illustrating the imaging operation of the imaging apparatus 1 in the present embodiment.

ステップS100では、撮像部2からフレーム周期でプレビュー画像用の画像信号を取得し、A/D変換部4を経てメモリ6に格納する。ステップS102では、信号処理部10が、メモリ6に格納されたフレーム画像信号にホワイトバランス調整、色同時化処理などの信号処理を施す。ステップS104では、LCDドライバ16がLCDモニタ14を駆動し、信号処理部10から出力されるフレーム画像信号に基づくプレビュー画像を表示する。   In step S <b> 100, an image signal for a preview image is acquired from the imaging unit 2 at a frame period, and stored in the memory 6 via the A / D conversion unit 4. In step S <b> 102, the signal processing unit 10 performs signal processing such as white balance adjustment and color synchronization processing on the frame image signal stored in the memory 6. In step S <b> 104, the LCD driver 16 drives the LCD monitor 14 and displays a preview image based on the frame image signal output from the signal processing unit 10.

ステップS106では、撮影を開始するか否かを判別する。撮影を開始する場合はステップS108に進み、そうでない場合はステップS100に戻る。   In step S106, it is determined whether or not to start shooting. When shooting is started, the process proceeds to step S108; otherwise, the process returns to step S100.

ステップS108では、撮像部2からフレーム周期で画像記録用のアナログ画像信号を取得し、A/D変換部4を経てメモリ6に格納する。ステップS110では、信号処理部10は、メモリ6に格納された画像記録用のフレーム画像信号にホワイトバランス調整、色同時化処理などの信号処理を施す。   In step S <b> 108, an analog image signal for image recording is acquired from the imaging unit 2 at a frame period, and is stored in the memory 6 via the A / D conversion unit 4. In step S110, the signal processing unit 10 performs signal processing such as white balance adjustment and color synchronization processing on the frame image signal for image recording stored in the memory 6.

ステップS112では、取得したフレーム画像信号に対して顔検出を行う。顔が検出された場合はステップS114に進み、そうでない場合はステップS126に進む。ステップS114では、ステップS112で検出した顔を囲う顔枠を生成し、該顔の特徴情報を導出し、ステップS116では、ステップS114で導出した顔の特徴情報をフレーム画像のヘッダに書き込む。   In step S112, face detection is performed on the acquired frame image signal. If a face is detected, the process proceeds to step S114. If not, the process proceeds to step S126. In step S114, a face frame surrounding the face detected in step S112 is generated, and the face feature information is derived. In step S116, the face feature information derived in step S114 is written in the header of the frame image.

ステップS118では、被写体同定を行う。取得したフレーム画像から検出された顔が、1フレーム前のフレーム画像に含まれているか否かを判断する。前記被写体が1フレーム前のフレーム画像に含まれている場合はステップS124に進み、そうでない場合はステップS120に進む。   In step S118, subject identification is performed. It is determined whether or not a face detected from the acquired frame image is included in the previous frame image. If the subject is included in the frame image one frame before, the process proceeds to step S124, and if not, the process proceeds to step S120.

ステップS120では、ステップS114で生成した、顔枠に囲まれた顔画像を切り出し、特徴情報と共にメモリ6に書き込み、ステップS122では、ステップS120でメモリ6に書き込んだ被写体の時間情報をメモリ6に書き込む。また、ステップS124では、時間情報の更新を行う。   In step S120, the face image surrounded by the face frame generated in step S114 is cut out and written in the memory 6 together with the feature information. In step S122, the time information of the subject written in the memory 6 in step S120 is written in the memory 6. . In step S124, the time information is updated.

ステップS126では、被写体が撮影領域からフレームアウトしたか否かを判別する。1フレーム前のフレーム画像において検出された被写体が、取得したフレーム画像から検出されなければ、被写体がフレームアウトしたと判断する。被写体がフレームアウトした場合はステップS128に進み、そうでない場合はステップS134に進む。   In step S126, it is determined whether or not the subject is out of frame from the shooting area. If the subject detected in the previous frame image is not detected from the acquired frame image, it is determined that the subject is out of frame. If the subject is out of frame, the process proceeds to step S128; otherwise, the process proceeds to step S134.

ステップS128では、フレームアウトした被写体が所定時間以上動画像に含まれていたか否かを判別する。時間情報に基づき、被写体が含まれていた時間を導出し、該時間と所定の閾値と比較を行い、該時間≧閾値であれば、所定時間以上動画像に含まれていたと判断する。被写体が所定時間以上動画像に含まれていた場合はステップS132に進み、そうでない場合はステップS130に進む。   In step S128, it is determined whether or not the moving-out subject has been included in the moving image for a predetermined time or more. Based on the time information, the time when the subject was included is derived, and the time is compared with a predetermined threshold. If the time is equal to or greater than the threshold, it is determined that the moving image is included in the moving image for a predetermined time or more. If the subject is included in the moving image for a predetermined time or more, the process proceeds to step S132, and if not, the process proceeds to step S130.

ステップS130では、メモリ6に記録されていたフレームアウトした被写体の顔画像、特徴情報、及び時間情報を削除する。   In step S130, the face image, feature information, and time information of the frame-out subject recorded in the memory 6 are deleted.

ステップS132では、被写体と時間情報との関連付けを行い、記録媒体28に記録し、ステップS134では、フレーム画像を記録媒体28に保存する。ステップS136では、撮影が終了されたか否かを判別する。撮影が終了された場合はフレーム画像の記録処理を停止し、撮影モードを終了する。そうでない場合はステップS108に戻る。   In step S132, the subject is associated with the time information and recorded on the recording medium 28. In step S134, the frame image is stored in the recording medium 28. In step S136, it is determined whether or not shooting has been completed. When the photographing is finished, the frame image recording process is stopped and the photographing mode is finished. Otherwise, the process returns to step S108.

図10は、ステップS132の関連付け処理の動作を示すフローチャートである。関連付け処理は、次のサブルーチンに従って実行される。   FIG. 10 is a flowchart showing the operation of the association process in step S132. The association process is executed according to the following subroutine.

ステップS200では、被写体画像ディレクトリに記録されている被写体があるか否かを判別する。被写体画像ディレクトリに記録されている被写体がある場合はステップS202に進み、そうでない場合はステップS206に進む。   In step S200, it is determined whether there is a subject recorded in the subject image directory. If there is a subject recorded in the subject image directory, the process proceeds to step S202. If not, the process proceeds to step S206.

ステップS202では、メモリ6に記録されている顔画像と被写体画像ディレクトリに登録されている被写体が含まれる全フレーム画像とを比較し、メモリ6に記録されている顔画像と同一被写体が被写体画像ディレクトリに記録されているか否かを判別する。メモリ6に記録されている顔画像と同一被写体が既に被写体画像ディレクトリに記録されている場合はステップS204に進み、そうでない場合はステップS208に進む。   In step S202, the face image recorded in the memory 6 is compared with all frame images including the subject registered in the subject image directory, and the same subject as the face image recorded in the memory 6 is found in the subject image directory. It is discriminated whether or not it is recorded. If the same subject as the face image recorded in the memory 6 has already been recorded in the subject image directory, the process proceeds to step S204. If not, the process proceeds to step S208.

ステップS204では、メモリ6に記録されている顔画像及び特徴情報を削除する。   In step S204, the face image and feature information recorded in the memory 6 are deleted.

ステップS206では、ステップS202で顔画像と同一被写体であると判断された被写体に対応する管理テーブルを読み出し、該管理テーブルに動画ファイル名及びメモリ6に記録されている時間情報から導出した時間帯を追記する。   In step S206, the management table corresponding to the subject determined to be the same subject as the face image in step S202 is read, and the time zone derived from the moving image file name and the time information recorded in the memory 6 is read in the management table. Append.

ステップS208では、メモリ6に保存されている顔画像のヘッダに、特徴情報を書き込む。ステップS210では、ステップS208で特徴情報を書き込んだ顔画像に対応する管理テーブルを新規作成し、識別子を付与する。そして、当該管理テーブルに動画ファイル名及び時間情報を記録する。ステップS210では、ステップS206で作成した顔画像のヘッダ領域にステップS208で作成した管理テーブルの識別子を書き込む。そして、当該顔画像及び当該管理テーブルをそれぞれ被写体画像ディレクトリ及び管理情報ディレクトリに記録する。   In step S208, feature information is written in the header of the face image stored in the memory 6. In step S210, a management table corresponding to the face image in which the feature information is written in step S208 is newly created, and an identifier is assigned. Then, the moving image file name and time information are recorded in the management table. In step S210, the identifier of the management table created in step S208 is written in the header area of the face image created in step S206. Then, the face image and the management table are recorded in the subject image directory and the management information directory, respectively.

図11は、注目被写体再生モードの処理動作を示すフローチャートである。   FIG. 11 is a flowchart showing the processing operation in the noticeable subject reproduction mode.

ステップS300では、被写体画像ディレクトリに記録されている全顔画像を読み出し、LCDモニタ14にリスト表示する。   In step S300, all face images recorded in the subject image directory are read and displayed on the LCD monitor 14 as a list.

ステップS302では、被写体が選択されたか否かを判別する。被写体が選択された場合はステップS304に進み、そうでない場合は、ステップS302を繰り返す。   In step S302, it is determined whether or not a subject has been selected. If a subject has been selected, the process proceeds to step S304, and if not, step S302 is repeated.

ステップS304では、ステップS302において選択された顔画像に対応する管理テーブルを読み出し、該管理テーブルに記録されている時間情報に基づき該顔画像に対応する被写体が写っている各シーンの先頭のフレーム画像をLCD14にサムネイル表示する。   In step S304, the management table corresponding to the face image selected in step S302 is read, and the first frame image of each scene in which the subject corresponding to the face image is captured based on the time information recorded in the management table. Are displayed as thumbnails on the LCD 14.

ステップS306では、ユーザが再生を所望するシーンが選択されたか否かを判別する。シーンが選択された場合はステップS308に進み、そうでない場合はステップS306を繰り返す。   In step S306, it is determined whether or not the scene desired by the user has been selected. If a scene is selected, the process proceeds to step S308, and if not, step S306 is repeated.

ステップS308では、選択されたシーンのフレーム画像の再生を行う。管理テーブルに記録された時間帯に基づき、被写体が含まれるフレーム画像のみを再生する。   In step S308, the frame image of the selected scene is reproduced. Only the frame image including the subject is reproduced based on the time zone recorded in the management table.

ステップS310では、注目被写体再生モードが終了されたか否かを判別する。操作部32が操作され注目被写体再生モードが終了されたとCPU30が判断した場合は注目被写体再生モードを終了する。そうでない場合はステップS300に戻る。   In step S310, it is determined whether or not the subject reproduction mode has been terminated. When the CPU 30 determines that the attention subject reproduction mode is ended by operating the operation unit 32, the attention subject reproduction mode is ended. Otherwise, the process returns to step S300.

上述した実施例では、被写体がフレームアウトした際に、該被写体が撮影領域に写っていた時間を導出し所定の閾値と比較を行うが、被写体が撮影領域からフレームアウトしてから、時間を導出するまでの間に所定の猶予時間を設け、該所定の猶予時間内に被写体が再度フレームインした場合は、フレームアウト前の時間から継続して時間情報の取得を行うようにしてもよい。
また、動画情報と注目被写体との関連付けは手動でも行えるようにしてもよい。
また、上述した処理を静止画撮影に適用してもよい。その場合、時間の導出は行わず、撮影した静止画から検出された全ての顔に対して関連付け処理を行うようにすればよい。
In the embodiment described above, when the subject is out of the frame, the time that the subject was in the shooting area is derived and compared with a predetermined threshold, but the time is derived after the subject is out of the shooting area. A predetermined grace time may be provided until the time is set, and when the subject has entered the frame again within the predetermined grace time, the time information may be continuously acquired from the time before the frame out.
Further, the association between the moving image information and the subject of interest may be performed manually.
Further, the above-described processing may be applied to still image shooting. In that case, the derivation process may be performed for all the faces detected from the captured still image without deriving the time.

以上、本発明の実施例について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変更及び変形が可能である。   As mentioned above, although the Example of this invention was described, this invention is not limited to these embodiment, A various change and deformation | transformation are possible within the range of the summary.


2 撮像部
4 A/D変換部
6 メモリ
8 メモリ制御部
10 信号処理部
12 画像コーデック部
14 LCDモニタ
16 LCDドライバ
18 被写体検出部
20 被写体同定処理部
22 時間情報取得部
24 関連付け処理部
26 I/F回路
28 記録媒体
30 CPU
32 操作部

2 Imaging unit 4 A / D conversion unit 6 Memory 8 Memory control unit 10 Signal processing unit 12 Image codec unit 14 LCD monitor 16 LCD driver 18 Subject detection unit 20 Subject identification processing unit 22 Time information acquisition unit 24 Association processing unit 26 I / F circuit 28 Recording medium 30 CPU
32 Operation unit

Claims (4)

所定時間毎の撮影により撮影画像を取得するとともに、該撮影画像に基づいて第1動画像を生成する動画像生成手段、
前記動画像に所定期間以上継続して含まれる被写体を検出する被写体検出手段、
前記被写体が前記動画像に継続して含まれる始点及び期間を示す期間情報を導出する期間情報導出手段、
前記動画像を構成する前記撮影画像のうち、前記被写体が継続して含まれる期間の動画像を構成する前記撮影画像のいずれかから前記被写体画像を抽出する被写体抽出手段、
前記動画像、前記被写体画像、及び前記期間情報を関連付けて記録媒体に記録する関連付け手段、
前記期間情報に基づいて前記被写体が前記動画像に継続して含まれる期間の再生を行う再生手段、
を備えることを特徴とする電子機器。
A moving image generating means for acquiring a captured image by shooting every predetermined time and generating a first moving image based on the captured image;
Subject detection means for detecting a subject continuously included in the moving image for a predetermined period or longer;
Period information deriving means for deriving period information indicating a start point and a period in which the subject is continuously included in the moving image;
Subject extraction means for extracting the subject image from any of the photographed images constituting the moving image of the period in which the subject is continuously included among the photographed images constituting the moving image;
Association means for associating and recording the moving image, the subject image, and the period information on a recording medium;
Reproduction means for performing reproduction of a period in which the subject is continuously included in the moving image based on the period information;
An electronic device comprising:
前記記録媒体に、前記動画像生成手段により生成された第2動画像が記録されている場合において、
前記第2動画像に前記被写体が前記所定期間以上継続して含まれているかどうかを判断する同定手段を備え、
前記同定手段により、前記被写体が前記第2動画像に前記所定期間以上継続して含まれていると判断された場合、前記期間情報導出手段は、前記第2動画像から前記被写体が前記第2動画像に継続して含まれている期間を示す第2期間情報を導出し、
前記関連付け手段は、前記動画像、前記被写体画像、及び前記期間情報、並びに前記第2動画像、及び前記第2期間情報を関連付けて前記記録媒体に記録することを特徴とする請求項1記載の電子機器。
When the second moving image generated by the moving image generating means is recorded on the recording medium,
An identification means for determining whether or not the subject is continuously included in the second moving image for the predetermined period or longer;
When the identification unit determines that the subject is continuously included in the second moving image for the predetermined period or longer, the period information deriving unit determines that the subject is the second moving image from the second moving image. Deriving second period information indicating a period continuously included in the moving image,
2. The association unit according to claim 1, wherein the association unit associates and records the moving image, the subject image, the period information, the second moving image, and the second period information on the recording medium. Electronics.
前記再生手段は、被写体画像、該被写体画像の被写体が所定期間以上継続して含まれる1又は複数の動画像、及び前記被写体が前記各動画像それぞれに含まれる期間を示す期間情報が関連付けて記録されている記録媒体から、
前記被写体画像を抽出するとともに第1被写体画像として表示装置に表示する第1表示手段、
前記各動画像それぞれから前記被写体が継続して含まれる期間の前記各動画像を構成する複数の撮影画像の一部を抽出するとともに、抽出された前記一部の撮影画像それぞれを第2被写体画像として表示装置に表示する第2表示手段、
を備えることを特徴とする請求項1乃至2記載の電子機器。
The reproduction means records the subject image, one or a plurality of moving images in which the subject of the subject image is continuously included for a predetermined period or more, and period information indicating a period in which the subject is included in each of the moving images. From the recorded recording medium,
First display means for extracting the subject image and displaying it on a display device as a first subject image;
Extracting a part of a plurality of captured images constituting each moving image during a period in which the subject is continuously included from each moving image, and extracting each of the extracted captured images as a second subject image Second display means for displaying on the display device as
The electronic apparatus according to claim 1, further comprising:
前記第2表示手段によって表示される第2被写体画像のいずれか1つを選択する選択手段、
選択された前記第2被写体画像を含む動画像を、前記第2被写体画像が含まれる期間だけ再生する動画像再生手段、
を備えることを特徴とする請求項1乃至3記載の電子機器。
Selection means for selecting any one of the second subject images displayed by the second display means;
Moving image reproduction means for reproducing the selected moving image including the second subject image for a period in which the second subject image is included;
The electronic apparatus according to claim 1, further comprising:
JP2009084245A 2009-03-31 2009-03-31 Electronic apparatus Pending JP2010237911A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009084245A JP2010237911A (en) 2009-03-31 2009-03-31 Electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009084245A JP2010237911A (en) 2009-03-31 2009-03-31 Electronic apparatus

Publications (1)

Publication Number Publication Date
JP2010237911A true JP2010237911A (en) 2010-10-21

Family

ID=43092167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009084245A Pending JP2010237911A (en) 2009-03-31 2009-03-31 Electronic apparatus

Country Status (1)

Country Link
JP (1) JP2010237911A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012216918A (en) * 2011-03-31 2012-11-08 Jvc Kenwood Corp Imaging apparatus, image processing method, and program
JP2014093639A (en) * 2012-11-02 2014-05-19 Canon Inc Imaging device, control method for imaging device, image processing device, image processing method, image processing program, and storage medium
KR20150027502A (en) * 2013-09-04 2015-03-12 삼성전자주식회사 Method for capturing image and electronic device thereof
WO2017169293A1 (en) * 2016-03-28 2017-10-05 パナソニックIpマネジメント株式会社 Video processing device, video processing system, video processing method, and video output device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012216918A (en) * 2011-03-31 2012-11-08 Jvc Kenwood Corp Imaging apparatus, image processing method, and program
JP2014093639A (en) * 2012-11-02 2014-05-19 Canon Inc Imaging device, control method for imaging device, image processing device, image processing method, image processing program, and storage medium
KR20150027502A (en) * 2013-09-04 2015-03-12 삼성전자주식회사 Method for capturing image and electronic device thereof
KR102158293B1 (en) * 2013-09-04 2020-09-21 삼성전자주식회사 Method for capturing image and electronic device thereof
WO2017169293A1 (en) * 2016-03-28 2017-10-05 パナソニックIpマネジメント株式会社 Video processing device, video processing system, video processing method, and video output device
JPWO2017169293A1 (en) * 2016-03-28 2019-02-14 パナソニックIpマネジメント株式会社 Video processing device, video processing system, video processing method, and video output device
JP7174894B2 (en) 2016-03-28 2022-11-18 パナソニックIpマネジメント株式会社 Video processing device, video processing system, video processing method, and video output device

Similar Documents

Publication Publication Date Title
KR101189980B1 (en) Recording device and method, reproduction device and method, and recording medium
JP4645685B2 (en) Camera, camera control program, and photographing method
JP4869270B2 (en) Imaging apparatus and image reproduction apparatus
JP4973098B2 (en) Image processing apparatus, image processing method, and program
JP4315212B2 (en) Imaging apparatus, imaging control program, and imaging control method
US10033931B2 (en) Image processing apparatus and image processing method for processing still image data
JP4701791B2 (en) Image processing apparatus and program
JP4881210B2 (en) Imaging apparatus, image processing apparatus, and control method thereof
JP5213503B2 (en) Memory playback device
JP5266701B2 (en) Imaging apparatus, subject separation method, and program
JP2010237911A (en) Electronic apparatus
US8538247B2 (en) Image processing apparatus and image processing method
JP2007228453A (en) Imaging apparatus, reproduction device, program, and storage medium
JP4948014B2 (en) Electronic camera
JP4636024B2 (en) Imaging device
KR101480407B1 (en) Digital image processing apparatus, method for controlling the same and medium of recording the method
JP4942196B2 (en) Image management apparatus and method
JP2007306199A (en) Imaging apparatus, and image processing program
CN105794193A (en) Image processing apparatus, image processing method and program
JP2009212867A (en) Shot image processing apparatus, shooting control program, and phiotographing control method
JPH11187350A (en) Image pickup recorder and its control method
JP2010039795A (en) Data generation device and electronic camera for recognition, data generation program for recognition, and data generation method for recognition
JP2011139123A (en) Image processor and image processing program
JP2012029119A (en) Display control device, camera and display device
JP2010114708A (en) Camera device, photographing method, photographing control program

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20111117

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20111130