JP5268671B2 - Image recording device - Google Patents

Image recording device Download PDF

Info

Publication number
JP5268671B2
JP5268671B2 JP2009010384A JP2009010384A JP5268671B2 JP 5268671 B2 JP5268671 B2 JP 5268671B2 JP 2009010384 A JP2009010384 A JP 2009010384A JP 2009010384 A JP2009010384 A JP 2009010384A JP 5268671 B2 JP5268671 B2 JP 5268671B2
Authority
JP
Japan
Prior art keywords
face
image
person
detected
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009010384A
Other languages
Japanese (ja)
Other versions
JP2010171550A (en
Inventor
啓太 稲倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009010384A priority Critical patent/JP5268671B2/en
Publication of JP2010171550A publication Critical patent/JP2010171550A/en
Application granted granted Critical
Publication of JP5268671B2 publication Critical patent/JP5268671B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、動画から静止画を切り出して記録する画像記録装置に関する。   The present invention relates to an image recording apparatus that cuts out and records a still image from a moving image.

近年、デジタルビデオカメラ又はデジタルスチルカメラ等の電子撮像装置には、被写体像の中から人物(の顔)を検出する機能が実装されたものが商品化されている。   In recent years, electronic imaging devices such as a digital video camera or a digital still camera have been commercialized in which a function for detecting a person (face) from a subject image is mounted.

静止画撮影の場合、被写体から顔を検出し、顔領域に対してフォーカスと露出を自動調整することで、被写体たる人物に対して適切な焦点および露出の画像を得ることができる。顔検出技術は、例えば、特許文献1に記載されている。   In the case of still image shooting, by detecting a face from a subject and automatically adjusting the focus and exposure for the face area, an image with an appropriate focus and exposure can be obtained for the person who is the subject. The face detection technique is described in Patent Document 1, for example.

また、動画撮影では、被写体人物が横や後ろを向いた場合に周辺位置から顔位置を推測する技術が提案されている(特許文献2)。この技術によれば、写体人物が横や後ろを向いた場合にもフォーカス/露出の調整対象を固定でき、その結果、1クリップ内でフォーカス及び露出が急激な変化を起こさないようにすることができる。
特開2002−251380号公報 特開2007−042072号公報
In moving image shooting, a technique for estimating a face position from a peripheral position when a subject person faces sideways or behind has been proposed (Patent Document 2). According to this technology, even when the human subject is facing sideways or backward, the focus / exposure adjustment target can be fixed, and as a result, the focus and exposure do not change suddenly within one clip. Can do.
JP 2002-251380 A JP 2007-042072 A

近年の撮像素子の高画素化の流れから、動画記録される画像の解像度が上がり、動画の一部を静止画として切り出す場合でも、利用に耐える静止画を得られるようになってきている。   With the recent trend of increasing the number of pixels in an image sensor, the resolution of an image recorded as a moving image has increased, and even when a part of a moving image is cut out as a still image, a still image that can withstand use can be obtained.

そのような中で、複数の人物が写っている動画から特定人物の良い表情を静止画として切り出す場合に、他の人物が正面を向いていない事がある。そのような静止画では、後日その静止画を閲覧した場合に、顔が映っていない人物が誰であったか分からないという問題があった。   Under such circumstances, when a good facial expression of a specific person is cut out as a still image from a moving image including a plurality of persons, other persons may not face the front. In such a still image, there is a problem that when the still image is viewed at a later date, it is not possible to know who the person whose face is not reflected.

このような問題は、記録済みの映像から人物の映っているフレームを静止画として記録する場合にも同様に生じうる。   Such a problem can also occur when a frame in which a person is shown is recorded as a still image from a recorded video.

本発明は、このような不都合を解消する画像記録装置を提示することを目的とする。   It is an object of the present invention to provide an image recording apparatus that eliminates such inconveniences.

本発明に係る画像記録装置は、一連のフレーム画像中の人物の顔を検出するとともに、前記人物の顔の識別情報を保持手段に保持させる検出手段と、前記検出手段により検出されていた人物の顔が検出されなくなったことに応じて、一連のフレーム画像中の前記検出されなくなった人物の顔に対応する顔領域を追跡するとともに、前記追跡結果に基づいて、前記保持手段に保持された前記検出されなくなった人物の顔に対応する識別情報を更新する追跡手段と、前記一連のフレーム画像中の指定されたフレーム画像から静止画を生成し、前記保持手段に保持された前記識別情報を前記静止画に関連付けて記録媒体に記録する記録手段とを具備することを特徴とする。 An image recording apparatus according to the present invention detects a person's face in a series of frame images , holds a person's face identification information in a holding means, and a person's face detected by the detecting means. In response to the fact that a face is no longer detected, the face area corresponding to the face of the person that is no longer detected is tracked in a series of frame images, and based on the tracking result, the holding means holds the A tracking unit that updates identification information corresponding to the face of a person that is no longer detected, a still image is generated from a specified frame image in the series of frame images, and the identification information held in the holding unit is And recording means for recording on a recording medium in association with a still image .

本発明では、記録すべき静止画上で顔が不明な場合に、動画中に撮影されている人物の顔を特定する顔特定情報を関連付けるので、正面を向いていない人物の顔を事後的に確認できるようになる。   In the present invention, when the face is unknown on the still image to be recorded, the face specifying information for specifying the face of the person photographed in the video is related, so that the face of the person who is not facing the front It becomes possible to confirm.

以下、図面を参照して、本発明の実施例を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明に係る画像記録装置の一実施例の概略構成ブロック図を示す。図2は、本実施例を組み込んだビデオカメラの右側面のグリップ側から見た外観斜視図を示し、図3は、左側面の液晶モニタ側から見た外観斜視図を示す。   FIG. 1 shows a schematic block diagram of an embodiment of an image recording apparatus according to the present invention. FIG. 2 shows an external perspective view seen from the grip side of the right side of the video camera incorporating this embodiment, and FIG. 3 shows an external perspective view seen from the liquid crystal monitor side of the left side.

本体110の右側面の前側にズームスイッチ112が配置される。撮影者は、ズームスイッチ112をW側に移動させることでワイド撮影を指示し、T側に移動させることでテレ撮影を本体110に指示する。前面にレンズユニット114があり、絞りを内蔵し、フォーカス調整機能及びズーム機能を具備する。本体110の右側面のリストストラップ116と本体110との間に手を入れることで、撮影者は、本体110を安定に保持できる。本体110の左側面には、周知のヒンジ機構により液晶モニタ118が本体110に対して回動自在に取り付けられている。   A zoom switch 112 is disposed on the front side of the right side surface of the main body 110. The photographer instructs wide shooting by moving the zoom switch 112 to the W side, and instructs the main body 110 to perform tele shooting by moving the zoom switch 112 to the T side. A lens unit 114 is provided on the front surface, has a built-in aperture, and has a focus adjustment function and a zoom function. By placing a hand between the wrist strap 116 on the right side surface of the main body 110 and the main body 110, the photographer can stably hold the main body 110. A liquid crystal monitor 118 is rotatably attached to the main body 110 on the left side surface of the main body 110 by a known hinge mechanism.

本体110の背面にはビューファインダ120が配置される。ビューファインダ120は、小型液晶表示装置(LCD)と拡大用レンズを内蔵しており、撮影者が目を近づけることによって撮影視野の構図を確認できる。   A viewfinder 120 is disposed on the back of the main body 110. The viewfinder 120 incorporates a small liquid crystal display (LCD) and a magnifying lens, and allows the photographer to check the composition of the photographing field of view by bringing his eyes close.

本体110の背面には更に、動作モードを切り換える操作スイッチを構成するモードダイアル122が配置される。図2及び図3において、右方向に突出した柄の部分を回転させる事により種々の動作モードを選択できる。モードダイアル122では、電源オフ以外に、VTR、CAMERA(カメラ)、PHOTO(写真)又はPROGRESSIV SCAN(プログレッシブスキャン)の動作モードを選択できる。   A mode dial 122 constituting an operation switch for switching the operation mode is further arranged on the back surface of the main body 110. In FIG. 2 and FIG. 3, various operation modes can be selected by rotating the handle portion protruding rightward. The mode dial 122 can select an operation mode of VTR, CAMERA (camera), PHOTO (photo), or PROGRESSIV SCAN (progressive scan) in addition to turning off the power.

PHOTOモードは、スチル映像(静止画)を記録するモードである。本実施例で採用する撮像素子は、隣接する2ラインを同時に読み出す通常モードと、1ラインずつ読み出すプログレッシブスキャンモードを選択できる。後者は,通常モードの場合の2倍の水平走査線を有することになり、いわば、通常モードに対する高解像度モードと言える。モードダイアル122のPROGRESSIV SCANは、撮像素子の後者のモードでの動作を指示する。プログレッシブスキャンモードは、動画の1フレーム画を高画質の静止画として切り出すときに使用される。   The PHOTO mode is a mode for recording a still image (still image). The image sensor employed in the present embodiment can select a normal mode in which two adjacent lines are read simultaneously and a progressive scan mode in which the lines are read one by one. The latter has twice as many horizontal scanning lines as in the normal mode, which can be said to be a high resolution mode with respect to the normal mode. The PROGRESSIV SCAN of the mode dial 122 instructs the operation of the image sensor in the latter mode. The progressive scan mode is used when one frame image of a moving image is cut out as a high-quality still image.

本体110の背面のポジションロックツマミ124は、モードダイアル122をロックする。これにより、電源オフを含み、動作モードが不用意に変更されないようにする。アンロックツマミ(アンロック部材)126により、モードダイアル122のロックを解除できる。スタート/ストップボタン128により動画記録の開始と停止を指示する。   A position lock knob 124 on the back surface of the main body 110 locks the mode dial 122. This prevents the operation mode from being changed carelessly, including turning off the power. The mode dial 122 can be unlocked by an unlock knob (unlock member) 126. The start / stop button 128 is used to instruct the start and stop of moving image recording.

十字ボタン130、決定ボタン132及びキャンセルボタン134は、メニュー画面等で撮影条件又は動作条件を指定するのに使用される。   The cross button 130, the enter button 132, and the cancel button 134 are used to specify shooting conditions or operation conditions on a menu screen or the like.

本体110の上面に設置される発光ダイオード(LED)136は、その発光/点滅及び色により、本体110の動作及び内部処理を撮影者に視覚的に通知する。   A light emitting diode (LED) 136 installed on the upper surface of the main body 110 visually notifies the photographer of the operation and internal processing of the main body 110 by its light emission / flashing and color.

図1を参照して、本実施例の機能要素とその動作を説明する。なお、本実施例の特徴的な動作に直接関係しない他の機能、例えば絞り、シャッタ及び測距システムに関わる機能ブロックは、図1には省略されている。   With reference to FIG. 1, the functional elements of this embodiment and their operations will be described. It should be noted that other functions not directly related to the characteristic operation of the present embodiment, for example, function blocks related to the aperture, shutter, and distance measuring system are omitted in FIG.

本実施例の撮像装置10では、撮影レンズ12が、被写体の光学像を撮像素子14に入射し、撮像素子14は、被写体光学像に対応する画像信号を所定レートでカメラ信号処理装置16に出力する。カメラ信号処理装置16は、撮像素子14からの画像信号を一定の標準形式の映像信号に変換し、併せて,ガンマ変換及び色調整等の、ビデオカメラで周知のカメラ信号処理を施す。カメラ信号処理装置16が、一連のフレーム画像からなる動画をフレームメモリ18に供給する。撮像素子14及びカメラ信号処理装置16が、特許請求の範囲の動画入力手段に相当する。   In the imaging apparatus 10 of the present embodiment, the photographing lens 12 makes an optical image of a subject incident on the imaging element 14, and the imaging element 14 outputs an image signal corresponding to the subject optical image to the camera signal processing apparatus 16 at a predetermined rate. To do. The camera signal processing device 16 converts the image signal from the image sensor 14 into a video signal of a certain standard format, and performs camera signal processing known in the video camera such as gamma conversion and color adjustment. The camera signal processing device 16 supplies a moving image composed of a series of frame images to the frame memory 18. The image sensor 14 and the camera signal processing device 16 correspond to the moving image input means in the claims.

フレームメモリ18は、カメラ信号処理装置16からの映像信号をフレーム画像単位で表示用、顔検出用及び記録用に記憶する。顔検出に要する時間によっては、フレームメモリ18は、複数フレームの画像データを記憶可能である。   The frame memory 18 stores the video signal from the camera signal processing device 16 for display, face detection, and recording for each frame image. Depending on the time required for face detection, the frame memory 18 can store a plurality of frames of image data.

フレームメモリ18に新たなフレーム画像が格納されると、顔検出装置20が、そのフレーム画像から人物の顔を検出する。顔検出方法には、公知の種々の顔検出技術を使用しうる。例えば、顔に関する知識(肌色情報、目・鼻・口などのパーツ)を利用する方法と、ニューラルネットに代表される学習アルゴリズムにより顔検出のための識別器を構成する方法などが知られている。認識率向上のためにこれらを組み合わせて顔認識を行なうのが、一般的である。具体的には、特開2002−251380号公報に記載のウェーブレット変換と画像特徴量を利用して顔検出する方法が、使用可能である。   When a new frame image is stored in the frame memory 18, the face detection device 20 detects a human face from the frame image. Various known face detection techniques can be used for the face detection method. For example, a method that uses knowledge about the face (part information such as skin color information, eyes, nose, mouth, etc.) and a method that constructs a classifier for face detection by a learning algorithm typified by a neural network are known. . In order to improve the recognition rate, it is common to perform face recognition by combining them. Specifically, a method for detecting a face using wavelet transform and an image feature amount described in JP-A-2002-251380 can be used.

顔検出装置20は、フレーム画像に含まれる各人についての顔の位置、大きさ及び傾き等を顔領域情報として検出する。顔検出装置20は、検出した各顔を識別する顔情報識別値を管理しており、前のフレームで検出された顔情報の近辺で検出された顔情報を同一の顔情報識別値で管理する。すなわち、同一人物として識別する。また、顔検出装置20は、初めて検出された顔情報には新たな顔情報識別値を割り振る。直前のフレームで検出できていた顔の領域情報近辺で顔が検出できなかった場合は、顔が見えない方向を向いたと判断し、顔領域追跡装置22に顔情報識別値、位置情報及び領域情報を通知する。また、顔検出装置20は、検出した顔領域の画像を、位置情報及び領域情報と共に顔画像保持装置24に登録する。   The face detection device 20 detects the face position, size, inclination, and the like of each person included in the frame image as face area information. The face detection apparatus 20 manages the face information identification value for identifying each detected face, and manages the face information detected in the vicinity of the face information detected in the previous frame with the same face information identification value. . That is, they are identified as the same person. Further, the face detection device 20 assigns a new face information identification value to the face information detected for the first time. If the face cannot be detected in the vicinity of the face area information that has been detected in the immediately preceding frame, it is determined that the face is facing in the direction in which the face cannot be seen, and the face area tracking device 22 determines the face information identification value, position information, and area. Notify information. Further, the face detection apparatus 20 registers the detected face area image in the face image holding apparatus 24 together with the position information and the area information.

顔領域追跡装置22は、フレームメモリ18のフレーム画像を参照し、パターンマッチング等の既存の追跡技術を使用して、顔領域を追跡する。顔領域追跡装置22は、追跡で検出される顔の位置情報と領域情報を、顔情報識別値と共にフレームごとに顔画像保持装置24に通知する。顔領域追跡装置22はまた、顔を追跡中の人物の顔相当部分を示す領域(追跡対象領域)を示す情報を対象領域特定情報として顔領域・画像特定装置26に供給する。   The face area tracking device 22 refers to the frame image in the frame memory 18 and tracks the face area using an existing tracking technique such as pattern matching. The face area tracking device 22 notifies the face image holding device 24 of the face position information and area information detected by tracking together with the face information identification value for each frame. The face area tracking device 22 also supplies information indicating the area corresponding to the face of the person who is tracking the face (tracking target area) to the face area / image specifying apparatus 26 as target area specifying information.

顔画像保持装置24は、顔情報識別値で識別される人物について、顔領域追跡装置22からの追跡領域情報に従い、管理している座標情報と領域情報を更新する。顔画像保持装置24は、顔情報識別値と関連付けて、顔領域の画像、並びに、顔の位置情報及び領域情報を保持する。図4は、顔画像保持装置24が保持する顔情報の構造例を示す。顔情報は、顔情報識別値24−1、検出/追跡フラグ24−2、顔領域x座標24−3、顔領域y座標24−4、顔領域幅24−5、顔領域高さ24−6、及び顔画像データ24−7から構成される。検出/追跡フラグは、’0’が検出を意味し、’1’が追跡を意味する。また、顔画像データ24−7は、非圧縮の顔画像データからなる。   The face image holding device 24 updates the coordinate information and region information managed for the person identified by the face information identification value according to the tracking region information from the face region tracking device 22. The face image holding device 24 holds a face area image, face position information, and area information in association with the face information identification value. FIG. 4 shows an example of the structure of face information held by the face image holding device 24. The face information includes a face information identification value 24-1, a detection / tracking flag 24-2, a face area x coordinate 24-3, a face area y coordinate 24-4, a face area width 24-5, and a face area height 24-6. , And face image data 24-7. In the detection / tracking flag, '0' means detection and '1' means tracking. The face image data 24-7 is composed of uncompressed face image data.

表示画像生成装置28は、フレームメモリ18に記憶される画像データを表示用にリサイズする。表示画像生成装置28には、顔検出装置20からの顔の位置と領域の情報、及び顔領域追跡装置22から追跡中の顔の位置と領域の情報が供給されている。表示画像生成装置28は、これらの顔の位置及び領域に従う位置で、検出した顔及び追跡中の顔を示す枠画像をリサイズ後のフレーム画像に重畳し、表示装置30に印加する。表示装置30は、図3に示す液晶モニタ118に相当する。表示装置30の画面には、記録ポーズ中及び記録中に、撮影視野内の被写体像が表示される。これにより、撮影対象の構図及び記録中の被写体を視覚的に確認できる。また、顔検出された人物の顔部分及び顔追跡中の人物の顔相当部分には、顔部分を示す枠画像も同時に表示される。これにより、被写体となった人物の顔検出結果と追跡中の人物の顔相当部分を視覚的に確認できる。   The display image generation device 28 resizes the image data stored in the frame memory 18 for display. The display image generation device 28 is supplied with the face position and region information from the face detection device 20 and the face position and region information being tracked from the face region tracking device 22. The display image generation device 28 superimposes the frame image indicating the detected face and the face being tracked on the resized frame image at a position according to the position and region of the face, and applies the frame image to the display device 30. The display device 30 corresponds to the liquid crystal monitor 118 shown in FIG. On the screen of the display device 30, a subject image within the field of view is displayed during a recording pause and during recording. As a result, the composition of the subject to be photographed and the subject being recorded can be visually confirmed. In addition, a frame image indicating the face portion is simultaneously displayed on the face portion of the person whose face has been detected and the face equivalent portion of the person being face-tracked. Thereby, the face detection result of the person who is the subject and the face equivalent part of the person being tracked can be visually confirmed.

顔領域・画像特定装置26は、動画から静止画切り出しを行なう際に、顔画像保持装置24から検出/追跡フラグが立っている顔情報の座標・領域情報及び顔画像データを取得する。   The face area / image specifying device 26 obtains the coordinates / region information and face image data of face information for which the detection / tracking flag is set from the face image holding device 24 when extracting a still image from a moving image.

動画符号化装置32は、動画記録時には、フレームメモリ18からのフレーム画像を順次、MPEG2等の動画圧縮符号化方式で圧縮符号化する。他方、詳細は後述するが、静止画符号化装置34は、静止画の切り出し記録モードでは、顔領域・画像特定装置26から指示されるタイミングのフレーム画像をフレームメモリ18から読み込んでJPEG方式で圧縮符号化する。圧縮符号化で得られるJPEGデータに、この静止画に含まれる人物を示す顔画像データ及び画像上での座標と領域を示すデータを付加する。   At the time of moving image recording, the moving image encoding device 32 sequentially compresses and encodes the frame images from the frame memory 18 using a moving image compression encoding method such as MPEG2. On the other hand, as will be described in detail later, in the still image cut-out recording mode, the still image encoding device 34 reads a frame image at a timing instructed by the face area / image specifying device 26 from the frame memory 18 and compresses it by the JPEG method. Encode. Face image data indicating a person included in the still image and data indicating coordinates and areas on the image are added to JPEG data obtained by compression encoding.

記録媒体インターフェース36は、動画符号化装置32からの圧縮動画データ(MPEGデータ)及び静止画符号化装置34からの圧縮静止画データ(JPEGデータ)を記録媒体38に記録する。顔が隠れてしまっているような人物が撮影されている場合、顔領域・画像特定装置26からの顔画像データ及び画像上での座標と領域を示すデータをMPEGデータに埋め込むか、又は付加して、記録媒体38に記録しても良い。   The recording medium interface 36 records the compressed moving image data (MPEG data) from the moving image encoding device 32 and the compressed still image data (JPEG data) from the still image encoding device 34 on the recording medium 38. When a person whose face is hidden is photographed, face image data from the face area / image specifying device 26 and data indicating coordinates and areas on the image are embedded in MPEG data or added. Thus, it may be recorded on the recording medium 38.

記録媒体38は、例えば、ハードディスク、記録可能光ディスク又は半導体メモリ等のランダムアクセス媒体からなる。   The recording medium 38 is a random access medium such as a hard disk, a recordable optical disk, or a semiconductor memory.

システム制御装置40が、ユーザ又は撮影者による操作装置42による操作又は設定、及び動作状態に応じて、以上の各部を制御する。   The system control device 40 controls each of the above units according to the operation or setting by the operation device 42 by the user or photographer and the operation state.

図5は、撮影映像のフレーム画像例を示す。フレーム画像50−1〜50−5の順に時間が経過しているとする。二人の人物A,Bが撮影視野内に入っており、人物Bが時間の経過とともに、正面から後ろ向きに向きを変更している。   FIG. 5 shows an example of a frame image of a captured video. It is assumed that time has passed in the order of the frame images 50-1 to 50-5. Two persons A and B are in the field of view, and the person B changes its direction from the front to the back as time passes.

図6は、顔検出と顔追跡の動作フローチャートを示す。図5及び図6を参照して、本実施例の顔検出と顔追跡の動作を説明する。   FIG. 6 shows an operation flowchart of face detection and face tracking. With reference to FIG. 5 and FIG. 6, the operations of face detection and face tracking of this embodiment will be described.

カメラ信号処理装置16によりフレーム画像50−1がフレームメモリ18に書込まれると、システム制御装置40は図6に示すフローの開始を関係するブロックに指示する。すなわち、顔検出装置20が、フレームメモリ18のフレーム画像50−1に対して顔検出処理を実行する。その結果、人物の顔が1つ以上含まれている場合(S1)、顔検出装置20は、直前フレームの顔検出結果を確認する(S2)。フレーム画像50−1の例では、二人の人物A,Bの顔が検出されるので、ステップS2に進む。   When the frame image 50-1 is written into the frame memory 18 by the camera signal processing device 16, the system control device 40 instructs a block related to the start of the flow shown in FIG. That is, the face detection device 20 performs face detection processing on the frame image 50-1 in the frame memory 18. As a result, when one or more human faces are included (S1), the face detection device 20 checks the face detection result of the immediately preceding frame (S2). In the example of the frame image 50-1, since the faces of two persons A and B are detected, the process proceeds to step S2.

ステップS2では、直前のフレームの顔検出結果と今回の顔検出結果を照合し、今回、検出された顔の近傍領域に直前のフレームでも顔が検出されているかどうかを確認する。直前のフレームでも近傍領域に顔が検出されていない場合、初めて検出する顔として新たな顔情報識別値(顔ID)を割り当てる(S3)。そして、顔画像保持装置24に対し、顔情報識別値と顔画像データを登録要求する(S4)。他方、直前のフレームでも近傍領域に顔が検出されてい場合には、顔画像保持装置24に対し、同一の顔情報識別値で管理されている顔情報を、ステップS1で検出された顔画像データと顔領域で更新するように要求する(S4)。 In step S2, the face detection result of the previous frame and the current face detection result are collated, and it is confirmed whether or not a face has been detected in the immediately previous frame in the vicinity region of the face detected this time. If no face is detected in the neighboring area even in the immediately preceding frame, a new face information identification value (face ID) is assigned as the face to be detected for the first time (S3). Then, the face image holding device 24 is requested to register a face information identification value and face image data (S4). On the other hand, if in the previous frame that has been detected face in the vicinity of regions with respect to the face image storing apparatus 24, the face information that is managed by the same face information identification value, the detected face image in step S1 A request is made to update the data and the face area (S4).

図5に示す例では、フレーム画像50−1は先頭フレームであり、直前のフレームが存在しないことから、人物A,Bの顔画像に対して互いに異なる顔情報識別値、例えば,’1’と’2’が割り当てられる。そして、顔画像保持装置24は、フレーム画像50−1から得られる人物A,Bの顔画像データと座標/領域情報を、顔情報識別値の下で保持する。検出/追跡フラグ24−2は、人物A,Bの何れに対しても、’0’(検出)がセットされる。   In the example shown in FIG. 5, since the frame image 50-1 is the first frame and there is no previous frame, different face information identification values for the face images of the persons A and B, for example, “1” '2' is assigned. The face image holding device 24 holds the face image data and coordinate / region information of the persons A and B obtained from the frame image 50-1 under the face information identification value. The detection / tracking flag 24-2 is set to “0” (detection) for both the persons A and B.

ここまでで、検出された顔情報に対する顔情報の更新が完了する。続いて、新規な追跡対象かどうかを判定する。すなわち、直前のフレーム上で顔検出された近傍で今回のフレームでも顔を検出されたかどうかを確認する(S5)。今回のフレームで顔が検出されていない場合、たまたま顔検出に失敗しているか、その人物は横を向いた可能性が高いので、追跡対象とする。撮像装置とその人物との間にたまたま遮蔽物(移動する車等)が入った可能性もある。顔検出装置20は、このような追跡対象とすべき全ての顔についてその顔識別情報を、顔追跡対象として顔領域追跡装置22に通知する。顔領域追跡装置22は、顔検出装置20から通知された顔情報識別値で特定される顔を顔追跡対象として登録する(S6)。この登録により、顔領域追跡装置22は、所定の追跡アルゴリズムで、顔検出処理とは独立に、フレームメモリ18のフレーム画像を参照して顔領域を追跡する(S7)。そして、顔領域追跡装置22は、追跡結果を顔画像保持装置24に通知する(S8)。   Thus far, the update of the face information for the detected face information is completed. Subsequently, it is determined whether or not it is a new tracking target. That is, it is confirmed whether or not a face is detected in the current frame near the face detected in the immediately preceding frame (S5). If no face is detected in the current frame, it is likely that the face detection has failed or that person is likely to face sideways, and is therefore subject to tracking. There is also a possibility that an obstacle (such as a moving car) has happened between the imaging device and the person. The face detection device 20 notifies the face area tracking device 22 of the face identification information of all the faces to be tracked as face tracking targets. The face area tracking device 22 registers the face specified by the face information identification value notified from the face detection device 20 as a face tracking target (S6). By this registration, the face area tracking device 22 tracks the face area by referring to the frame image in the frame memory 18 independently of the face detection process with a predetermined tracking algorithm (S7). Then, the face area tracking device 22 notifies the tracking result to the face image holding device 24 (S8).

フレーム画像50−1は先頭フレームなので、顔領域追跡対象として未登録であり、顔追跡処理(S7)は、実質的には実行されない。   Since the frame image 50-1 is the first frame, it is not registered as a face area tracking target, and the face tracking process (S7) is not substantially executed.

フレーム画像50−2に対する顔検出と追跡処理は、以下のようになる。すなわち、フレームメモリ18にフレーム画像50−2が書き込まれると、顔検出装置20がフレーム画像50−2に対して顔検出処理を実行する(S1)。フレーム画像50−2では、人物Aの顔は検出されるは、人物Bは横向きであり、その顔は検出されない。人物Aの顔が検出されたので、ステップS2に進む。   The face detection and tracking process for the frame image 50-2 is as follows. That is, when the frame image 50-2 is written in the frame memory 18, the face detection device 20 performs a face detection process on the frame image 50-2 (S1). In the frame image 50-2, the face of the person A is detected, but the person B is sideways, and the face is not detected. Since the face of the person A is detected, the process proceeds to step S2.

ステップS2では、フレーム画像50−2で検出された顔(人物A)に対し、直前のフレーム画像50−1でも近傍に顔が検出されている。従って、新たな顔情報識別値が割り当てられることはない。フレーム画像50−2で検出された人物A(顔情報識別値=1)に対し、顔画像保持装置24に顔画像と座標/領域の更新を要求する(S4)。   In step S2, a face is detected near the face (person A) detected in the frame image 50-2 in the immediately preceding frame image 50-1. Therefore, a new face information identification value is not assigned. For the person A (face information identification value = 1) detected in the frame image 50-2, the face image holding device 24 is requested to update the face image and coordinates / region (S4).

フレーム画像50−2では、フレーム画像50−1で顔検出された人物Bの顔の近傍で顔が検出されないので(S5)、顔情報識別値=2で特定される顔が顔追跡対象となる(S6)。顔領域追跡装置22は、顔情報識別値=2に対して顔追跡処理を実行する(S7)。具体的には、直前のフレーム画像50−1で検出された顔領域から所定の近傍領域で、パターンマッチング処理により顔画像に類似する領域を抽出し、顔追跡領域として設定し、追跡を実行する。   In the frame image 50-2, no face is detected in the vicinity of the face of the person B whose face is detected in the frame image 50-1 (S5), so the face specified by the face information identification value = 2 is the face tracking target. (S6). The face area tracking device 22 executes face tracking processing on the face information identification value = 2 (S7). Specifically, an area similar to the face image is extracted from the face area detected in the immediately preceding frame image 50-1 by a pattern matching process in a predetermined neighborhood area, set as a face tracking area, and tracking is executed. .

顔領域追跡装置22は、顔画像保持装置24が管理する顔情報識別値=2の顔情報で、顔領域を特定するための情報を顔追跡領域の情報で更新する(S8)。具体的には、顔領域x座標24−3、顔領域y座標24−4、顔領域幅24−5、顔領域高さ24−6が追跡領域に応じて更新され、検出/追跡フラグ24−2が、追跡を意味する’1’に更新される。このとき、顔画像データ24−7は更新されず、最後に顔検出されたときの顔画像が保持され続ける。   The face area tracking device 22 updates the information for specifying the face area with the face tracking area information with the face information with the face information identification value = 2 managed by the face image holding device 24 (S8). Specifically, the face area x coordinate 24-3, the face area y coordinate 24-4, the face area width 24-5, and the face area height 24-6 are updated according to the tracking area, and the detection / tracking flag 24- 2 is updated to '1' meaning tracking. At this time, the face image data 24-7 is not updated, and the face image when the face is detected last is kept.

動画中から静止画を切り出す処理を説明する。図7はその動作フローチャートを示す。   A process for cutting out a still image from a moving image will be described. FIG. 7 shows a flowchart of the operation.

操作装置42の静止画記録を指示する撮影者の指示に応じて(S11)、システム制御装置40は、静止画符号化装置34にフレームメモリ18のフレーム画像の符号化を指示する(S12)。この指示に応じて、静止画符号化装置34は、フレームメモリ18の現在のフレーム画像をJPEG方式で符号化する。撮影者の指示が一般に遅れがちであることを考慮すると、撮影者の指示から一定時間前のフレーム画像を静止画記録の対象としてもよい。また、複数のフレーム画像を静止画記録の対象としてもよい。   In response to a photographer's instruction to instruct still image recording on the operation device 42 (S11), the system control device 40 instructs the still image encoding device 34 to encode a frame image in the frame memory 18 (S12). In response to this instruction, the still image encoding device 34 encodes the current frame image in the frame memory 18 by the JPEG method. Considering that the photographer's instruction generally tends to be delayed, a frame image a predetermined time before the photographer's instruction may be set as a still image recording target. In addition, a plurality of frame images may be targets for still image recording.

顔領域・画像特定装置26は、顔画像保持装置24に問い合わせて、符号化したフレーム画像に対して顔追跡領域が設定されているかどうかを確認する(S13)。例えば、フレーム画像50−5が静止画記録の対象となった場合、人物Bに対して、先に説明した手順で顔追跡領域が設定され、顔領域追跡装置22が、人物Bの顔部分を追跡している。   The face area / image specifying device 26 makes an inquiry to the face image holding device 24 to check whether a face tracking region is set for the encoded frame image (S13). For example, when the frame image 50-5 is a still image recording target, a face tracking area is set for the person B in the procedure described above, and the face area tracking device 22 detects the face portion of the person B. Tracking.

フレーム画像50−5の場合、顔画像保持装置24には、2つの顔情報が登録されている。人物Aの顔情報(顔情報識別値=1)では、検出/追跡フラグ24−2が’0’であり、人物Bの顔情報(顔情報識別値=2)では、検出/追跡フラグ24−2が’1’である。検出/追跡フラグ24−2が’1’の場合、顔領域x座標24−3、顔領域y座標24−4、顔領域幅24−5及び顔領域高さ24−6で特定される顔領域が、顔追跡領域を示す。   In the case of the frame image 50-5, two pieces of face information are registered in the face image holding device 24. In the face information of the person A (face information identification value = 1), the detection / tracking flag 24-2 is “0”, and in the face information of the person B (face information identification value = 2), the detection / tracking flag 24- 2 is “1”. When the detection / tracking flag 24-2 is “1”, the face area specified by the face area x coordinate 24-3, the face area y coordinate 24-4, the face area width 24-5, and the face area height 24-6. Indicates a face tracking area.

顔領域・画像特定装置26は顔画像保持装置24から検出/追跡フラグ24−2が’1’である顔情報の顔領域情報で顔追跡領域を特定し(S14)、その顔画像データを取得する(S15)。顔追跡領域は、先に説明したように、顔領域x座標24−3、顔領域y座標24−4、顔領域幅24−5及び顔領域高さ24−6により規定される。   The face area / image specifying device 26 specifies the face tracking area from the face information of the face information whose detection / tracking flag 24-2 is “1” from the face image holding device 24 (S14), and acquires the face image data. (S15). As described above, the face tracking area is defined by the face area x coordinate 24-3, the face area y coordinate 24-4, the face area width 24-5, and the face area height 24-6.

顔領域・画像特定装置26は取得した顔追跡領域情報と顔画像データを顔特定情報として静止画符号化装置34に供給する。静止画符号化装置34は、この顔特定情報情報をJPEGデータに付加して、JPEGファイルを生成する(S16)。記録媒体インターフェース36は、生成されたJPEGファイルを記録媒体38に記録する(S17)。   The face area / image specifying device 26 supplies the acquired face tracking area information and face image data to the still image encoding device 34 as face specifying information. The still image encoding device 34 adds the face specifying information information to the JPEG data to generate a JPEG file (S16). The recording medium interface 36 records the generated JPEG file on the recording medium 38 (S17).

静止画記録対象のフレーム画像に顔追跡領域がない場合(S13)、記録媒体インターフェース36は、ステップS12で生成されたJPEGデータからなるJEPGファイルを記録媒体38に記録する(S17)。   When there is no face tracking area in the still image recording target frame image (S13), the recording medium interface 36 records the JEPG file composed of the JPEG data generated in step S12 on the recording medium 38 (S17).

図8は、JPEGデータのフォーマットを示す。JPEGフォーマットは、圧縮データの開始を示すSOIから始まり、圧縮データの終了を示すEOIで終了する。アプリケーションデータセグメントAPP0〜APP15がJPEGの拡張用に準備されている。また、量子化テーブルDQT、ハフマンテーブルDHT、フレームヘッダSOF、スキャンヘッダSOS及び圧縮データは、本実施例の特徴的な動作とは関係しないので、説明を省略する。   FIG. 8 shows the format of JPEG data. The JPEG format starts with an SOI indicating the start of compressed data and ends with an EOI indicating the end of compressed data. Application data segments APP0 to APP15 are prepared for JPEG expansion. Further, the quantization table DQT, the Huffman table DHT, the frame header SOF, the scan header SOS, and the compressed data are not related to the characteristic operation of this embodiment, and thus the description thereof is omitted.

顔情報の登録には、アプリケーションデータセグメントAPP0〜APP15を使用する。アプリケーションデータセグメントAPP0−APP2は、それぞれJFIF、Exif拡張情報及びFlashPix(商標)用に予約されている。図9は、アプリケーションデータセグメント3−15への顔情報の登録例であり、マーカ識別子(0xFF)とアプリケーションマーカ(0xE3-F)から始まる。顔追跡領域x座標62−3、顔追跡領域y座標62−4、顔追跡領域幅62−5、及び顔追跡領域高さ62−6には、追跡領域特定処理S14で取得した顔領域x座標24−3、顔領域y座標24−4、顔領域幅24−5及び顔領域高さ24−6がそれぞれ登録される。また、画像の幅62−7及び画像の高さ62−8には、顔情報取得処理(S15)で取得した顔画像データ24−7の幅と高さが登録される。顔画像データ24−7を静止画符号化装置34で符号化して得られる圧縮顔画像データを圧縮データ62−9に登録する。このようにして、動画から切り出した静止画のアプリケーションデータセグメントに、顔を追跡している人物の顔画像を登録できる。   Application data segments APP0 to APP15 are used for registration of face information. Application data segments APP0-APP2 are reserved for JFIF, Exif extension information, and FlashPix (trademark), respectively. FIG. 9 shows an example of registration of face information in the application data segment 3-15, which starts with a marker identifier (0xFF) and an application marker (0xE3-F). The face tracking area x coordinate 62-3, the face tracking area y coordinate 62-4, the face tracking area width 62-5, and the face tracking area height 62-6 include the face area x coordinate acquired in the tracking area specifying process S14. 24-3, face area y coordinate 24-4, face area width 24-5, and face area height 24-6 are registered. The width and height of the face image data 24-7 acquired in the face information acquisition process (S15) are registered in the image width 62-7 and the image height 62-8. The compressed face image data obtained by encoding the face image data 24-7 with the still image encoding device 34 is registered in the compressed data 62-9. In this way, the face image of the person tracking the face can be registered in the application data segment of the still image cut out from the moving image.

このようにして静止画を記録することで、動画から切出した静止画中に正面を向いていない人物が写っている場合に、その人物を判別可能な顔画像を関連づけて記録することができる。これにより、後日、その静止画を再生した場合に、その正面を向いていない人物を容易に識別できる。   By recording a still image in this way, when a person who is not facing the front is captured in a still image cut out from a moving image, a face image that can identify the person can be recorded in association with each other. Thereby, when the still image is reproduced at a later date, a person who is not facing the front can be easily identified.

動画記録の説明を省略したが、上述の静止画の切り出しを動画記録中に並列に実行してもよいことは明らかである。勿論、動画記録する予定の無い撮像素子14からの画像信号の1フレームを所望のタイミングで静止画として記録する場合にも、適用できる。   Although explanation of the moving image recording is omitted, it is obvious that the above-described clipping of the still image may be executed in parallel during the moving image recording. Of course, the present invention can also be applied to a case where one frame of an image signal from the image sensor 14 that is not scheduled to be recorded as a moving image is recorded as a still image at a desired timing.

また、本実施例から動画符号化装置32を除外することで、デジタルスチルカメラとして構成することができる。この場合、電源オン後またはシャッタレリーズの半押し操作後の、撮影準備中(シャッタチャンス待ち)の状態で、上述のように、撮影視野内の人物の顔を追跡し、顔画像データを保持する。シャッタレリーズの全押し操作に応じて静止画を取り込む。そして、取込まれた静止画像に顔が不明な人物が写る場合、上述の実施例と同様の処理で当該人物の顔画像データを特定して当該静止画像に付加したものを記録媒体に記録する。   Moreover, it can comprise as a digital still camera by removing the moving image encoding apparatus 32 from a present Example. In this case, the face of the person in the shooting field of view is tracked and the face image data is held as described above in a state of preparation for shooting (waiting for a shutter chance) after the power is turned on or the shutter release is half-pressed. . A still image is captured in response to the shutter release full-press operation. Then, when a person with an unknown face appears in the captured still image, the person's face image data is identified and added to the still image by the same processing as in the above-described embodiment, and is recorded on the recording medium. .

上記実施例では、顔画像保持装置24は、顔画像を見失う直前の顔画像データを保持することになる。これに対し、顔画像保持装置24を、同一人物に対して検出される顔画像データを逐次的に比較し、最も正面に近い顔画像データを、静止画への付加用に保持するようにしてもよい。これにより、静止画に付加した顔画像は、最も正面を向いた、人物を判別しやすいものとなる。より正面に近い画像かどうかは、例えば,2つの目の間隔、顔画像の面積、又は顔画像の横幅等を指標とすることで、容易に判別できる。   In the above embodiment, the face image holding device 24 holds the face image data immediately before losing sight of the face image. In contrast, the face image holding device 24 sequentially compares the face image data detected for the same person, and holds the face image data closest to the front for addition to the still image. Also good. As a result, the face image added to the still image can be easily identified as the person facing the most front. Whether the image is closer to the front can be easily determined by using, for example, the interval between two eyes, the area of the face image, or the width of the face image as an index.

撮像素子14及びカメラ信号処理装置16の部分を他の映像ソースからの映像信号を取り込む手段に変更しても、同様の作用効果を得ることができる。図10は、外部の映像ソースからの映像信号から静止画を切出して記録する画像記録装置の実施例の概略構成ブロック図を示す。図1と同じ作用を奏する要素には同じ符号を付してある。   Even if the parts of the image sensor 14 and the camera signal processing device 16 are changed to means for taking in video signals from other video sources, the same effect can be obtained. FIG. 10 is a block diagram showing a schematic configuration of an embodiment of an image recording apparatus that extracts and records a still image from a video signal from an external video source. Elements having the same action as in FIG. 1 are denoted by the same reference numerals.

図10に示す画像記録装置210では、映像取込み装置214が、外部の映像ソースからの映像情報を取込む。本実施例では、映像取込み装置214は、例えば、デジタル放送され録画された映像情報を再生する手段又はデジタル放送を受信する手段であり、MPE2−TS形式の圧縮映像データを復号化装置216に出力する。復号化装置216は、映像取込み装置214からの圧縮映像データを復号化し、各フレームの画像データを順次、フレームメモリ18に書き込んでいく。   In the image recording device 210 shown in FIG. 10, the video capturing device 214 captures video information from an external video source. In the present embodiment, the video capture device 214 is, for example, a means for reproducing digital broadcast and recorded video information or a means for receiving digital broadcast, and outputs MPE2-TS format compressed video data to the decoding device 216. To do. The decoding device 216 decodes the compressed video data from the video capturing device 214 and sequentially writes the image data of each frame into the frame memory 18.

フレームメモリ18以降の動作は、実施例1のフレームメモリ18以降の動作と同じであるので、これ以上の説明を省略する。復号化装置216で復号化された映像データを記録媒体38に記録しないので、動画符号化装置32は省略されている。映像取込み装置214で取り込んだ映像信号を録画する場合には、勿論、動画符号化装置32を設ければよい。   Since the operation after the frame memory 18 is the same as the operation after the frame memory 18 of the first embodiment, further explanation is omitted. Since the video data decoded by the decoding device 216 is not recorded on the recording medium 38, the moving image encoding device 32 is omitted. When recording the video signal captured by the video capture device 214, of course, the moving image encoding device 32 may be provided.

実施例1、2では、切出した静止画で、顔が見えない人物の顔画像データを静止画ファイルに埋め込んだ。しかし、この方法では、顔画像データを埋め込む領域の容量に制限があるので、顔が見えない人物が増えると、対応できなくなる。この問題を解決するには、顔画像データを別ファイル化してもよい。別の解決法として、通信手段を介してアクセス可能なサーバに顔画像データをアップロードしておき、そのサーバに保存された顔画像データにアクセスするための記録位置情報(パス)を静止画に埋め込むか、関連付けてもよい。   In the first and second embodiments, face image data of a person whose face is not visible in the cut out still image is embedded in the still image file. However, with this method, the capacity of the area in which the face image data is embedded is limited, so that it becomes impossible to cope with an increase in the number of persons who cannot see their faces. In order to solve this problem, the face image data may be converted into a separate file. As another solution, face image data is uploaded to a server accessible via communication means, and recording position information (path) for accessing the face image data stored in the server is embedded in the still image. Or may be associated.

図11は、そのように図1に示す実施例を変更した構成の概略構成ブロック図を示す。図11に示す撮像装置10aには、通信装置44が追加されている。顔画像保持装置24aは、適宜に、保持する顔画像情報を通信装置44を介して顔画像サーバ46にFTP(File Transfer Protocol)等を使ってアップロードし、顔画像サーバ46から顔情報をダウンロードする。   FIG. 11 shows a schematic block diagram of a configuration in which the embodiment shown in FIG. A communication device 44 is added to the imaging device 10a illustrated in FIG. The face image holding device 24a appropriately uploads the held face image information to the face image server 46 via the communication device 44 using FTP (File Transfer Protocol) or the like, and downloads the face information from the face image server 46. .

図12は、本実施例により静止画記録動作のフローチャートを示す。ステップS11〜S14は、図7と同じである。図7のステップS15の代わりに、顔画像保持装置24aは、顔追跡領域に関連付けられた顔情報を、通信装置44を介して顔画像サーバ46にアップロードし(S15a)。そして、顔画像サーバ46上でのパスを取得し、顔画像へのパスと、顔領域の情報(座標値と幅、高さ)を顔領域・画像特定装置26aに供給する。顔領域・画像特定装置26aは、顔画像データの代わりにパスを静止画符号化装置34の所定エリアに埋め込ませる(S16a)。   FIG. 12 shows a flowchart of the still image recording operation according to this embodiment. Steps S11 to S14 are the same as those in FIG. Instead of step S15 in FIG. 7, the face image holding device 24a uploads the face information associated with the face tracking area to the face image server 46 via the communication device 44 (S15a). Then, the path on the face image server 46 is acquired, and the path to the face image and the face area information (coordinate values, width, height) are supplied to the face area / image specifying device 26a. The face area / image specifying device 26a embeds a path in a predetermined area of the still image encoding device 34 instead of the face image data (S16a).

このように、顔画像データの代わりに顔画像サーバ上のパスが埋め込まれたJPEGファイルが、記録媒体38に記録される(S17)。   In this way, the JPEG file in which the path on the face image server is embedded instead of the face image data is recorded on the recording medium 38 (S17).

本実施例では、顔画像データ(の圧縮データ)の代わりに顔画像サーバのパスを埋め込むので、正面を向いていない人物が複数人、又はより多くなっても、対応可能であり、静止画ファイルサイズの肥大化を防止できる。   In this embodiment, since the path of the face image server is embedded instead of the face image data (compressed data thereof), it is possible to cope with a plurality of people who are not facing the front or more people, and still image files Can prevent size enlargement.

本発明の第1実施例の概略構成ブロック図である。It is a schematic block diagram of the first embodiment of the present invention. 本実施例の外観斜視図である。It is an external appearance perspective view of a present Example. 本実施例の別の方向から見た外観斜視図である。It is the external appearance perspective view seen from another direction of a present Example. 顔情報の構成例を示す図である。It is a figure which shows the structural example of face information. 映像例である。It is a video example. 顔検出と追跡の動作フローチャートである。It is an operation | movement flowchart of face detection and tracking. 静止画記録動作のフローチャートである。It is a flowchart of a still image recording operation. 静止画ファイルのフォーマット例の説明図である。It is explanatory drawing of the example of a format of a still image file. 顔領域情報フォーマット例の説明図である。It is explanatory drawing of the example of a face area | region information format. 第2実施例の概略構成ブロック図である。It is a schematic block diagram of the second embodiment. 第3実施例の概略構成ブロック図である。It is a schematic block diagram of 3rd Example. 図11に示す実施例の静止画記録動作のフローチャートである。12 is a flowchart of a still image recording operation of the embodiment shown in FIG.

10,10a:撮像装置
12:撮影レンズ
14:撮像素子
16:カメラ信号処理回路
18:フレームメモリ
20:顔検出装置
22:顔領域追跡装置
24,24a:顔画像保持装置
26,26a:顔領域・画像特定装置
28:表示画像生成装置
30:表示装置
32:動画符号化装置
34:静止画符号化装置
36:記録媒体インターフェース
38:記録媒体
40:システム制御装置
44:通信装置
46:顔画像サーバ
110:本体
112:ズームスイッチ
114:レンズユニット
116:リストストラップ
118:液晶モニタ
120:ビューファインダ
122:モードダイアル
124:ポジションロックツマミ
126:アンロックツマミ(アンロック部材)
128:スタート/ストップボタン
130:十字ボタン
132:決定ボタン
134:キャンセルボタン
136:発光ダイオード(LED)
210:画像記録装置
214:映像取込み装置
216:復号化装置
218:フレームメモリ
DESCRIPTION OF SYMBOLS 10, 10a: Imaging device 12: Shooting lens 14: Image sensor 16: Camera signal processing circuit 18: Frame memory 20: Face detection device 22: Face area tracking device 24, 24a: Face image holding device 26, 26a: Face area Image specifying device 28: display image generating device 30: display device 32: moving image encoding device 34: still image encoding device 36: recording medium interface 38: recording medium 40: system control device 44: communication device 46: face image server 110 : Main body 112: Zoom switch 114: Lens unit 116: Wrist strap 118: LCD monitor 120: Viewfinder 122: Mode dial 124: Position lock knob 126: Unlock knob (unlock member)
128: Start / Stop button 130: Cross button 132: Enter button 134: Cancel button 136: Light emitting diode (LED)
210: Image recording device 214: Video capturing device 216: Decoding device 218: Frame memory

Claims (7)

一連のフレーム画像中の人物の顔を検出するとともに、前記人物の顔の識別情報を保持手段に保持させる検出手段と、
前記検出手段により検出されていた人物の顔が検出されなくなったことに応じて、一連のフレーム画像中の前記検出されなくなった人物の顔に対応する顔領域を追跡するとともに、前記追跡結果に基づいて、前記保持手段に保持された前記検出されなくなった人物の顔に対応する識別情報を更新する追跡手段と、
前記一連のフレーム画像中の指定されたフレーム画像から静止画を生成し、前記保持手段に保持された前記識別情報を前記静止画に関連付けて記録媒体に記録する記録手段
とを具備することを特徴とする画像記録装置。
Detecting means for detecting a person's face in a series of frame images , and holding information identifying the person's face in a holding means;
In response to the fact that the face of the person detected by the detection means is no longer detected, the face area corresponding to the face of the person not detected in the series of frame images is tracked, and based on the tracking result Tracking means for updating identification information corresponding to the face of the person that is no longer detected held in the holding means;
Recording means for generating a still image from a designated frame image in the series of frame images and recording the identification information held in the holding means on a recording medium in association with the still image. An image recording apparatus.
前記検出手段は、前記一連のフレーム画像中に検出された人物ごとに異なる識別情報を前記保持手段に保持させることを特徴とする請求項1に記載の画像記録装置。 The image recording apparatus according to claim 1, wherein the detection unit causes the holding unit to hold different identification information for each person detected in the series of frame images . 前記記録手段は、前記指定されたフレーム画像をJPEG方式で圧縮し、前記識別情報をJPEGフォーマットのアプリケーションデータセグメントに格納することを特徴とする請求項1又は2に記載の画像記録装置。 The image recording apparatus according to claim 1, wherein the recording unit compresses the designated frame image by a JPEG method, and stores the identification information in an application data segment in a JPEG format. 前記一連のフレーム画像は、光学像を画像信号に変換する撮像手段の出力であることを特徴とする請求項1から3の何れか1項に記載の画像記録装置。 The series of frame images, the image recording apparatus according to claims 1, wherein in any one of the three that the output of the image pickup means for converting an optical image into an image signal. 前記識別情報は、前記人物の顔に対応する顔領域の座標を示す情報を含むことを特徴とする請求項1から4のいずれか1項に記載の画像記録装置。The image recording apparatus according to claim 1, wherein the identification information includes information indicating coordinates of a face area corresponding to the face of the person. 前記識別情報は、前記人物の顔に対応する顔領域のサイズを示す情報を含むことを特徴とする請求項1から5のいずれか1項に記載の画像記録装置。The image recording apparatus according to claim 1, wherein the identification information includes information indicating a size of a face area corresponding to the face of the person. 前記識別情報は、前記検出手段により検出された人物の顔に対応する顔領域の画像データを含むことを特徴とする請求項1から6のいずれか1項に記載の画像記録装置。The image recording apparatus according to claim 1, wherein the identification information includes image data of a face area corresponding to a human face detected by the detection unit.
JP2009010384A 2009-01-20 2009-01-20 Image recording device Active JP5268671B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009010384A JP5268671B2 (en) 2009-01-20 2009-01-20 Image recording device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009010384A JP5268671B2 (en) 2009-01-20 2009-01-20 Image recording device

Publications (2)

Publication Number Publication Date
JP2010171550A JP2010171550A (en) 2010-08-05
JP5268671B2 true JP5268671B2 (en) 2013-08-21

Family

ID=42703272

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009010384A Active JP5268671B2 (en) 2009-01-20 2009-01-20 Image recording device

Country Status (1)

Country Link
JP (1) JP5268671B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5965037B2 (en) * 2015-07-23 2016-08-03 オリンパス株式会社 Photography equipment
JP6205464B2 (en) * 2016-06-30 2017-09-27 オリンパス株式会社 Photography equipment
WO2020115890A1 (en) * 2018-12-07 2020-06-11 日本電気株式会社 Information processing system, information processing device, information processing method, and program
JP7409172B2 (en) * 2020-03-12 2024-01-09 大日本印刷株式会社 image generation system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4830650B2 (en) * 2005-07-05 2011-12-07 オムロン株式会社 Tracking device
JP2007228453A (en) * 2006-02-27 2007-09-06 Casio Comput Co Ltd Imaging apparatus, reproduction device, program, and storage medium

Also Published As

Publication number Publication date
JP2010171550A (en) 2010-08-05

Similar Documents

Publication Publication Date Title
JP5056061B2 (en) Imaging device
US8111321B2 (en) Imaging device and method for its image processing, with face region and focus degree information
KR101056103B1 (en) Photographing apparatus, setting method of photographing conditions, and recording medium
JP4574459B2 (en) Image capturing apparatus, control method therefor, program, and storage medium
JP2008523650A (en) Wireless imaging device with biometric reader
US20110007187A1 (en) Imaging Device And Image Playback Device
JP2004208318A (en) Imaging apparatus and method for determining important area in archival image
US9357194B2 (en) Imaging apparatus for minimizing repetitive recording of moving image data of a similar scene on a recording medium
JP6402934B2 (en) MOVIE GENERATION DEVICE, MOVIE GENERATION METHOD, AND PROGRAM
JP2008252711A (en) Digital camera
JP5268671B2 (en) Image recording device
JPWO2015098110A1 (en) Imaging apparatus, imaging system, and imaging method
JP2004023617A (en) Recording device, recording and reproducing device, recordable information reporting method, computer readable program, and storage medium
JP5317710B2 (en) Image processing apparatus, control method therefor, program, and recording medium
JP2013239796A (en) Image processing device
JP2010081528A (en) Image processing apparatus, method and program
US8538247B2 (en) Image processing apparatus and image processing method
JP2015064768A (en) Imaging device, image modification device, and control method and program of imaging device and image modification device
JP2007228453A (en) Imaging apparatus, reproduction device, program, and storage medium
JP2012084052A (en) Imaging apparatus, control method and program
JP5045540B2 (en) Image recording apparatus, image recording method, image processing apparatus, image processing method, audio recording apparatus, and audio recording method
JP6355333B2 (en) Imaging apparatus, image processing apparatus, image processing method, and program
JP4154178B2 (en) Video camera
JP2004289785A (en) Camera apparatus for generating saliency signal
JP2011095980A (en) Electronic equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130507

R151 Written notification of patent or utility model registration

Ref document number: 5268671

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D03