JP4874167B2 - Image processing apparatus and imaging apparatus equipped with the same - Google Patents

Image processing apparatus and imaging apparatus equipped with the same Download PDF

Info

Publication number
JP4874167B2
JP4874167B2 JP2007134800A JP2007134800A JP4874167B2 JP 4874167 B2 JP4874167 B2 JP 4874167B2 JP 2007134800 A JP2007134800 A JP 2007134800A JP 2007134800 A JP2007134800 A JP 2007134800A JP 4874167 B2 JP4874167 B2 JP 4874167B2
Authority
JP
Japan
Prior art keywords
face
image
frame rate
evaluation value
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007134800A
Other languages
Japanese (ja)
Other versions
JP2008289104A (en
Inventor
次男 森
茂之 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2007134800A priority Critical patent/JP4874167B2/en
Publication of JP2008289104A publication Critical patent/JP2008289104A/en
Application granted granted Critical
Publication of JP4874167B2 publication Critical patent/JP4874167B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、顔など、特定のオブジェクトを検出することができる画像処理装置およびそれを搭載した撮像装置に関する。   The present invention relates to an image processing apparatus capable of detecting a specific object such as a face and an imaging apparatus equipped with the image processing apparatus.

デジタルビデオカメラが広く普及してきており、今まで以上に、一般ユーザが動画像を手軽に撮影できるようになってきている。一般ユーザは、運動会で走る子供など、動いている被写体を撮影することが多い。その際、走っている子供の表情など、被写体を鮮明に記録したいという要求が強くなっている。これに対し、毎秒300コマなど、非常に高いフレームレートで撮像、記録するモードを搭載したデジタルビデオカメラなどが実用化されている。   Digital video cameras have become widespread, and it has become easier for general users to shoot moving images than ever before. A general user often photographs a moving subject such as a child running at an athletic meet. At that time, there is an increasing demand for clear recording of subjects such as facial expressions of running children. On the other hand, a digital video camera equipped with a mode for imaging and recording at a very high frame rate, such as 300 frames per second, has been put into practical use.

特許文献1は、顔検出技術を利用した撮像装置を開示する。
特開2006−237961号公報
Patent Document 1 discloses an imaging device that uses face detection technology.
JP 2006-233791 A

当然のことながら、高画質に撮像された動画像は、記録容量を圧迫してしまう。とくに、上述したような高いフレームレートで撮像された動画像では顕著である。そこで、高画質に撮像された動画像を効率的に符号化する技術が求められる。   As a matter of course, a moving image captured with high image quality presses the recording capacity. This is particularly noticeable in moving images captured at a high frame rate as described above. Therefore, a technique for efficiently encoding a moving image captured with high image quality is required.

本発明はこうした状況に鑑みなされたものであり、その目的は、ユーザの撮影意図を満たしつつ、符号量を削減することができる画像処理装置およびそれを搭載した撮像装置を提供することにある。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide an image processing apparatus capable of reducing the amount of codes while satisfying the user's shooting intention, and an imaging apparatus equipped with the image processing apparatus.

本発明のある態様の画像処理装置は、撮像された動画像から所定のオブジェクトを検出するオブジェクト検出部と、オブジェクト検出部による検出結果に応じて、フレームレートを適応的に変化させる制御部と、を備える。   An image processing apparatus according to an aspect of the present invention includes an object detection unit that detects a predetermined object from a captured moving image, a control unit that adaptively changes a frame rate according to a detection result by the object detection unit, Is provided.

なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, and the like are also effective as an aspect of the present invention.

本発明によれば、ユーザの意図を満たしつつ、符号量を削減することができる。   According to the present invention, the amount of codes can be reduced while satisfying the user's intention.

本発明の実施の形態は、ユーザが注目している被写体を高画質に記録しつつ、それ以外の領域を被写体より低画質に記録することにより、動画像全体の符号量が増大することを抑制する技術である。この技術がとくに有効なのは、高速撮影モードおよび連写モードである。高速撮影モードは、毎秒300コマなど、非常に高いフレームレートで撮影するモードである。このモードで撮像された動画像は、スロー再生しても滑らかな映像となる。連写モードは、静止画を連続して撮影するモードである。各静止画の解像度は、動画像モードで撮影された動画像を組成する一枚の画像より高く設定される。連写モードの一つとして、撮像条件を変化させながら連写するスパイラル連写モードがある。このモードは、最適な撮像条件の探索に利用される。   The embodiment of the present invention suppresses the increase in the code amount of the entire moving image by recording the subject that the user is paying attention to with high image quality and recording the other areas with lower image quality than the subject. Technology. This technique is particularly effective in high-speed shooting mode and continuous shooting mode. The high-speed shooting mode is a mode for shooting at a very high frame rate such as 300 frames per second. A moving image captured in this mode becomes a smooth image even when slow playback is performed. The continuous shooting mode is a mode for continuously capturing still images. The resolution of each still image is set higher than a single image that composes a moving image shot in the moving image mode. As one of the continuous shooting modes, there is a spiral continuous shooting mode in which continuous shooting is performed while changing imaging conditions. This mode is used for searching for an optimum imaging condition.

高速撮影モードおよび連写モードに共通する課題は、撮像した画像を記録する際の符号量が増大してしまう点である。本発明の実施の形態は、この課題を有効に解決することができる。もちろん、本発明の実施の形態はそれ以外のモードでの撮影にも適用可能であるが、以下、高速撮影モードに適用される例を中心に説明する。また、本発明の実施の形態は、オブジェクト検出技術を利用するが、オブジェクトの検出として人物の顔を検出する例を説明する。なお、オブジェクトの検出は、人間の顔の検出に限定されるものではなく、犬や猫などペットの顔の検出や、自動車、電車および船舶など物体の検出であってもよい。   A problem common to the high-speed shooting mode and the continuous shooting mode is that the amount of code when recording a captured image increases. The embodiment of the present invention can effectively solve this problem. Of course, the embodiment of the present invention can also be applied to shooting in other modes, but the following description will focus on examples applied to the high-speed shooting mode. Further, although an embodiment of the present invention uses an object detection technique, an example in which a human face is detected as an object detection will be described. Note that the detection of an object is not limited to detection of a human face, but may be detection of a pet's face such as a dog or cat, or detection of an object such as a car, train or ship.

図1は、実施の形態1に係る撮像装置500の構成図である。実施の形態1に係る撮像装置500は、撮像部10、画像処理部100、記録部16、操作部18および表示部19を備える。撮像部10は、撮像素子12および信号処理部14を含む。画像処理部100は、制御部20、符号化部22および顔検出部24を含む。画像処理部100の構成は、ハードウェア的には、任意のコンピュータのCPU、メモリ、その他のLSIで実現でき、ソフトウェア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは、当業者には理解されるところである。   FIG. 1 is a configuration diagram of an imaging apparatus 500 according to the first embodiment. The imaging apparatus 500 according to Embodiment 1 includes an imaging unit 10, an image processing unit 100, a recording unit 16, an operation unit 18, and a display unit 19. The imaging unit 10 includes an imaging element 12 and a signal processing unit 14. The image processing unit 100 includes a control unit 20, an encoding unit 22, and a face detection unit 24. The configuration of the image processing unit 100 can be realized in terms of hardware by a CPU, memory, or other LSI of an arbitrary computer, and is realized in terms of software by a program loaded in the memory. Describes functional blocks realized through collaboration. Therefore, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.

撮像素子12は、CCD(Charge Coupled Devices)センサまたはCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサで構成され、受光した信号を電気信号に変換し、信号処理部14に出力する。   The imaging device 12 is configured by a CCD (Charge Coupled Devices) sensor or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor, converts a received signal into an electrical signal, and outputs the electrical signal to the signal processing unit 14.

信号処理部14は、撮像素子12から出力されたRGBフォーマットのアナログ信号を、YUVフォーマットのデジタル信号に変換する。信号処理部14は、変換後の画像信号を画像処理部100に出力する。より具体的には、符号化部22および顔検出部24にフレーム単位で並列に出力する。   The signal processing unit 14 converts the RGB format analog signal output from the image sensor 12 into a YUV format digital signal. The signal processing unit 14 outputs the converted image signal to the image processing unit 100. More specifically, the data is output in parallel to the encoding unit 22 and the face detection unit 24 in units of frames.

顔検出部24は、撮像部10で撮像され、入力された動画像から人物の顔を検出する。顔検出部24は、人物を検出するための複数のパターンデータを辞書データとして持ち、それらのパターンデータと一致または近似する領域を対象フレーム内で探索し、照合することにより人物の顔を検出する。   The face detection unit 24 detects the face of a person from the moving image captured and input by the imaging unit 10. The face detection unit 24 has a plurality of pattern data for detecting a person as dictionary data, searches a target frame for an area that matches or approximates the pattern data, and detects the face of the person by matching. .

ここで、顔検出は、公知の方法で行えばよく、とくに限定されるものではない。たとえば、エッジ検出法、ブースティング法、色相抽出法または肌色抽出法による顔検出方法を用いることができる。エッジ検出法は、あらかじめ顔の大きさや濃淡値を正規化した顔画像の目、鼻、口、顔の輪郭などを含む顔領域から様々なエッジ特徴を抽出し、顔であるか否かを識別するのに有効な特徴量を統計的手法に基づき学習することにより顔識別器を構築する。   Here, the face detection may be performed by a known method, and is not particularly limited. For example, a face detection method based on an edge detection method, a boosting method, a hue extraction method, or a skin color extraction method can be used. The edge detection method extracts various edge features from the face area including the face, eyes, nose, mouth, face outline, etc. of the face image that has been normalized in advance for face size and gray value, and identifies whether it is a face A face discriminator is constructed by learning feature quantities that are effective for this purpose based on statistical methods.

入力画像の中から顔を検出するために、学習の際に正規化した顔サイズで入力画像の端からラスタスキャンしながら、同様な特徴量を抽出する。その特徴量から、識別器によりその領域が顔か否か判断する。特徴量には、例えば、水平エッジ、垂直エッジ、右斜めエッジ、左斜めエッジなどを用いることができる。顔が検出されなければ、入力画像を一定の割合で縮小し、縮小後の画像に対して、上記と同様にラスタスキャンしながら顔を検索する。このような処理を繰り返すことにより、画像中から任意の大きさの顔を見つけることができる。   In order to detect a face from the input image, similar feature amounts are extracted while performing raster scanning from the end of the input image with the face size normalized during learning. From the feature amount, the discriminator determines whether the region is a face. As the feature amount, for example, a horizontal edge, a vertical edge, a right oblique edge, a left oblique edge, or the like can be used. If no face is detected, the input image is reduced at a certain rate, and the face is searched for the reduced image while performing raster scanning in the same manner as described above. By repeating such processing, a face of any size can be found in the image.

また、エッジ検出法より精度は低くなるが高速処理したい場合、ブースティング法を用いてもよい。ブースティング法は、エッジを用いずに、目鼻などの顔の陰影をあらかじめ登録された顔検出パターンの陰影と比較することにより、画像中から顔を検出する。   Further, although the accuracy is lower than that of the edge detection method, the boosting method may be used when high-speed processing is desired. The boosting method detects a face from an image by comparing a shadow of a face such as an eye and nose with a shadow of a face detection pattern registered in advance without using an edge.

その他の顔検出方法として以下のような方法を用いてもよい。顔候補領域を抽出して、この顔候補領域を小領域に分割して、各領域の特徴量を予め設定した顔領域パターンと照合して、その確度から顔領域を抽出する方法、もしくは顔候補領域を抽出して、各候補領域の重複度から確度を評価して顔領域を抽出する方法を用いてもよい。さらに、顔候補領域を抽出して、各候補領域の濃度が所定の閾値に対応する値である場合に、胴体候補領域を抽出し、顔および胴体候補領域の濃度または彩度コントラストを用いて確度を評価して、顔領域を抽出する方法を用いてもよい。   The following methods may be used as other face detection methods. A method for extracting a face candidate area, dividing the face candidate area into small areas, comparing the feature amount of each area with a preset face area pattern, and extracting a face area from the accuracy, or a face candidate A method may be used in which a region is extracted and the face region is extracted by evaluating the accuracy from the degree of overlap of each candidate region. Furthermore, when face candidate areas are extracted and the density of each candidate area is a value corresponding to a predetermined threshold, the body candidate areas are extracted, and accuracy is determined using the density or saturation contrast of the face and body candidate areas. May be used to extract a face region.

顔検出部24は、顔検出処理の結果を制御部20に通知する。本実施の形態では、フレームごとに顔の有無を通知すればよい。また、フレームごとに通知するのではなく、顔の有無が変化したときのみ通知してもよい。この場合、処理量を削減することができる。なお、顔検出処理は、必ずしもすべてのフレームに対して行う必要はなく、数フレームおきに行ってもよい。この場合も、処理量を削減することができる。   The face detection unit 24 notifies the control unit 20 of the result of the face detection process. In this embodiment, the presence / absence of a face may be notified for each frame. Further, instead of notifying every frame, it may be notified only when the presence or absence of a face changes. In this case, the processing amount can be reduced. The face detection process does not necessarily have to be performed for every frame, and may be performed every few frames. Also in this case, the processing amount can be reduced.

制御部20は、顔検出部24による検出結果に応じて、フレームレートを適応的に変化させる。ここで、フレームレートとは、単位時間あたりに撮像すべきフレーム数、単位時間あたりに符号化すべきフレーム数、および単位時間あたりに記録すべきフレーム数のいずれでもよい。単位時間あたりに撮像すべきフレーム数の場合、制御部20は、撮像部10に指示して、シャッター回数を所定の値に設定する。符号化すべきフレーム数または記録すべきフレーム数の場合、撮像部10は、符号化部22に指示して、符号化すべきフレーム数の割合、または記録すべきフレームの割合を設定する。   The control unit 20 adaptively changes the frame rate according to the detection result by the face detection unit 24. Here, the frame rate may be any of the number of frames to be imaged per unit time, the number of frames to be encoded per unit time, and the number of frames to be recorded per unit time. In the case of the number of frames to be imaged per unit time, the control unit 20 instructs the imaging unit 10 to set the number of shutters to a predetermined value. In the case of the number of frames to be encoded or the number of frames to be recorded, the imaging unit 10 instructs the encoding unit 22 to set the ratio of the number of frames to be encoded or the ratio of the frames to be recorded.

制御部20は、適応的な制御として、動画像内に顔を検出している状態から顔を検出しない状態に移行すると、顔を検出している状態のフレームレートより、低いフレームレートに切り換える。反対に、顔を検出しない状態から顔を検出している状態に移行すると、その低いフレームレートから顔を検出している状態のフレームレートに切り換える。   When the control unit 20 shifts from a state in which a face is detected in a moving image to a state in which a face is not detected as adaptive control, the control unit 20 switches to a frame rate lower than the frame rate in the state in which the face is detected. On the other hand, when the state is shifted from the state where no face is detected to the state where a face is detected, the frame rate is switched from the low frame rate to the state where the face is detected.

高速撮影モードを前提にすると、顔を検出している状態のフレームレートは、高画質に記録されるため、毎秒300コマなど高いフレームレートに設定される。顔を検出しない状態のフレームレートは、そこまで高画質に記録される必要性が低いため、毎秒60コマ、毎秒120コマなど顔を検出している状態より低いフレームレートに設定される。   Assuming the high-speed shooting mode, the frame rate when the face is detected is set to a high frame rate, such as 300 frames per second, because it is recorded with high image quality. The frame rate in a state where no face is detected is set to a lower frame rate than the state in which a face is detected, such as 60 frames per second and 120 frames per second, because there is little need to record so high.

符号化部22は、信号処理部14から入力される画像信号を、所定の規格に準拠し圧縮符号化する。たとえば、国際標準化機関であるISO(International Organization for Standardization)/IEC(International Electrotechnical Commission)によって標準化されたMPEGシリーズの規格(MPEG−1、MPEG−2およびMPEG−4)、電気通信に関する国際標準機関であるITU−T(International Telecommunication Union-Telecommunication Standardization Sector)によって標準化されたH.26xシリーズの規格(H.261、H.262およびH.263)、もしくは両方の標準化機関によって合同で標準化された動画像圧縮符号化標準規格であるH.264/AVC(両機関における正式勧告名はそれぞれMPEG-4 Part 10: Advanced Video CodingとH.264)に準拠して動画像の符号化を行う。   The encoding unit 22 compresses and encodes the image signal input from the signal processing unit 14 in accordance with a predetermined standard. For example, the standards of the MPEG series (MPEG-1, MPEG-2 and MPEG-4) standardized by the ISO (International Organization for Standardization) / IEC (International Electrotechnical Commission), and the international standards organizations related to telecommunications H.264 standardized by an ITU-T (International Telecommunication Union-Telecommunication Standardization Sector). H.26x series standards (H.261, H.262 and H.263), or H.264, which is a video compression coding standard standardized jointly by both standards organizations. H.264 / AVC (official recommendation names in both organizations are MPEG-4 Part 10: Advanced Video Coding and H.264 respectively).

符号化部22は、符号化した動画像データを記録部16に記録する。符号化部22は、制御部20から指示を受けて、符号化すべきフレームまたは記録すべきフレームの割合を変化させる。   The encoding unit 22 records the encoded moving image data in the recording unit 16. In response to an instruction from the control unit 20, the encoding unit 22 changes the ratio of frames to be encoded or frames to be recorded.

記録部16は、メモリーカードスロット、光ディスク、またはHDDを備え、撮像された動画像などを記録媒体に記録する。操作部18は、シャッターボタンおよび各種設定用のボタンまたはキーを備え、ユーザからの指示を受け付け、制御部20に伝達する。本実施の形態では、ユーザから高速撮影モードで動作するよう指示を受け付けた場合、その指示を制御部20に伝達する。表示部19は、撮像中の画像や、記録部16に記録された画像を表示したり、各種の設定画面や各種のステータス情報などを表示する。   The recording unit 16 includes a memory card slot, an optical disc, or an HDD, and records a captured moving image on a recording medium. The operation unit 18 includes a shutter button and various setting buttons or keys, receives an instruction from the user, and transmits the instruction to the control unit 20. In the present embodiment, when an instruction is received from the user to operate in the high-speed shooting mode, the instruction is transmitted to the control unit 20. The display unit 19 displays an image being picked up and an image recorded in the recording unit 16, and displays various setting screens and various status information.

図2は、顔検出の有無によりフレームレートを適応的に切り換える様子を示す図である。画像30、画像32および画像34は、動画像を組成する画像を示し、時間経過順に示している。画像30は、人物Aがフレーム内に存在せず、人物Aの顔が検出されない状態を示す。画像32は、人物Aがフレーム内に存在し、人物Aの顔を含む領域Fと上記パターンデータの一つとの間に所定の設定値を超える一致度が得られた状態を示す。画像34は、人物Aがフレーム内に存在せず、人物のAの顔が検出されない状態を示す。   FIG. 2 is a diagram illustrating a state in which the frame rate is adaptively switched depending on the presence or absence of face detection. An image 30, an image 32, and an image 34 show images that compose a moving image, and are shown in order of time passage. The image 30 shows a state where the person A is not present in the frame and the face of the person A is not detected. The image 32 shows a state in which the person A exists in the frame, and a degree of coincidence exceeding a predetermined set value is obtained between the area F including the face of the person A and one of the pattern data. The image 34 shows a state in which the person A does not exist in the frame and the face of the person A is not detected.

人物Aの顔が含まれる画像32のフレームレートは、人物Aの顔が含まれない画像30、34のフレームレートより高く設定される。たとえば、人物Aの顔がフレームに収まる前の段階では、制御部20はフレームレートを毎秒60コマや毎秒120コマに設定し、人物Aの顔がフレームに収まると、フレームレートを毎秒300コマに設定し、人物Aの顔がフレームから外れると、フレームレートを毎秒60コマや毎秒120コマに再度設定する。   The frame rate of the image 32 including the face of the person A is set higher than the frame rate of the images 30 and 34 not including the face of the person A. For example, before the face of the person A fits in the frame, the control unit 20 sets the frame rate to 60 frames per second or 120 frames per second, and when the face of the person A fits in the frame, the frame rate is set to 300 frames per second. When the person A's face is out of the frame, the frame rate is set again to 60 frames per second or 120 frames per second.

図3は、実施の形態1に係る画像処理部100の動作を示すフローチャートである。顔検出部24は、入力される動画像を組成する各フレーム内から、顔を検出するためのパターンデータと所定の設定値を超える一致度の領域を探索する(S10)。制御部20は、顔検出の有無を判定し(S12)、検出した場合(S12のY)、高いフレームレートで記録するよう符号化部22を制御し(S14)、検出できない場合(S12のN)、低いフレームレートで記録するよう符号化部22を制御する(S16)。   FIG. 3 is a flowchart showing the operation of the image processing unit 100 according to the first embodiment. The face detection unit 24 searches the pattern data for detecting the face from the frames composing the input moving image and searches for a region having a matching degree exceeding a predetermined set value (S10). The control unit 20 determines the presence / absence of face detection (S12), and if detected (Y of S12), controls the encoding unit 22 to record at a high frame rate (S14), and cannot detect (N of S12) ), The encoder 22 is controlled to record at a low frame rate (S16).

以上説明したように実施の形態1によれば、顔検出の有無に応じてフレームレートを適応的に変化させることにより、ユーザの画質に対する要求を満たしつつ、符号量を削減することができる。すなわち、顔が検出された状態では高フレームレートで記録し、検出されない状態では低フレームレートで記録する。顔はユーザが高画質に記録したいと望むオブジェクトである。実施の形態1では、顔が写ったシーンを高画質に記録しつつ、顔が写っていないシーンでは符号量を削減することができる。   As described above, according to the first embodiment, the code amount can be reduced while satisfying the user's requirement for image quality by adaptively changing the frame rate according to the presence or absence of face detection. That is, recording is performed at a high frame rate when a face is detected, and recording is performed at a low frame rate when no face is detected. The face is an object that the user wants to record with high image quality. In the first embodiment, it is possible to record a scene with a face with high image quality and reduce the amount of codes in a scene without a face.

とくに、符号量削減の要請が強い高速撮影モードおよび連写モードに有効である。たとえば、高速撮影モードはスポーツ撮影に適しており、被写体が登場する前から撮影を開始すれば、登場前の符号量を削減しつつ、登場すると即座に高画質での記録を開始することができる。   This is particularly effective in high-speed shooting mode and continuous shooting mode where there is a strong demand for code amount reduction. For example, the high-speed shooting mode is suitable for sports shooting, and if you start shooting before the subject appears, you can start recording with high image quality as soon as it appears while reducing the amount of code before the subject appears. .

図4は、実施の形態2に係る撮像装置600の構成図である。実施の形態2に係る撮像装置600は、実施の形態1に係る撮像装置500と基本部分は同一である。以下、相違点について説明する。   FIG. 4 is a configuration diagram of an imaging apparatus 600 according to the second embodiment. The imaging apparatus 600 according to the second embodiment has the same basic part as the imaging apparatus 500 according to the first embodiment. Hereinafter, differences will be described.

実施の形態2に係る画像処理部110は、実施の形態1に係る画像処理部100の構成要素に加えて、検出態様/評価値変換テーブル26(以下、第1テーブルと表記する)および評価値/フレームレート変換テーブル28(以下、第2テーブルと表記する)を含む。   In addition to the components of the image processing unit 100 according to the first embodiment, the image processing unit 110 according to the second embodiment includes a detection mode / evaluation value conversion table 26 (hereinafter referred to as a first table) and an evaluation value. / Frame rate conversion table 28 (hereinafter referred to as the second table).

第1テーブル26は、顔の検出態様と評価値とを関連付けて管理する。第1テーブル26は、撮影モードに応じて異なる評価値を持つ。すなわち、撮影モードに応じて、同じ顔の検出態様でも異なる評価値となる。第2テーブル28は、当該評価値とフレームレートとを関連付けて管理する。顔検出部24は、顔の検出有無だけでなく、顔の検出態様についても特定する。顔の検出態様の具体例については後述する。制御部20は、第1テーブル26および第2テーブル28を参照して、顔の検出態様に応じたフレームレートを特定し、そのフレームレートに現在のフレームレートから切り換えるよう符号化部22に指示する。   The first table 26 associates and manages face detection modes and evaluation values. The first table 26 has different evaluation values depending on the shooting mode. That is, depending on the shooting mode, the same face detection mode has different evaluation values. The second table 28 manages the evaluation value and the frame rate in association with each other. The face detection unit 24 specifies not only the presence / absence of face detection but also the face detection mode. A specific example of the face detection mode will be described later. The control unit 20 refers to the first table 26 and the second table 28, specifies the frame rate according to the face detection mode, and instructs the encoding unit 22 to switch to the frame rate from the current frame rate. .

図5は、第1テーブル26の一例を示す図である。ここでは、顔の検出態様を、「顔検出数」、「顔の確からしさ」、「顔の向き」、および「顔の大きさ」の四つの項目で表している。なお、顔の検出態様を表す項目として、これらの少なくとも一つが含まれていればよい。   FIG. 5 is a diagram illustrating an example of the first table 26. Here, the face detection mode is represented by four items of “number of face detections”, “probability of face”, “face orientation”, and “face size”. It should be noted that at least one of these may be included as an item representing the face detection mode.

図5(a)は、ポートレードモード(一人に設定)における第1テーブル26の一例を示す図である。「顔検出数」は同一画面内における顔検出数を評価する項目である。ポートレードモード(一人に設定)は人物一人を撮影するためのモードであるから、同一画面内に顔が一つも検出できない状態や二つ以上検出される状態は、ユーザが意図している状態ではなく、評価値は0点となる。同一画面内に顔が一つ検出される状態は、意図している状態であり、評価値は最高の5点となる。   FIG. 5A is a diagram illustrating an example of the first table 26 in the potade mode (set to one person). “Number of detected faces” is an item for evaluating the number of detected faces in the same screen. Since the Po Trade mode (set to one person) is a mode for shooting one person, a state where no face is detected on the same screen or two or more faces are detected in the state intended by the user. The evaluation value is 0 points. The state in which one face is detected in the same screen is the intended state, and the evaluation value is a maximum of 5 points.

「顔の確からしさ」は、パターンデータとの一致度を評価する項目である。一致度が0.5未満のとき評価値が0点となり、0.5以上0.8以下のとき評価値が3点となり、0.8を超えるとき評価値が5点となる。当然、一致度が高いほど高得点となる。   “Faisiness of face” is an item for evaluating the degree of coincidence with pattern data. When the degree of coincidence is less than 0.5, the evaluation value is 0 point, when the degree of matching is 0.5 or more and 0.8 or less, the evaluation value is 3 points, and when it exceeds 0.8, the evaluation value is 5 points. Of course, the higher the degree of coincidence, the higher the score.

「顔の向き」は、正面を向いているか、側面を向いているかを評価する項目である。顔の向きを検出するには、正面顔のパターンデータと側面顔のパターンデータをあらかじめ準備して、それぞれと照合すればよい。たま、眼の検出数が二のとき正面顔と判定し、一のとき側面顔と判定してもよい。正面顔のとき評価値が5点とり、側面顔のとき評価値が3点となる。当然、正面顔のほうが高得点となる。   The “face orientation” is an item for evaluating whether the face is facing the front or the side. In order to detect the face orientation, front face pattern data and side face pattern data may be prepared in advance and collated with each other. Occasionally, the front face may be determined when the number of detected eyes is two, and the side face may be determined when the number is one. The evaluation value is 5 points for the front face and 3 points for the side face. Of course, the front face has a higher score.

「顔の大きさ」は、画面全体に対する相対的な大きさを評価する項目である。「顔の大きさ」は、画面全体の大きさと画面内で検出された顔の大きさとの比率が算出されることにより、求められる。画面全体に対して顔の占める面積が2%未満のとき評価値が1点となり、2%以上10%以下のとき評価値が2点となり、10%を超えるとき評価値が3点となる。当然、大きいほど高得点となる。制御部20は、各項目の得点をすべて加算することにより、対象画像における顔の検出態様を評価値に変換する。   “Face size” is an item for evaluating the relative size of the entire screen. The “face size” is obtained by calculating the ratio between the size of the entire screen and the size of the face detected in the screen. When the area occupied by the face with respect to the entire screen is less than 2%, the evaluation value is 1 point. When the area is 2% or more and 10% or less, the evaluation value is 2 points. When the area exceeds 10%, the evaluation value is 3 points. Naturally, the larger the score, the higher the score. The control unit 20 converts the face detection mode in the target image into an evaluation value by adding all the scores of each item.

図5(b)は、ポートレードモード{n(nは二以上の整数)人に設定}における第1テーブル26の一例を示す図である。「顔検出数」について、ポートレードモード(n人に設定)は人物n人を撮影するためのモードであるから、同一画面内にn個以外{0〜(n−1)、n+1<}の顔が検出される状態はユーザが意図している状態ではなく、検出されたすべての顔について評価値は0点となる。同一画面内に顔がn個検出される状態は意図している状態であり、検出されたすべての顔について評価値は最高の5点となる。   FIG. 5B is a diagram illustrating an example of the first table 26 in the potade mode {set to n (n is an integer of 2 or more)}. With regard to the “number of face detections”, the po trade mode (set to n persons) is a mode for photographing n persons, so that other than n in the same screen, {0 to (n−1), n + 1 <}. The state in which the face is detected is not the state intended by the user, and the evaluation value is 0 for all the detected faces. A state in which n faces are detected in the same screen is an intended state, and the maximum evaluation value is 5 for all the detected faces.

「顔の確からしさ」、「顔の向き」、および「顔の大きさ」は、図5(a)に示したポートレードモード(一人に設定)の場合と同様である。本モードでは、制御部20は、検出された顔のそれぞれについて、「顔検出数」の項目から得られる得点、「顔の確からしさ」の項目から得られる得点、「顔の向き」の項目から得られる得点、および「顔の大きさ」の項目から得られる得点を加算する。さらに、算出した顔ごとの合計得点をすべて合算し、その得点を検出数で割る。この得点を最終的な評価値とする。これにより、検出数の違いによる影響を評価値から取り除きつつ、顔の検出態様を評価値に変換することができる。   The “probability of face”, “face orientation”, and “face size” are the same as those in the portray mode (set to one person) shown in FIG. In this mode, for each detected face, the control unit 20 uses a score obtained from the item “number of detected faces”, a score obtained from the item “probability of face”, and an item “face orientation”. The obtained score and the score obtained from the item “face size” are added. Furthermore, all the calculated total scores for each face are added together, and the score is divided by the number of detections. This score is taken as the final evaluation value. Accordingly, the face detection mode can be converted into the evaluation value while removing the influence due to the difference in the number of detections from the evaluation value.

図5(c)は、集合写真モードにおける第1テーブル26の一例を示す図である。「顔検出数」の項目における得点は、検出された顔ごとに評価値として10点が与えられる。「顔の確からしさ」の評価は、図5(b)に示したポートレードモード(n人に設定)の場合と同様である。「顔の向き」は、正面顔のときその顔の得点に1.0を掛け、側面顔のときその顔の得点に0.5を掛ける。「顔の大きさ」は、画面全体に占める顔の面積が1%未満のときその顔の得点に0.5を掛け、1%以上2%以下のときその顔の得点に0.7を掛け、2%を超えるときその顔の得点に1.0を掛ける。集合写真ではもともと一人一人の顔は小さいが、とくに2%未満のときだけ重み付けを1未満にして評価を下げている。   FIG. 5C shows an example of the first table 26 in the group photo mode. As the score in the item “number of detected faces”, 10 points are given as evaluation values for each detected face. The evaluation of “probability of the face” is the same as in the case of the potade mode (set to n persons) shown in FIG. For the “face orientation”, the score of the face is multiplied by 1.0 when the face is a front face, and 0.5 is multiplied by the score of the face when the face is a side face. “Face size” is multiplied by 0.5 when the area of the face occupying the entire screen is less than 1%, and multiplied by 0.7 when the face score is between 1% and 2%. If it exceeds 2%, multiply the score on that face by 1.0. In the group photo, each face is originally small, but the evaluation is lowered by setting the weight to less than 1 only when it is less than 2%.

本モードでは、制御部20は、検出された顔のそれぞれについて、「顔検出数」の項目から得られると得点と「顔の確からしさ」の項目から得られる得点を合算し、その得点に、「顔の向き」の項目から得られる倍率、および「顔の大きさ」の項目から得られる倍率を掛けて、検出された顔のごとの得点を算出する。さらに、算出した顔ごとの得点をすべて合算し、その得点を検出数で割る。この得点を最終的な評価値とする。これにより、検出数の違いによる影響を評価値から取り除きつつ、顔の検出態様を評価値に変換することができる。なお、本モードでは、顔検出数が多いほど評価値が高くなりやすいように設定されている。集合写真では顔検出数が多いほど、意図している状態に近いと判定すべきだからである。   In this mode, for each detected face, the control unit 20 adds the score obtained from the item “number of detected faces” and the score obtained from the item “probability of face”, By multiplying the magnification obtained from the item “face orientation” and the magnification obtained from the item “face size”, a score for each detected face is calculated. Further, all the calculated scores for each face are added together, and the score is divided by the number of detections. This score is taken as the final evaluation value. Accordingly, the face detection mode can be converted into the evaluation value while removing the influence due to the difference in the number of detections from the evaluation value. In this mode, the evaluation value is set higher as the number of face detections increases. This is because in the group photo, the larger the number of face detections, the closer to the intended state.

なお、図5に示した顔検出態様を評価するための項目の内容、各項目の評価結果に対する得点、モードごとの得点の重み付けは、一例であり、設計者が任意に設定することができる。たとえば、まばたきの有無を顔検出態様を評価するための項目に含めてもよい。   Note that the contents of the items for evaluating the face detection mode shown in FIG. 5, the scores for the evaluation results of the items, and the weighting of the scores for each mode are examples, and the designer can arbitrarily set them. For example, the presence or absence of blinking may be included in the item for evaluating the face detection mode.

図6は、第2テーブル28の一例を示す図である。第2テーブル28は、第1テーブル26で求めた評価値をフレームレートに変換するためのテーブルである。ここでは、評価値に対する高速撮影モードおよび連写モードにおけるフレームレートを示している。   FIG. 6 is a diagram illustrating an example of the second table 28. The second table 28 is a table for converting the evaluation value obtained in the first table 26 into a frame rate. Here, the frame rate in the high-speed shooting mode and the continuous shooting mode with respect to the evaluation value is shown.

高速撮影モードでは、評価値が0〜5の範囲でフレームレートが30[fps]、評価値が5〜10の範囲でフレームレートが60[fps]、評価値が10〜15の範囲でフレームレートが120[fps]、および評価値が15〜20の範囲でフレームレートが300[fps]に設定される。   In the high-speed shooting mode, the frame rate is 30 [fps] when the evaluation value is in the range of 0 to 5, the frame rate is 60 [fps] when the evaluation value is in the range of 5 to 10, and the frame rate is within the range of the evaluation value is 10 to 15. Is set to 120 [fps], and the frame rate is set to 300 [fps] in an evaluation value range of 15 to 20.

連写モードでは、評価値が0〜5の範囲でフレームレートが1[fps]、評価値が5〜10の範囲でフレームレートが3[fps]、評価値が10〜15の範囲でフレームレートが5[fps]、および評価値が15〜20の範囲でフレームレートが10[fps]に設定される。   In the continuous shooting mode, the frame rate is 1 [fps] when the evaluation value is 0 to 5, the frame rate is 3 [fps] when the evaluation value is 5 to 10, and the frame rate is 10 to 15 when the evaluation value is 10 to 15. Is 5 [fps], and the frame rate is set to 10 [fps] in the range of 15 to 20 evaluation values.

評価値が高いほど、被写体とすべき人物が正面を向いてアップで写っている状態など、ユーザが高画質に記録したいと希望する状態に近い状態を示す。したがって、評価値が高いほど、フレームレートを高く設定し、高画質に記録する。   The higher the evaluation value, the closer to the state that the user desires to record with high image quality, such as a state in which the person to be the subject is facing up and appearing up. Therefore, the higher the evaluation value, the higher the frame rate is set and the higher the image quality is recorded.

図7は、評価値に応じてフレームレートを切り換える様子を示す図である。画像40、画像42および画像44は、動画像を組成する画像を示し、時間経過順に示している。画像40は、人物Aがフレーム内に存在せず、人物Aの顔が検出されない状態を示す。画像42は、人物Aがフレーム内に存在し、人物Aが側面を向いている状態を示す。画像44は、人物Aがフレーム内に存在し、人物のAが正面を向いている状態を示す。   FIG. 7 is a diagram illustrating how the frame rate is switched in accordance with the evaluation value. An image 40, an image 42, and an image 44 show images that compose a moving image, and are shown in order of time passage. The image 40 shows a state where the person A is not present in the frame and the face of the person A is not detected. The image 42 shows a state in which the person A exists in the frame and the person A faces the side. The image 44 shows a state in which the person A is present in the frame and the person A is facing the front.

図5に示したような第1テーブル26を参照して評価値を算出すると、画像40の評価値は一番低く、画像44の評価値が一番高く、画像42の評価値がその間になる。たとえば、高速撮影モードにて、制御部20は、画像40に切り換わるとフレームレートが30[fps]に設定し、画像42に切り換わると120[fps]に設定し、画像44に切り換わると300[fps]に設定する。   When the evaluation value is calculated with reference to the first table 26 as shown in FIG. 5, the evaluation value of the image 40 is the lowest, the evaluation value of the image 44 is the highest, and the evaluation value of the image 42 is between them. . For example, in the high-speed shooting mode, the control unit 20 sets the frame rate to 30 [fps] when switching to the image 40, sets to 120 [fps] when switching to the image 42, and switches to the image 44. Set to 300 [fps].

図8は、実施の形態2に係る画像処理部110の動作を示すフローチャートである。顔検出部24は、入力される動画像を組成する各フレーム内から、顔およびその検出態様を検出し、制御部20は、顔の検出態様を第1テーブル26を参照して、評価値に変換する(S20)。つぎにその評価値を第2テーブル28を参照して、フレームレートに変換し、符号化部22に設定する(S22)。撮影終了指示のない間(S24のN)、制御部20は、ステップS20に遷移し、同様の処理を繰り返す。第1テーブル26において、評価値が各クラスの範囲にとどまる限り、フレームレートが維持される。評価値が各クラスの範囲を超えて変化した場合、フレームレートが変更される。   FIG. 8 is a flowchart showing the operation of the image processing unit 110 according to the second embodiment. The face detection unit 24 detects a face and its detection mode from within each frame composing the input moving image, and the control unit 20 refers to the first table 26 to determine the face detection mode as an evaluation value. Conversion is performed (S20). Next, the evaluation value is converted into a frame rate with reference to the second table 28 and set in the encoding unit 22 (S22). While there is no shooting end instruction (N in S24), the control unit 20 transitions to Step S20 and repeats the same processing. In the first table 26, the frame rate is maintained as long as the evaluation value remains within the range of each class. When the evaluation value changes beyond the range of each class, the frame rate is changed.

以上説明したように実施の形態2によれば、顔検出態様の評価値に応じてフレームレートを変化させることにより、画質と符号量のバランスを実施の形態1より最適化することができる。たとえば、正面を向いて大きく写っているシーンを最も高画質に記録し、側面を向いて小さく写っているシーンをそれより低い画質で記録し、顔が写っていないシーンを最も低画質に記録することが可能である。このような処理により、ユーザの画質に対する要求を満たしつつ、符号量を削減することができる。   As described above, according to the second embodiment, the balance between the image quality and the code amount can be optimized as compared with the first embodiment by changing the frame rate according to the evaluation value of the face detection mode. For example, record a scene that is large and facing the front with the highest image quality, record a scene that is small and facing the side with a lower image quality, and record a scene with no face in the lowest image quality. It is possible. By such processing, it is possible to reduce the code amount while satisfying the user's request for image quality.

また、撮影モードごとに評価値を設定することにより、ユーザの撮影意図を満たしつつ、符号量を削減することができる。たとえば、一人撮影用のポートレードモードでは、画像内に複数の人物が写る状況はユーザの意図する状況ではなく、その場合、評価値が低くなるように設定すれば、不必要な符号量の増大を抑制することができる。これに対し、多人数撮影用の集合写真モードでは、顔が前列の人に隠れているなど、画像内に少数の顔しか写っていない状況はユーザの意図する状況ではない。集合写真モードでは、画像内に顔が多く写っているほど、評価値が高くなるように設定すれば、ユーザの意図を満たしつつ、不必要な符号量の増大を抑制することができる。   Also, by setting an evaluation value for each shooting mode, the code amount can be reduced while satisfying the user's shooting intention. For example, in the po trade mode for single shooting, the situation in which a plurality of persons are captured in the image is not the situation intended by the user. In this case, if the evaluation value is set to be low, the amount of unnecessary code increases. Can be suppressed. On the other hand, in the group photo mode for multi-person photographing, a situation where only a small number of faces are shown in the image, such as a face hidden behind a person in the front row, is not a situation intended by the user. In the group photo mode, if the evaluation value is set so as to increase as more faces appear in the image, an unnecessary increase in code amount can be suppressed while satisfying the user's intention.

図9は、実施の形態3に係る撮像装置700の構成図である。実施の形態3に係る撮像装置700は、実施の形態2に係る撮像装置600と大部分の構成が同じであり、以下、相違点について説明する。   FIG. 9 is a configuration diagram of an imaging apparatus 700 according to the third embodiment. The imaging apparatus 700 according to the third embodiment has the same configuration as that of the imaging apparatus 600 according to the second embodiment, and differences will be described below.

実施の形態3に係る画像処理部120は、実施の形態2に係る画像処理部120の評価値/フレームレート変換テーブル28の代わりに評価値/ビットレート変換テーブル29を含む。   The image processing unit 120 according to the third embodiment includes an evaluation value / bit rate conversion table 29 instead of the evaluation value / frame rate conversion table 28 of the image processing unit 120 according to the second embodiment.

第1テーブル26は、顔の検出態様と評価値とを関連付けて管理する。実施の形態3では、画像全体の評価値を算出する必要はなく、顔を検出した領域ごとに評価値を算出すればよい。したがって、顔ごとの評価値を合算し、検出数で割る処理は不要である。評価値/ビットレート変換テーブル29は、当該評価値と注目領域(ROI;Region Of Interest)のビットレートとを関連付けて管理する。ここでのビットレートとは、注目領域の画素値を、離散コサイン変換係数やウェーブレット変換係数などの直交変換係数に変換する際のビットレートである。第2テーブル28と同様に、評価値が高いほど、ビットレートが高くなるように設計する。   The first table 26 associates and manages face detection modes and evaluation values. In Embodiment 3, it is not necessary to calculate the evaluation value of the entire image, and the evaluation value may be calculated for each area where the face is detected. Therefore, it is not necessary to add the evaluation values for each face and divide by the number of detections. The evaluation value / bit rate conversion table 29 manages the evaluation value and the bit rate of the region of interest (ROI) in association with each other. Here, the bit rate is a bit rate at the time of converting the pixel value of the region of interest into an orthogonal transform coefficient such as a discrete cosine transform coefficient or a wavelet transform coefficient. Similar to the second table 28, the bit rate is designed to be higher as the evaluation value is higher.

符号化部22は、顔を含む領域を注目領域に設定する。たとえば、顔探索のための窓枠と同じ大きさに設定してもよいし、それより上下左右に所定数の画素分、大きく設定してもよい。また、顔を複数検出した場合、顔ごとに注目領域を設定してもよいし、検出した複数の顔のうち、一部の顔について注目領域を設定してもよい。符号化部22は、注目領域の画素値を、直交変換係数に変換する際、制御部20から指示されたビットレートで変換する。高ビットレートが指定されると、注目領域を高画質で記録するこができ、低ビットレートが指定されると、注目領域の符号量を削減することができる。   The encoding unit 22 sets a region including a face as a region of interest. For example, it may be set to the same size as the window frame for the face search, or may be set larger by a predetermined number of pixels vertically and horizontally. When a plurality of faces are detected, an attention area may be set for each face, or attention areas may be set for some of the detected faces. The encoding unit 22 converts the pixel value of the region of interest at a bit rate instructed by the control unit 20 when converting the pixel value of the region of interest into an orthogonal transform coefficient. When the high bit rate is specified, the attention area can be recorded with high image quality, and when the low bit rate is specified, the code amount of the attention area can be reduced.

制御部20は、第1テーブル26および評価値/ビットレート変換テーブル29を参照して、顔の検出態様に応じたビットレートを特定し、そのビットレートで、顔を含む注目領域の画素値を係数に変換するよう符号化部22に指示する。また、同一フレーム内に複数の顔が検出された場合、顔ごとに注目領域を設定し、それぞれの顔の検出態様に応じたビットレートで、それぞれの注目領域の画素値を係数に変換するよう符号化部22に指示する。   The control unit 20 refers to the first table 26 and the evaluation value / bit rate conversion table 29, specifies the bit rate according to the face detection mode, and uses the bit rate to determine the pixel value of the region of interest including the face. Instructs the encoding unit 22 to convert to a coefficient. In addition, when a plurality of faces are detected in the same frame, an attention area is set for each face, and the pixel value of each attention area is converted into a coefficient at a bit rate corresponding to each face detection mode. An instruction is given to the encoding unit 22.

以上説明したように実施の形態3によれば、顔検出態様の評価値に応じて、画素値を係数に変換する際のビットレートを変化させることにより、注目すべきオブジェクトの画質と符号量のバランスを最適化することができる。たとえば、正面を向いている顔を最も高画質に記録し、側面を向いて顔をそれより低い画質で記録し、非注目領域を低画質に記録することが可能である。このような処理により、ユーザの画質に対する要求を満たしつつ、符号量を削減することができる。   As described above, according to the third embodiment, the image quality and code amount of the object to be noticed are changed by changing the bit rate when converting the pixel value into the coefficient according to the evaluation value of the face detection mode. The balance can be optimized. For example, it is possible to record the face facing the front with the highest image quality, record the face facing the side with a lower image quality, and record the non-attention area with the lower image quality. By such processing, it is possible to reduce the code amount while satisfying the user's request for image quality.

以上、本発明をいくつかの実施の形態をもとに説明した。これらの実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   The present invention has been described based on some embodiments. It is understood by those skilled in the art that these embodiments are exemplifications, and that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are also within the scope of the present invention. By the way.

上述した実施の形態では、顔の検出対象として人物の顔を想定したが、犬や猫など動物の顔でもよい。それぞれ、犬用のパターンデータ、猫用のパターンデータを登録しておけば、人物の顔の場合と同様の原理で実施可能である。なお、犬や猫などペットのパターンデータは、ユーザがペットを撮像し、撮像装置内でその画像から特徴点などを抽出して、パターンデータを生成してもよい。この場合、精度の高い、自分のペット用のパターンデータを容易に生成することができる。   In the embodiment described above, a human face is assumed as a face detection target, but an animal face such as a dog or a cat may be used. If the pattern data for dogs and the pattern data for cats are registered, it can be carried out according to the same principle as the case of a human face. Note that pattern data of pets such as dogs and cats may be generated by a user imaging a pet and extracting feature points or the like from the image within the imaging apparatus. In this case, it is possible to easily generate highly accurate pattern data for one's pet.

実施の形態1に係る撮像装置の構成図である。1 is a configuration diagram of an imaging apparatus according to Embodiment 1. FIG. 顔検出の有無によりフレームレートを適応的に切り換える様子を示す図である。It is a figure which shows a mode that a frame rate is switched adaptively with the presence or absence of face detection. 実施の形態1に係る画像処理部の動作を示すフローチャートである。3 is a flowchart illustrating an operation of the image processing unit according to the first embodiment. 実施の形態2に係る撮像装置の構成図である。3 is a configuration diagram of an imaging apparatus according to Embodiment 2. FIG. 図5(a)は、ポートレードモード(一人に設定)における第1テーブル26の一例を示す図である。図5(b)は、ポートレードモード{n(nは二以上の整数)人に設定}における第1テーブル26の一例を示す図である。図5(c)は、集合写真モードにおける第1テーブル26の一例を示す図である。FIG. 5A is a diagram illustrating an example of the first table 26 in the potade mode (set to one person). FIG. 5B is a diagram illustrating an example of the first table 26 in the potade mode {set to n (n is an integer of 2 or more)}. FIG. 5C shows an example of the first table 26 in the group photo mode. 第2テーブルの一例を示す図である。It is a figure which shows an example of a 2nd table. 評価値に応じてフレームレートを切り換える様子を示す図である。It is a figure which shows a mode that a frame rate is switched according to an evaluation value. 実施の形態2に係る画像処理部の動作を示すフローチャートである。10 is a flowchart illustrating an operation of an image processing unit according to the second embodiment. 実施の形態3に係る撮像装置の構成図である。6 is a configuration diagram of an imaging device according to Embodiment 3. FIG.

符号の説明Explanation of symbols

10 撮像部、 12 撮像素子、 14 信号処理部、 16 記録部、 18 操作部、 19 表示部、 20 制御部、 22 符号化部、 24 顔検出部、 26 第1テーブル、 28 第2テーブル、 100 画像処理部、 500 撮像装置。   DESCRIPTION OF SYMBOLS 10 Image pick-up part, 12 Image pick-up element, 14 Signal processing part, 16 Recording part, 18 Operation part, 19 Display part, 20 Control part, 22 Encoding part, 24 Face detection part, 26 1st table, 28 2nd table, 100 An image processing unit, 500 an imaging device.

Claims (4)

撮像された動画像から所定のオブジェクトを検出するオブジェクト検出部と、
前記オブジェクト検出部による検出結果に応じて、前記動画像のフレームレートを適応的に変化させる制御部と、
を備え
前記制御部は、検出された前記オブジェクトの大きさに応じて前記動画像のフレームレートを変化させ、前記動画像内に前記オブジェクトを検出している状態から前記オブジェクトを検出しない状態に移行すると、前記オブジェクトを検出している状態のフレームレートより、低いフレームレートに切り換えることを特徴とする画像処理装置。
An object detection unit for detecting a predetermined object from the captured moving image;
A control unit that adaptively changes a frame rate of the moving image according to a detection result by the object detection unit;
Equipped with a,
The control unit changes the frame rate of the moving image according to the size of the detected object, and shifts from the state in which the object is detected in the moving image to the state in which the object is not detected. An image processing apparatus that switches to a frame rate lower than a frame rate in a state where the object is detected .
前記オブジェクトの検出態様と評価値とを関連付けた第1テーブルと、
前記評価値とフレームレートとを関連付けた第2テーブルと、をさらに備え、
前記制御部は、前記第1テーブルおよび前記第2テーブルを参照して、前記オブジェクトの検出態様に応じたフレームレートに切り換えることを特徴とする請求項1に記載の画像処理装置。
A first table associating a detection mode of the object with an evaluation value;
A second table associating the evaluation value with a frame rate;
The image processing apparatus according to claim 1 , wherein the control unit switches to a frame rate according to a detection mode of the object with reference to the first table and the second table .
前記第1テーブルは、撮影モードに応じて異なる評価値を持つことを特徴とする請求項2に記載の画像処理装置。 The image processing apparatus according to claim 2 , wherein the first table has a different evaluation value depending on a shooting mode . 動画像を撮像する撮像素子と、An image sensor for capturing a moving image;
前記撮像素子により撮像された動画像を処理する請求項1から2のいずれかに記載の画像処理装置と、The image processing apparatus according to claim 1, which processes a moving image captured by the image sensor.
を備えることを特徴とする撮像装置。An imaging apparatus comprising:
JP2007134800A 2007-05-21 2007-05-21 Image processing apparatus and imaging apparatus equipped with the same Expired - Fee Related JP4874167B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007134800A JP4874167B2 (en) 2007-05-21 2007-05-21 Image processing apparatus and imaging apparatus equipped with the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007134800A JP4874167B2 (en) 2007-05-21 2007-05-21 Image processing apparatus and imaging apparatus equipped with the same

Publications (2)

Publication Number Publication Date
JP2008289104A JP2008289104A (en) 2008-11-27
JP4874167B2 true JP4874167B2 (en) 2012-02-15

Family

ID=40148370

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007134800A Expired - Fee Related JP4874167B2 (en) 2007-05-21 2007-05-21 Image processing apparatus and imaging apparatus equipped with the same

Country Status (1)

Country Link
JP (1) JP4874167B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108353129A (en) * 2015-11-24 2018-07-31 三星电子株式会社 Capture apparatus and its control method

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8223218B2 (en) * 2008-12-05 2012-07-17 Panasonic Corporation Face detection apparatus
JP5142978B2 (en) * 2008-12-26 2013-02-13 キヤノン株式会社 Imaging apparatus, control method therefor, program, and recording medium
JP2010226416A (en) * 2009-03-24 2010-10-07 Nikon Corp Digital camera
JP5323245B2 (en) * 2012-11-19 2013-10-23 キヤノン株式会社 Imaging device
JP5372285B2 (en) * 2013-06-21 2013-12-18 キヤノン株式会社 IMAGING DEVICE AND METHOD, PROGRAM, AND STORAGE MEDIUM
JP6301759B2 (en) * 2014-07-07 2018-03-28 東芝テック株式会社 Face identification device and program
JP6613976B2 (en) * 2016-03-11 2019-12-04 富士通株式会社 Imaging control program, imaging control method, and imaging control apparatus
KR102659504B1 (en) 2017-02-03 2024-04-23 삼성전자주식회사 Electronic device for capturing image based on difference between a plurality of images and method thereof

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4323682B2 (en) * 2000-05-16 2009-09-02 株式会社メガチップス Recording determination apparatus and method, and edge extraction apparatus
JP2003274360A (en) * 2002-03-14 2003-09-26 Sony Corp Apparatus and method for imaging, and device and system for imaging management
JP4328606B2 (en) * 2003-11-26 2009-09-09 富士フイルム株式会社 Digital camera
JP2006303897A (en) * 2005-04-20 2006-11-02 Matsushita Electric Ind Co Ltd Device and method for extracting facial image
JP4847165B2 (en) * 2006-03-09 2011-12-28 株式会社日立製作所 Video recording / reproducing method and video recording / reproducing apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108353129A (en) * 2015-11-24 2018-07-31 三星电子株式会社 Capture apparatus and its control method
CN108353129B (en) * 2015-11-24 2020-12-04 三星电子株式会社 Photographing apparatus and control method thereof

Also Published As

Publication number Publication date
JP2008289104A (en) 2008-11-27

Similar Documents

Publication Publication Date Title
JP4874167B2 (en) Image processing apparatus and imaging apparatus equipped with the same
KR101369915B1 (en) Video identifier extracting device
US8139883B2 (en) System and method for image and video encoding artifacts reduction and quality improvement
US6298145B1 (en) Extracting image frames suitable for printing and visual presentation from the compressed image data
KR101528895B1 (en) Method and apparatus for adaptive feature of interest color model parameters estimation
KR101421717B1 (en) Face detection device, imaging apparatus, and face detection method
JP2008278466A (en) Image processing apparatus and imaging apparatus mounting the same, and image processing method
US20110193986A1 (en) Image sensing device
WO2010004711A1 (en) Image processing apparatus and image pickup apparatus using the image processing apparatus
US20110007823A1 (en) Image processing device and imaging device equipped with same
JP5421727B2 (en) Image processing apparatus and control method thereof
US20080240503A1 (en) Image Processing Apparatus And Image Pickup Apparatus Mounting The Same, And Image Processing Method
JP2014128002A (en) Subject area tracking device and method therefor and program
JP2008048243A (en) Image processor, image processing method, and monitor camera
JPH10257436A (en) Automatic hierarchical structuring method for moving image and browsing method using the same
JP2012105205A (en) Key frame extractor, key frame extraction program, key frame extraction method, imaging apparatus, and server device
JP4823008B2 (en) Imaging device
CN114157870A (en) Encoding method, medium, and electronic device
JP5156982B2 (en) Image processing system, image processing method, and program
JP5153660B2 (en) Image processing apparatus, image processing method, and program
Himawan et al. Automatic region-of-interest detection and prioritisation for visually optimised coding of low bit rate videos
JP2003061112A (en) Camerawork detector and camerawork detection method
JP2007049449A (en) Image recorder
KR20100118811A (en) Shot change detection method, shot change detection reliability calculation method, and software for management of surveillance camera system
JP2006254308A (en) Video recording apparatus and video recording method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111025

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111122

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141202

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4874167

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141202

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141202

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141202

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees