JP2011087104A - Apparatus and method for processing image, program, and medium - Google Patents

Apparatus and method for processing image, program, and medium Download PDF

Info

Publication number
JP2011087104A
JP2011087104A JP2009238158A JP2009238158A JP2011087104A JP 2011087104 A JP2011087104 A JP 2011087104A JP 2009238158 A JP2009238158 A JP 2009238158A JP 2009238158 A JP2009238158 A JP 2009238158A JP 2011087104 A JP2011087104 A JP 2011087104A
Authority
JP
Japan
Prior art keywords
image data
moving image
continuous detection
section
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009238158A
Other languages
Japanese (ja)
Other versions
JP2011087104A5 (en
JP5451299B2 (en
Inventor
Naoko Tozawa
尚子 渡澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009238158A priority Critical patent/JP5451299B2/en
Publication of JP2011087104A publication Critical patent/JP2011087104A/en
Publication of JP2011087104A5 publication Critical patent/JP2011087104A5/en
Application granted granted Critical
Publication of JP5451299B2 publication Critical patent/JP5451299B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus which can simply and appropriately detect a representative image (the best shot image) from a group of moving image data. <P>SOLUTION: A predetermined object is detected from the group of moving image data arranged in time series, and time in which the predetermined object is continuously detected is counted. Moving image data with long counted continuous detection time is specified as a section. The representative image is detected from the moving image data in the specified section. Thus, the moving image data with the long continuous detection time among the group of moving image data is considered as the moving image data for detecting the representative image, namely, the best shot image. Thereby, the desired number of best shot images are detected and printed from among the group of moving image data. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、動画像データから代表的な画像を検出する画像処理装置及び画像処理方法、前記画像処理方法を実現するためのプログラム、並びに前記プログラムを記憶した媒体に関する。   The present invention relates to an image processing apparatus and an image processing method for detecting a representative image from moving image data, a program for realizing the image processing method, and a medium storing the program.

近年、撮影した画像から顔などの注目すべき被写体を検出して、検出された顔に対して表情を評価し、その評価値に応じて各種の処理を行うカメラが登場している。   In recent years, cameras have appeared that detect notable subjects such as faces from captured images, evaluate facial expressions on the detected faces, and perform various processes in accordance with the evaluation values.

例えば特許文献1では、撮影画像の中から、良い表情の画像(ベストショット画像)をユーザが容易に選択して印刷できるようにするため、次のような技術が提案されている。即ち、撮影画像から人物の顔を検出し、検出された顔に対して笑顔の評価値(笑顔評価値)を用いて画像に優先度を付け、優先度の高い順に画像をモニタに表示するという画像評価装置が提案されている。笑顔評価値は、顔画像における唇などの形状を評価する評価ポイントを求め、この評価ポイントに基づいて算出している。   For example, Patent Document 1 proposes the following technique in order to enable a user to easily select and print an image with a good expression (best shot image) from photographed images. That is, a person's face is detected from the photographed image, and priority is given to the image using the smile evaluation value (smile evaluation value) for the detected face, and the images are displayed on the monitor in descending order of priority. An image evaluation apparatus has been proposed. The smile evaluation value is calculated based on an evaluation point for evaluating a shape such as lips in the face image.

特開2004−046591号公報JP 2004-046591 A

しかしながら、上記の従来技術のように撮影画像中の人物の表情を前記笑顔評価値で評価すると次のような問題があった。即ち、撮影画像が動画像データの場合には、笑顔評価値が閾値を超えた画像全てがモニタに表示されることになり、その結果、同じようなシーンの画像が多数モニタに表示される可能性がある。このような場合には、ユーザがベストショット画像を選択して印刷するまでに多くの時間がかかるという問題があった。   However, when the facial expression of a person in a photographed image is evaluated with the smile evaluation value as in the above prior art, there are the following problems. That is, when the captured image is moving image data, all images whose smile evaluation value exceeds the threshold value are displayed on the monitor, and as a result, many images of similar scenes can be displayed on the monitor. There is sex. In such a case, there is a problem that it takes a long time until the user selects and prints the best shot image.

本発明は上記従来の問題点に鑑み、動画像データ群の中から代表的な画像(ベストショット画像)を簡易且つ的確に検出することができる画像処理装置、画像処理方法、プログラム、及び媒体を提供することを目的とする。   In view of the above-described conventional problems, the present invention provides an image processing apparatus, an image processing method, a program, and a medium that can easily and accurately detect a representative image (best shot image) from a moving image data group. The purpose is to provide.

上記目的を達成するために、本発明の画像処理装置は、時系列に並ぶ動画像データ群から所定の被写体を検出し、該所定の被写体を連続的に検出した時間を取得する連続検出時間取得手段と、前記連続検出時間取得手段により取得した連続検出時間に応じて、前記動画像データ群において区間を特定する特定手段と、前記特定された区間内における動画像データから代表的な画像を検出する代表画像検出手段とを備えたことを特徴とする。   In order to achieve the above object, the image processing apparatus of the present invention detects a predetermined subject from a group of moving image data arranged in time series, and obtains a continuous detection time acquisition time for continuously detecting the predetermined subject. Means for specifying a section in the moving image data group according to the continuous detection time acquired by the continuous detection time acquisition means, and detecting a representative image from the moving image data in the specified section And a representative image detecting means.

本発明によれば、動画像データ群の中から代表的な画像を簡易且つ的確に検出することが可能になる。   According to the present invention, it is possible to easily and accurately detect a representative image from a moving image data group.

本発明の画像処理装置の実施の一形態であるデジタルビデオカメラの構成を示すブロック図である。1 is a block diagram illustrating a configuration of a digital video camera that is an embodiment of an image processing apparatus of the present invention. 動画像データ群が時間軸で変化する様子を表した一例を示す模式図である。It is a schematic diagram which shows an example showing a mode that a moving image data group changes with a time axis. 第1の実施の形態に係る、区間特定部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the area specific | specification part based on 1st Embodiment. 第2の実施の形態で用いる画面と動画像データ群を示す図である。It is a figure which shows the screen and moving image data group which are used by 2nd Embodiment. 第2の実施の形態に係る、区間特定部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the area specific | specification part based on 2nd Embodiment.

以下、本発明の実施の形態について、図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1の実施の形態]
<デジタルビデオカメラの構成>
図1(a),(b)は、本発明の画像処理装置の実施の一形態であるデジタルビデオカメラの構成を示すブロック図であり、同図(a)は、全体構成を示すブロック図であり、同図(b)は、特徴部分の構成を示すブロック図である。
[First Embodiment]
<Configuration of digital video camera>
1A and 1B are block diagrams showing the configuration of a digital video camera which is an embodiment of the image processing apparatus of the present invention. FIG. 1A is a block diagram showing the overall configuration. FIG. 5B is a block diagram showing the configuration of the characteristic part.

このデジタルビデオカメラ1は、図1(a)に示すように、撮像レンズ101と、CCDイメージセンサやCMOSイメージセンサから成る撮像素子102を有し、撮像レンズ101によって被写体像を表す光線が集光されて撮像素子102に入射する。撮像素子102は、入射した光線の強度に応じた電気信号を画素単位で出力する。この電気信号が映像信号である。   As shown in FIG. 1A, the digital video camera 1 includes an imaging lens 101 and an imaging element 102 composed of a CCD image sensor or a CMOS image sensor, and a light beam representing a subject image is condensed by the imaging lens 101. Is incident on the image sensor 102. The image sensor 102 outputs an electrical signal corresponding to the intensity of the incident light beam in units of pixels. This electrical signal is a video signal.

撮像素子102から出力された映像信号は、アナログ信号処理部103においてアナログ信号処理が行われる。アナログ信号処理部103から出力された映像信号は、A/D変換部104においてデジタルデータの形式に変換され、画像処理部106に入力する。   The analog signal processing unit 103 performs analog signal processing on the video signal output from the image sensor 102. The video signal output from the analog signal processing unit 103 is converted into a digital data format by the A / D conversion unit 104 and input to the image processing unit 106.

画像処理部106には、画像抽出部105、顔検出部107、連続検出時間計測部108、表示部109、記録媒体110、及び印刷処理部111が接続されている。   An image extraction unit 105, a face detection unit 107, a continuous detection time measurement unit 108, a display unit 109, a recording medium 110, and a print processing unit 111 are connected to the image processing unit 106.

画像処理部106から出力された映像信号、つまり動画像データは顔検出部107に供給される。顔検出部107は、画像中の人物の顔を検出する。検出方法は公知の顔検出方法を用いる。顔検出の公知技術は、顔に関する知識(肌色情報、目・鼻・口などのパーツ)を利用する方法とニューラルネットに代表される学習アルゴリズムにより顔検出のための識別器を構成する方法などがある。認識率向上のためにこれらを組み合わせて顔認識を行うのが一般的である。具体的には特開2002−251380号公報に記載のウェーブレット変換と画像特徴量を利用して顔検出する方法などが挙げられる。   The video signal output from the image processing unit 106, that is, moving image data is supplied to the face detection unit 107. The face detection unit 107 detects the face of a person in the image. A known face detection method is used as the detection method. Known techniques for face detection include a method of using knowledge about the face (skin color information, parts such as eyes, nose, mouth, etc.) and a method of configuring a classifier for face detection by a learning algorithm represented by a neural network. is there. In order to improve the recognition rate, face recognition is generally performed by combining them. Specifically, a face detection method using wavelet transform and image feature amount described in JP-A-2002-251380 may be used.

顔検出部107で検出された人物の顔情報は、連続検出時間計測部108に送られる。連続検出時間計測部108(連続検出時間取得手段)は、顔情報を連続的に検出した時間を計測し、その結果である連続検出時間情報を画像処理部106に供給する。画像処理部106は、連続検出時間計測部108から供給される連続検出時間情報を動画像データに付加して画像抽出部105に供給する。   The face information of the person detected by the face detection unit 107 is sent to the continuous detection time measurement unit 108. The continuous detection time measurement unit 108 (continuous detection time acquisition unit) measures the time when the face information is continuously detected, and supplies the continuous detection time information as a result thereof to the image processing unit 106. The image processing unit 106 adds the continuous detection time information supplied from the continuous detection time measurement unit 108 to the moving image data and supplies the moving image data to the image extraction unit 105.

また、画像処理部106から出力された動画像データは表示部109にも送られる。表示部109は、例えばLCDや有機ELディスプレイであり、動画像データを表示する。また、画像処理部106から出力された動画像データは、記録媒体110(例えば着脱可能なメモリカード)に記録される。また、画像処理部106から出力された動画像データは、印刷処理部111にも送られ、印刷処理部111では供給された動画像データの画像を印刷処理する。   The moving image data output from the image processing unit 106 is also sent to the display unit 109. The display unit 109 is, for example, an LCD or an organic EL display, and displays moving image data. The moving image data output from the image processing unit 106 is recorded on a recording medium 110 (for example, a removable memory card). The moving image data output from the image processing unit 106 is also sent to the print processing unit 111, and the print processing unit 111 prints the image of the supplied moving image data.

上述した各構成部は、システム制御部100によって動作が制御される。また、システム制御部100には、ユーザが指示を入力するための操作部120が接続されている。   The operation of each component described above is controlled by the system control unit 100. In addition, an operation unit 120 for a user to input an instruction is connected to the system control unit 100.

次に、図1(b)を参照して、本実施の形態の特徴を成す上記画像抽出部105の詳細な構成を説明する。   Next, with reference to FIG. 1B, a detailed configuration of the image extraction unit 105 that characterizes the present embodiment will be described.

この画像抽出部105は、連続検出時間取得部105a、区間特定部105b、代表画像検出部105c、及び制御部105dを備えている。連続検出時間取得部105aは、動画像データに付加された被写体の連続検出時間情報を取得し、連続検出時間情報を区間特定部105bに供給する。制御部105dは、図示されていない操作部から指定された印刷枚数情報を区間特定部105bに供給する。   The image extraction unit 105 includes a continuous detection time acquisition unit 105a, a section identification unit 105b, a representative image detection unit 105c, and a control unit 105d. The continuous detection time acquisition unit 105a acquires continuous detection time information of the subject added to the moving image data, and supplies the continuous detection time information to the section specifying unit 105b. The control unit 105d supplies the print number information designated from the operation unit (not shown) to the section specifying unit 105b.

区間特定部105bでは、制御部105dより指定された印刷枚数と連続検出時間取得部105aより供給された連続検出時間情報とに応じて動画像データの中から所定の区間を特定し、特定した区間情報を代表画像検出部105cに供給する。代表画像検出部105cでは、供給された動画像データの特定の区間内から代表的な画像、つまり代表画像(ベストショット画像)を検出する。代表画像検出方法は、公知の代表画像検出方法を用いる。この公知技術には、例えば、検出された顔に対して例えば笑顔の笑顔評価値を付けて、最大の笑顔評価値が付けられた画像を代表画像として検出する方法などがある。具体的には例えば特開2008−042319号公報に記載の検出方法がある。この検出方法では、顔を検出して、笑顔と通常の表情などの笑顔とは異なる表情との間において一方の表情にどれだけ近いかの度合いを示す表情評価値を算出し、この表情評価値が所定の閾値を超えた場合に画像信号を記録媒体に記録する方法などが挙げられる。   The section specifying unit 105b specifies a predetermined section from the moving image data according to the number of printed sheets specified by the control unit 105d and the continuous detection time information supplied from the continuous detection time acquisition unit 105a, and specifies the specified section. Information is supplied to the representative image detection unit 105c. The representative image detection unit 105c detects a representative image, that is, a representative image (best shot image) from a specific section of the supplied moving image data. A known representative image detection method is used as the representative image detection method. This known technique includes, for example, a method in which a smile evaluation value of, for example, a smile is given to a detected face, and an image with the maximum smile evaluation value is detected as a representative image. Specifically, for example, there is a detection method described in Japanese Patent Application Laid-Open No. 2008-042319. In this detection method, a face is detected, and a facial expression evaluation value indicating the degree of closeness to one facial expression between a smiling face and a different facial expression such as a normal facial expression is calculated. For example, there is a method of recording an image signal on a recording medium when the value exceeds a predetermined threshold.

代表画像検出部105cにより検出された代表画像は、画像処理部106を通して印刷処理部111に供給され、印刷処理部111では供給された代表画像を印刷処理する。   The representative image detected by the representative image detection unit 105c is supplied to the print processing unit 111 through the image processing unit 106, and the print processing unit 111 prints the supplied representative image.

<第1の実施の形態に係る動画像データ>
図2は、動画像データ群200が時間軸で変化する様子を表した一例を示す模式図である。
<Moving image data according to the first embodiment>
FIG. 2 is a schematic diagram showing an example of how the moving image data group 200 changes on the time axis.

動画像データ群200は、時系列に並ぶ動画像データ201,202,203,204,205で構成されている。動画像データ201は、タイムコードt1からタイムコードt2の動画像データであり、動画像データ202はタイムコードt2からタイムコードt3の動画像データである。動画像データ203は、タイムコードt3からタイムコードt4までの動画像データであり、動画像データ204は、タイムコードt4からタイムコードt5までの動画像データである。動画像データ205は、タイムコードt5からタイムコードt6までの動画像データで構成されている。   The moving image data group 200 includes moving image data 201, 202, 203, 204, and 205 arranged in time series. The moving image data 201 is moving image data from time code t1 to time code t2, and moving image data 202 is moving image data from time code t2 to time code t3. The moving image data 203 is moving image data from time code t3 to time code t4, and moving image data 204 is moving image data from time code t4 to time code t5. The moving image data 205 is composed of moving image data from time code t5 to time code t6.

連続検出時間取得部105aに動画像データ群200が入力されると、連続検出時間取得部105aは、動画像データ群200における被写体の連続検出時間情報を取得する。動画像データ群200の場合、動画像データ201〜205に対して、それぞれ(t2−t1)時間情報、(t3−t2)時間情報、(t4−t3)時間情報、(t5−t4)時間情報、(t6−t5)時間情報を取得する。   When the moving image data group 200 is input to the continuous detection time acquisition unit 105a, the continuous detection time acquisition unit 105a acquires subject continuous detection time information in the moving image data group 200. In the case of the moving image data group 200, for the moving image data 201 to 205, (t2-t1) time information, (t3-t2) time information, (t4-t3) time information, and (t5-t4) time information, respectively. , (T6-t5) time information is acquired.

<第1の実施の形態に係る区間特定部の動作>
次に、上記区間特定部105bの動作について、図3を参照して説明する。
<Operation of the section identifying unit according to the first embodiment>
Next, the operation of the section specifying unit 105b will be described with reference to FIG.

図3は、第1の実施の形態に係る、区間特定部105bの動作(区間特定処理)を示すフローチャートである。   FIG. 3 is a flowchart showing the operation (section specifying process) of the section specifying unit 105b according to the first embodiment.

まずステップS301において、連続検出時間取得部105aから出力された連続検出時間情報から、動画像データ群全体に存在する区間の総数を示す特定区間総数zmaxを取得する。例えば図2で示した動画像データ群200の場合では、特定区間総数zmax=5となる。   First, in step S301, the specific section total number zmax indicating the total number of sections existing in the entire moving image data group is acquired from the continuous detection time information output from the continuous detection time acquisition unit 105a. For example, in the case of the moving image data group 200 shown in FIG. 2, the specific section total number zmax = 5.

次のステップS302では、制御部105dから印刷枚数nを取得し、さらにステップS303において、印刷枚数nが特定区間総数zmaxより大きいか否かを判断する。ステップS303において印刷枚数nがzmaxより大きい場合は、ステップS304でnの値をn=zmaxに更新する。ステップS303において印刷枚数nがzmaxより小さい場合には、ステップS304をスキップしてステップS305へ進む。   In the next step S302, the number of printed sheets n is acquired from the control unit 105d, and in step S303, it is determined whether or not the number of printed sheets n is greater than the specific section total number zmax. If the number n of printed sheets is larger than zmax in step S303, the value of n is updated to n = zmax in step S304. If the number n of printed sheets is smaller than zmax in step S303, step S304 is skipped and the process proceeds to step S305.

次にステップS305において、特定した区間のナンバーを示す特定区間No.をzとして、z=0に初期化し、続くステップS306において、z=z+1の計算処理をし、zの値を更新する。次にステップS307において、連続検出時間取得部105aより供給された連続検出時間がz番目に長い区間を特定する。動画像データ群200の場合では、z=1番目に長い検出時間であるタイムコードt5からt6までの区間、つまり動画像データ205を、代表画像を検出するための対象の動画像データとして特定することになる。   Next, in step S305, the specific section No. indicating the number of the specified section is displayed. Z is initialized to z = 0, and in the subsequent step S306, calculation processing of z = z + 1 is performed, and the value of z is updated. Next, in step S307, a zone in which the continuous detection time supplied from the continuous detection time acquisition unit 105a is the zth longest is specified. In the case of the moving image data group 200, z = the section from time code t5 to t6, which is the first detection time, that is, moving image data 205, is specified as the moving image data to be detected for representative image detection. It will be.

次にステップS308において、特定された区間の情報を代表画像検出部105cに供給し、続くステップS309において、n=n−1の計算処理をし、nの値を更新する。次にステップS310において、n=0か否かの判断を行い、n=0ではない場合はステップS306の処理に戻り、n=0だった場合は、区間特定処理を終了する。   In step S308, the specified section information is supplied to the representative image detection unit 105c. In subsequent step S309, n = n−1 is calculated, and the value of n is updated. Next, in step S310, it is determined whether or not n = 0. If n = 0, the process returns to step S306. If n = 0, the section specifying process ends.

上述した区間特定処理においては、例えば、動画像データ群200で印刷枚数がn=2と指定された場合は、被写体の検出時間が長い上位2区間を代表画像検出部105cに供給することになる。本例では、タイムコードt5からt6の区間と、タイムコードt1からt2の区間の情報を代表画像検出部105cに供給する。   In the section specifying process described above, for example, when the number of printed sheets is specified as n = 2 in the moving image data group 200, the upper two sections with a long subject detection time are supplied to the representative image detection unit 105c. . In this example, information on the section from time code t5 to t6 and the section from time code t1 to t2 is supplied to the representative image detection unit 105c.

代表画像検出部105cでは、タイムコードt5からt6の区間で代表画像を1枚、タイムコードt1からt2の区間で代表画像を1枚、計2枚の代表画像を検出する。その検出結果は、画像処理部106を通して印刷処理部111に供給される。印刷処理部111では、供給された代表画像を印刷処理する。   The representative image detection unit 105c detects a total of two representative images, one representative image in the section from time code t5 to t6, and one representative image in the section from time code t1 to t2. The detection result is supplied to the print processing unit 111 through the image processing unit 106. The print processing unit 111 prints the supplied representative image.

<第1の実施の形態に係る利点>
本実施の形態によれば、動画像データ群の中の、連続検出時間が長い動画像データを、代表画像つまりベストショット画像を検出するための対象の動画像データとする。これにより、被写体の顔認識を行うことなく、動画像データ群の中から所望の枚数のベストショット画像を検出して印刷することが可能になる。
<Advantages of First Embodiment>
According to the present embodiment, moving image data having a long continuous detection time in the moving image data group is set as the moving image data of interest for detecting the representative image, that is, the best shot image. Accordingly, it is possible to detect and print a desired number of best shot images from the moving image data group without performing face recognition of the subject.

<第1の実施の形態に係る変形例>
本実施の形態では、ステップS307において連続検出時間取得部105aより供給された連続検出時間がz番目に長い区間を特定した。その際、供給された各連続検出時間が同じもしくは相互に類似していた場合には、例えば、画面に対して所定の被写体が大きく写っている、もしくは顔が正面を向いているなどの所定の被写体の検出状態を加味して区間を特定する。
<Modification according to the first embodiment>
In the present embodiment, the section in which the continuous detection time supplied from the continuous detection time acquisition unit 105a in step S307 is the zth longest is specified. At this time, if the supplied continuous detection times are the same or similar to each other, for example, a predetermined subject such as a large subject on the screen or a face facing the front is predetermined. The section is specified in consideration of the detection state of the subject.

[第2の実施の形態]
第2の実施の形態では、区間特定部105bによる区間特定処理が第1の実施の形態と異なる。
[Second Embodiment]
In the second embodiment, the section specifying process by the section specifying unit 105b is different from the first embodiment.

図4(a)は、第2の実施の形態の表示部109の表示画面の一例を示す画面図である。   FIG. 4A is a screen diagram illustrating an example of a display screen of the display unit 109 according to the second embodiment.

同図に示すように、表示部109の画面には、「同一撮影日時画像からの印刷枚数 m枚」と「印刷枚数 n枚」といった、選択肢が表示される。ユーザは動画像データに対して、同一撮影日時画像からの印刷枚数mと、動画像データ群全体からの印刷枚数nを、操作部120によって指定することができる。   As shown in the figure, the screen of the display unit 109 displays options such as “number of printed sheets from the same shooting date / time image m sheets” and “number of printed sheets n sheets”. The user can designate the number m of prints from the same shooting date / time image and the number n of prints from the entire moving image data group for the moving image data by using the operation unit 120.

<第2の実施の形態に係る動画像データ>
図4(b)は、第2の実施の形態に係る動画像データ群410が時間軸で変化する様子を表した一例を示す模式図である。
<Moving image data according to the second embodiment>
FIG. 4B is a schematic diagram illustrating an example in which the moving image data group 410 according to the second embodiment changes on the time axis.

動画像データ群410は、図4(b)に示すように、それぞれ異なる日時に撮影された、時系列に並ぶ動画像データ411,412,413,414,415から構成されている。動画像データ411は、タイムコードt1からタイムコードt4の動画像データであり、動画像データ412は、タイムコードt4からタイムコードt5の動画像データである。また、動画像データ413は、タイムコードt5からタイムコードt6までの動画像データであり、動画像データ414は、タイムコードt6からタイムコードt7までの動画像データである。動画像データ415は、タイムコードt7からタイムコードt8までの動画像データである。   As shown in FIG. 4B, the moving image data group 410 includes time-series moving image data 411, 412, 413, 414, and 415, which are photographed at different dates and times. The moving image data 411 is moving image data from time code t1 to time code t4, and moving image data 412 is moving image data from time code t4 to time code t5. The moving image data 413 is moving image data from time code t5 to time code t6, and moving image data 414 is moving image data from time code t6 to time code t7. The moving image data 415 is moving image data from time code t7 to time code t8.

システム制御部100は、撮影日時情報(属性情報)に基づいて動画像データ群410のグループ分けを行い、動画像データ群410をグループ411〜415に分ける(グループ化手段)。   The system control unit 100 groups the moving image data group 410 based on the shooting date / time information (attribute information), and divides the moving image data group 410 into groups 411 to 415 (grouping means).

画像処理部106から連続検出時間取得部105aに動画像データ群410が入力されると、連続検出時間取得部105aは、当該動画像データ群410における被写体の連続検出時間情報を取得する。即ち、動画像データ群410の場合、グループ411〜415に対し、それぞれ(t2−t1)時間、(t4−t3)時間、(t5−t4)時間、(t6−t5)時間、(t7−t6)時間、(t8−t7)時間の各連続検出時間情報を取得する(図4(b)参照)。   When the moving image data group 410 is input from the image processing unit 106 to the continuous detection time acquisition unit 105a, the continuous detection time acquisition unit 105a acquires the continuous detection time information of the subject in the moving image data group 410. That is, in the case of the moving image data group 410, for the groups 411 to 415, (t2-t1) time, (t4-t3) time, (t5-t4) time, (t6-t5) time, (t7-t6), respectively. ) And (t8-t7) time continuous detection time information is acquired (see FIG. 4B).

<第2の実施の形態に係る区間特定部の動作>
次に、第2の実施の形態に係る区間特定部105bの動作について、図5を参照して説明する。
<Operation of Section Identification Unit According to Second Embodiment>
Next, the operation of the section identifying unit 105b according to the second embodiment will be described with reference to FIG.

図5は、第2の実施の形態に係る、区間特定部105bの動作(区間特定処理)を示すフローチャートである。   FIG. 5 is a flowchart showing the operation (section specifying process) of the section specifying unit 105b according to the second embodiment.

まずステップS501において、連続検出時間取得部105aから出力された連続検出時間情報から、動画像データ群全体に存在する区間の総数を示す特定区間総数zmaxを取得する。次のステップS502において、制御部105dでグループ分けされた各動画像データ群に含まれる区間数Snと、その最大区間数Smaxを取得する。   First, in step S501, the specific section total number zmax indicating the total number of sections existing in the entire moving image data group is acquired from the continuous detection time information output from the continuous detection time acquisition unit 105a. In the next step S502, the number of sections Sn included in each moving image data group grouped by the control unit 105d and the maximum number of sections Smax are acquired.

例えば、動画像データ群410の場合では、グループ411は、動画像データ411a、411bで示される2区間が検出されるので、区間数S1=2となる。グループ412は動画像データ412aで示される1区間が検出されるので、区間数S2=1となり、グループ413は動画像データ413aで示される1区間が検出されるので、区間数S3=1となる。グループ414は動画像データ414aで示される1区間が検出されるので、区間数S4=1となる。グループ415は動画像データ415aで示される1区間が検出されるので、区間数S5=1の値が取得される。   For example, in the case of the moving image data group 410, in the group 411, since two sections indicated by the moving image data 411a and 411b are detected, the number of sections S1 = 2. Since the group 412 detects one section indicated by the moving image data 412a, the number of sections S2 = 1, and since the group 413 detects one section indicated by the moving image data 413a, the number of sections S3 = 1. . In the group 414, since one section indicated by the moving image data 414a is detected, the number of sections S4 = 1. In the group 415, since one section indicated by the moving image data 415a is detected, the value of the number of sections S5 = 1 is acquired.

次にステップS503において、制御部105dから同一撮影日時画像からの印刷枚数mと動画像データ群全体からの印刷枚数nを取得する。同一撮影日時画像からの印刷枚数mは、最大区間数Smax≧mに制限される。また、印刷枚数nは、特定区間総数zmax≧nに制限される。   In step S503, the control unit 105d acquires the number of printed sheets m from the same shooting date / time image and the number of printed sheets n from the entire moving image data group. The number of printed sheets m from the same shooting date / time image is limited to the maximum number of sections Smax ≧ m. Further, the number n of prints is limited to the total number of specific sections zmax ≧ n.

次にステップS504において、グループ分けされた動画像群の区間数Snが指定された枚数mより大きいか否かを判断する。ステップS504においてSnが指定された枚数mより大きい場合は、ステップS505でSnの値をSn=mに更新する。ステップS504においてSnが指定された枚数mより小さい場合には、ステップS506へ進む。   In step S504, it is determined whether the number of sections Sn of the grouped moving image group is larger than the designated number m. If Sn is larger than the designated number m in step S504, the value of Sn is updated to Sn = m in step S505. If Sn is smaller than the designated number m in step S504, the process proceeds to step S506.

ステップS506では、特定した区間のナンバーを示す特定区間No.をzとして、z=0に初期化する。さらにステップS507において、z=z+1の計算処理をし、zの値を更新する。続くステップS508において、連続検出時間取得部105aより供給された連続検出時間がz番目に長い区間を特定する。例えば、動画像データ群410の場合は、z=1番目に長い検出時間の動画像データ415のタイムコードt7からt8までの区間を特定することになる。   In step S506, the specific section No. indicating the number of the specified section is displayed. Z is initialized to z = 0. In step S507, z = z + 1 is calculated and the value of z is updated. In a subsequent step S508, a zone in which the continuous detection time supplied from the continuous detection time acquisition unit 105a is the zth longest is specified. For example, in the case of the moving image data group 410, the section from the time code t7 to t8 of the moving image data 415 having the first detection time z = 1 is specified.

次のステップS509において、特定された区間のSnの値をSn=Sn−1に更新する。例えば、動画像データ群410の場合は、ステップS508において、S5の区間が特定されたのでS5=S5−1の計算処理をし、S5の値を更新する。他の区間であるS1〜S3の値は更新しない。次のステップS510において、特定された区間の情報を代表画像検出部105cに供給する。   In the next step S509, the value of Sn in the identified section is updated to Sn = Sn-1. For example, in the case of the moving image data group 410, since the section of S5 is specified in step S508, the calculation process of S5 = S5-1 is performed, and the value of S5 is updated. The values of S1 to S3 which are other sections are not updated. In the next step S510, information on the identified section is supplied to the representative image detection unit 105c.

続くステップS511においては、Snの値が0か否かを判断する。Sn=0であった場合は、次のステップS512において、特定されたSnのグループの動画像データ群を次に特定する範囲から外す。例えば、動画像データ群410の場合では、S5=S5−1の計算処理によりS5=0となるのでS5の区間、即ちグループ415の動画データ群は次から特定区間外となる。   In a succeeding step S511, it is determined whether or not the value of Sn is 0. If Sn = 0, in the next step S512, the moving image data group of the specified Sn group is excluded from the range to be specified next. For example, in the case of the moving image data group 410, S5 = 0 is obtained by the calculation process of S5 = S5-1.

ステップS511においてSn=0でなかった場合は、前記ステップS512をスキップしてステップS513へ進む。次のステップS513において、n=n−1の計算処理をし、nの値を更新する。続くステップS514において、n=0か否かの判断を行い、n=0ではない場合は、ステップS507の処理に戻る。ステップS514において、n=0だった場合は、本区間特定処理を終了する。   If Sn = 0 is not satisfied in step S511, the process skips step S512 and proceeds to step S513. In the next step S513, calculation processing of n = n−1 is performed, and the value of n is updated. In subsequent step S514, it is determined whether or not n = 0. If n = 0 is not satisfied, the process returns to step S507. If n = 0 in step S514, the section specifying process is terminated.

例えば、動画像データ群410において、ステップS503でm=1、n=3が指定された場合は、撮影日時が同じ画像データからは1枚、合計で3枚の印刷を指定されたこととなる。即ち、動画像データ415のタイムコードt7からt8の区間、動画像データ411のタイムコードt1からt2の区間、動画像データ413のタイムコードt5からt6の区間からそれぞれ1枚ずつ代表画像を検出する。   For example, in the moving image data group 410, when m = 1 and n = 3 are designated in step S503, it means that one print is designated from the image data having the same shooting date and time, and a total of three prints are designated. . That is, one representative image is detected from each of the sections of the moving image data 415 from the time code t7 to t8, the section of the moving image data 411 from the time code t1 to t2, and the section of the moving image data 413 from the time code t5 to t6. .

また、ステップS503において、m=2、n=3が指定された場合は、撮影日時が同じ画像データからは2枚、合計で3枚の印刷を指定されたことになる。即ち、動画像データ415のタイムコードt7からt8の区間、及び動画像データ411のタイムコードt1からt2の区間、同じく動画像データ411のタイムコードt3からt4の区間から1枚ずつ代表画像を検出する。   If m = 2 and n = 3 are designated in step S503, it means that printing is performed for a total of three sheets, two sheets from the image data with the same shooting date and time. That is, representative images are detected one by one from the time code t7 to t8 section of the moving image data 415, from the time code t1 to t2 section of the moving image data 411, and from the time code t3 to t4 section of the moving image data 411. To do.

そして印刷処理部111では、代表画像検出部105cにより検出された代表画像を印刷処理する。   The print processing unit 111 prints the representative image detected by the representative image detection unit 105c.

<第2の実施の形態に係る利点>
本実施の形態によれば、撮影日時に対応した代表画像を簡単に検出して印刷することができる。
<Advantages of Second Embodiment>
According to the present embodiment, it is possible to easily detect and print a representative image corresponding to the shooting date and time.

<第2の実施の形態に係る変形例>
本実施の形態では、撮影日時情報に基づいて動画像データ群をグループ化したが、撮影開始から撮影終了時刻情報に基づいてグループ分けをしてもよい。
<Modification according to Second Embodiment>
In the present embodiment, the moving image data group is grouped based on the shooting date / time information, but may be grouped based on the shooting end time information from the start of shooting.

また、本実施の形態では、ステップS508において連続検出時間取得部105aより供給された連続検出時間がz番目に長い区間を特定した。これに対して、供給された連続検出時間が同じもしくは類似していた場合には、例えば、既に特定されたグループの動画像データ群からは特定しないなど、グループ化手段で分類された動画像データ群の特定された区間の状況を加味して区間を特定する。   Moreover, in this Embodiment, the continuous detection time supplied from the continuous detection time acquisition part 105a in step S508 specified the z-th area. On the other hand, when the supplied continuous detection times are the same or similar, for example, the moving image data classified by the grouping means is not specified from the moving image data group of the already specified group. The section is specified taking into account the situation of the specified section of the group.

[他の実施の形態]
上記各実施の形態では、デジタルビデオカメラを例にして説明したが、この限りではなく、所定の被写体の検出時間が付加された動画像データが入力される装置、例えば撮像部を持たない動画像再生装置や印刷処理装置にも適用できることは言うまでもない。
[Other embodiments]
In each of the above embodiments, a digital video camera has been described as an example. Needless to say, the present invention can also be applied to a reproduction apparatus and a print processing apparatus.

また、本発明の実施の形態は、ネットワーク又は各種記憶媒体を介して取得したソフトウェア(プログラム)をパーソナルコンピュータ(CPU,プロセッサ)にて実行することでも実現できる。   The embodiment of the present invention can also be realized by executing software (program) acquired via a network or various storage media on a personal computer (CPU, processor).

105 画像抽出部
105a 連続検出時間取得部
105b 区間特定部
105c 代表画像検出部
105d 制御部
106 画像処理部
108 連続検出時間計測部
105 Image Extraction Unit 105a Continuous Detection Time Acquisition Unit 105b Section Identification Unit 105c Representative Image Detection Unit 105d Control Unit 106 Image Processing Unit 108 Continuous Detection Time Measurement Unit

Claims (11)

時系列に並ぶ動画像データ群から所定の被写体を検出し、該所定の被写体を連続的に検出した時間を取得する連続検出時間取得手段と、
前記連続検出時間取得手段により取得した連続検出時間に応じて、前記動画像データ群において区間を特定する特定手段と、
前記特定された区間内における動画像データから代表的な画像を検出する代表画像検出手段とを備えたことを特徴とする画像処理装置。
Continuous detection time acquisition means for detecting a predetermined subject from a group of moving image data arranged in time series and acquiring a time at which the predetermined subject is continuously detected;
In accordance with the continuous detection time acquired by the continuous detection time acquisition means, a specifying means for specifying a section in the moving image data group;
An image processing apparatus comprising: representative image detection means for detecting a representative image from moving image data in the specified section.
前記特定手段は、前記連続検出時間取得手段により取得した各連続検出時間のうちの上位を前記区間として特定することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the specifying unit specifies, as the section, a higher rank among the continuous detection times acquired by the continuous detection time acquisition unit. 前記特定手段は、前記連続検出時間取得手段で取得した各連続検出時間が互いに類似した連続検出時間の場合には、所定の被写体の検出状態に基づいて前記区間を特定することを特徴とする請求項1又は2記載の画像処理装置。   The specifying unit specifies the section based on a detection state of a predetermined subject when the continuous detection times acquired by the continuous detection time acquisition unit are continuous detection times similar to each other. Item 3. The image processing apparatus according to Item 1 or 2. 前記動画像データ群をグループ分けするグループ化手段と、
前記グループ化手段によりグループ分けされた動画像データ群において前記特定手段によって特定される区間の数を制限する手段とを有することを特徴とする請求項1乃至3のいずれか一項に記載の画像処理装置。
Grouping means for grouping the moving image data groups;
4. The image according to claim 1, further comprising: a unit that limits a number of sections specified by the specifying unit in the moving image data group grouped by the grouping unit. 5. Processing equipment.
前記特定手段は、前記連続検出時間取得手段で取得した各連続検出時間が互いに類似した連続検出時間の場合には、前記グループ化手段でグループ分けされた動画像データ群において特定された区間の状況に基づいて、前記区間を特定することを特徴とする請求項4に記載の画像処理装置。   In the case where the continuous detection times acquired by the continuous detection time acquisition unit are similar to each other, the specifying unit determines the status of the section specified in the moving image data group grouped by the grouping unit. The image processing apparatus according to claim 4, wherein the section is specified based on the information. 前記グループ化手段は、前記動画像データ群の属性情報に基づいてグループ分けを行うことを特徴とする請求項4又は5に記載の画像処理装置。   6. The image processing apparatus according to claim 4, wherein the grouping unit performs grouping based on attribute information of the moving image data group. 前記属性情報は、前記動画像データの撮影開始から撮影終了時刻の情報であることを特徴とする請求項6に記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the attribute information is information on a shooting end time from a shooting start of the moving image data. 前記属性情報は、前記動画像データの撮影日時の情報であることを特徴とする請求項6に記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the attribute information is information on a shooting date and time of the moving image data. 時系列に並ぶ動画像データ群から所定の被写体を検出し、該所定の被写体を連続的に検出した時間を取得する連続検出時間取得工程と、
前記連続検出時間取得工程により取得した連続検出時間に応じて、前記動画像データ群において区間を特定する特定工程と、
前記特定された区間内における動画像データから代表的な画像を検出する代表画像検出工程とを備えたことを特徴とする画像処理方法。
A continuous detection time acquisition step of detecting a predetermined subject from the moving image data group arranged in time series and acquiring a time at which the predetermined subject is continuously detected;
In accordance with the continuous detection time acquired by the continuous detection time acquisition step, a specifying step of specifying a section in the moving image data group,
An image processing method comprising: a representative image detection step of detecting a representative image from moving image data in the specified section.
画像処理方法を実行するための、コンピュータで読み取り可能なプログラムであって、
時系列に並ぶ動画像データ群から所定の被写体を検出し、該所定の被写体を連続的に検出した時間を取得する連続検出時間取得ステップと、
前記連続検出時間取得ステップにより取得した連続検出時間に応じて、前記動画像データ群において区間を特定する特定ステップと、
前記特定された区間内における動画像データから代表的な画像を検出する代表画像検出ステップとを備えたことを特徴とするプログラム。
A computer-readable program for executing an image processing method,
A continuous detection time acquisition step of detecting a predetermined subject from the moving image data group arranged in time series and acquiring a time at which the predetermined subject is continuously detected;
In accordance with the continuous detection time acquired by the continuous detection time acquisition step, a specifying step for specifying a section in the moving image data group;
A program comprising: a representative image detecting step for detecting a representative image from moving image data in the specified section.
請求項10に記載のプログラムを記憶する媒体。   A medium for storing the program according to claim 10.
JP2009238158A 2009-10-15 2009-10-15 Image processing apparatus, image processing apparatus control method, program, and storage medium Expired - Fee Related JP5451299B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009238158A JP5451299B2 (en) 2009-10-15 2009-10-15 Image processing apparatus, image processing apparatus control method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009238158A JP5451299B2 (en) 2009-10-15 2009-10-15 Image processing apparatus, image processing apparatus control method, program, and storage medium

Publications (3)

Publication Number Publication Date
JP2011087104A true JP2011087104A (en) 2011-04-28
JP2011087104A5 JP2011087104A5 (en) 2012-11-29
JP5451299B2 JP5451299B2 (en) 2014-03-26

Family

ID=44079736

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009238158A Expired - Fee Related JP5451299B2 (en) 2009-10-15 2009-10-15 Image processing apparatus, image processing apparatus control method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP5451299B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001054055A (en) * 1999-08-05 2001-02-23 Sharp Corp Moving picture editing and browsing device
JP2008252296A (en) * 2007-03-29 2008-10-16 Kddi Corp Face index preparation apparatus for moving image and face image tracking method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001054055A (en) * 1999-08-05 2001-02-23 Sharp Corp Moving picture editing and browsing device
JP2008252296A (en) * 2007-03-29 2008-10-16 Kddi Corp Face index preparation apparatus for moving image and face image tracking method thereof

Also Published As

Publication number Publication date
JP5451299B2 (en) 2014-03-26

Similar Documents

Publication Publication Date Title
EP2357589A2 (en) Image recognition apparatus and method
KR101337060B1 (en) Imaging processing device and imaging processing method
US8218833B2 (en) Image capturing apparatus, method of determining presence or absence of image area, and recording medium
JP6914699B2 (en) Information processing equipment, information processing methods and programs
JP5218168B2 (en) Imaging device, moving object detection method, moving object detection circuit, program, and monitoring system
TW202101371A (en) Method and apparatus for processing video stream
JP6521626B2 (en) Object tracking device, method and program
US20210082127A1 (en) Image analysis apparatus, image analysis method, and storage medium to display information representing flow quantity
US9571740B2 (en) Image recognition device that recognizes specific object area, method of controlling the device, and storage medium, as well as image pickup apparatus, and display device
JP2014128002A (en) Subject area tracking device and method therefor and program
JP2020057111A (en) Facial expression determination system, program and facial expression determination method
US20190246048A1 (en) Image processing apparatus, image processing method, and storage medium
WO2019193781A1 (en) Emotion inference device, emotion inference method, and program
JP2009212666A (en) Image photographing apparatus and image processing apparatus
CN110709857A (en) Apparatus, method and program for managing number of people
US9323981B2 (en) Face component extraction apparatus, face component extraction method and recording medium in which program for face component extraction method is stored
JP6198530B2 (en) Image processing device
JP5451299B2 (en) Image processing apparatus, image processing apparatus control method, program, and storage medium
US20220327865A1 (en) Electronic device and control method
WO2012153868A1 (en) Information processing device, information processing method and information processing program
JP5272797B2 (en) Digital camera
JP2009244944A (en) Image-recovering apparatus and photographing apparatus
JP5539565B2 (en) Imaging apparatus and subject tracking method
JP6399122B2 (en) Face detection apparatus and control method thereof
JP2008228119A (en) Monitoring camera system, animation retrieval apparatus, face image database updating apparatus and operation control method therefor

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121015

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131226

LAPS Cancellation because of no payment of annual fees