JP6778398B2 - Image forming apparatus, image forming method and image forming program - Google Patents

Image forming apparatus, image forming method and image forming program Download PDF

Info

Publication number
JP6778398B2
JP6778398B2 JP2017141385A JP2017141385A JP6778398B2 JP 6778398 B2 JP6778398 B2 JP 6778398B2 JP 2017141385 A JP2017141385 A JP 2017141385A JP 2017141385 A JP2017141385 A JP 2017141385A JP 6778398 B2 JP6778398 B2 JP 6778398B2
Authority
JP
Japan
Prior art keywords
image data
still image
feature amount
groups
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017141385A
Other languages
Japanese (ja)
Other versions
JP2019018517A (en
Inventor
田中 邦彦
邦彦 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2017141385A priority Critical patent/JP6778398B2/en
Publication of JP2019018517A publication Critical patent/JP2019018517A/en
Application granted granted Critical
Publication of JP6778398B2 publication Critical patent/JP6778398B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、動画像データから静止画像データを抽出する画像形成技術に関する。 The present invention relates to an image forming technique for extracting still image data from moving image data.

近年、ビデオカメラやスマートフォンの性能向上や画質向上に伴い、動画像データから抽出可能な静止画像データを生成することが行われるようになってきた。このような状況を踏まえて、動画像データから所望の静止画を抽出してアルバムなどを作成可能とする技術も提案されている。たとえば特許文献1は、動画データのフレーム画像に含まれる特徴量の変化特性から動画データの撮影状況の変化が把握されて、この変化を示すフレーム画像を選択して表示する技術を提案している。 In recent years, with the improvement of performance and image quality of video cameras and smartphones, it has come to be performed to generate still image data that can be extracted from moving image data. Based on this situation, a technique has been proposed that makes it possible to create an album or the like by extracting a desired still image from moving image data. For example, Patent Document 1 proposes a technique in which a change in the shooting status of moving image data is grasped from a change characteristic of a feature amount included in a frame image of moving image data, and a frame image showing this change is selected and displayed. ..

特開2007−82240号公報JP-A-2007-82240

しかし、動画像データから抽出された静止画像を印刷する際のユーザー負担の軽減については十分な検討がなされていなかった。動画像データから静止画像データを抽出する場合には、静止画像の抽出数を予測することが困難である。たとえば旅先において、コンビニエンスストア等に設置してある画像形成装置を使用して印刷処理を行う場合に、支払うべき料金を考慮しつつ印刷対象とする静止画像を選択する負担が大きいことが想定される。 However, sufficient studies have not been made on how to reduce the burden on the user when printing a still image extracted from moving image data. When extracting still image data from moving image data, it is difficult to predict the number of still images extracted. For example, when performing printing processing using an image forming apparatus installed in a convenience store or the like while traveling, it is assumed that the burden of selecting a still image to be printed is heavy while considering the fee to be paid. ..

本発明は、このような状況に鑑みてなされたものであり、支払うべき料金を考慮しつつ印刷対象とする静止画像を選択する負担を軽減させる技術を提供することを目的とする。 The present invention has been made in view of such a situation, and an object of the present invention is to provide a technique for reducing the burden of selecting a still image to be printed while considering a fee to be paid.

本発明は、入金処理に応じて印刷処理を実行する画像形成装置を提供する。前記画像形成装置は、動画像データから複数の静止画像データを生成する静止画像データ生成部と、前記静止画像データの特徴量を計算し、前記特徴量に基づいて前記静止画像データを抽出し、前記抽出された複数の静止画像データから時系列的に連続している少なくとも1つのグループを生成する静止画像データ抽出部と、前記入金処理で入金された金額と、印刷処理の単価とを使用して印刷可能枚数を計算する印刷可能枚数計算部と、前記印刷可能枚数が前記グループの数未満である場合には、前記特徴量を使用して決定された順序で前記グループを表示する操作表示部とを備える。 The present invention provides an image forming apparatus that executes a printing process in response to a deposit process. The image forming apparatus calculates a still image data generation unit that generates a plurality of still image data from moving image data, a feature amount of the still image data, and extracts the still image data based on the feature amount. Using a still image data extraction unit that generates at least one group that is continuous in time series from the plurality of extracted still image data, the amount of money deposited in the deposit process, and the unit price of the print process. A printable number calculation unit that calculates the number of printable sheets, and an operation display unit that displays the groups in an order determined by using the feature amount when the number of printable sheets is less than the number of the groups. And.

本発明は、入金処理に応じて印刷処理を実行する画像形成方法を提供する。前記画像形成方法は、動画像データから複数の静止画像データを生成する静止画像データ生成工程と、前記静止画像データの特徴量を計算し、前記特徴量に基づいて前記静止画像データを抽出し、前記抽出された複数の静止画像データから時系列的に連続している少なくとも1つのグループを生成する静止画像データ抽出工程と、前記入金処理で入金された金額と、印刷処理の単価とを使用して印刷可能枚数を計算する印刷可能枚数計算工程と、前記印刷可能枚数が前記グループの数未満である場合には、前記特徴量を使用して決定された順序で前記グループを表示する操作表示工程とを備える。 The present invention provides an image forming method that executes a printing process in response to a deposit process. The image forming method includes a still image data generation step of generating a plurality of still image data from moving image data, a feature amount of the still image data is calculated, and the still image data is extracted based on the feature amount. Using the still image data extraction step of generating at least one group that is continuous in time series from the plurality of extracted still image data, the amount of money deposited in the deposit process, and the unit price of the print process. A printable number calculation step of calculating the printable number of sheets, and an operation display step of displaying the group in an order determined by using the feature amount when the printable number of sheets is less than the number of the group. And.

本発明は、入金処理に応じて印刷処理を実行する画像形成装置を制御するための画像形成プログラムを提供する。前記画像形成プログラムは、動画像データから複数の静止画像データを生成する静止画像データ生成部、前記静止画像データの特徴量を計算し、前記特徴量に基づいて前記静止画像データを抽出し、前記抽出された複数の静止画像データから時系列的に連続している少なくとも1つのグループを生成する静止画像データ抽出部、前記入金処理で入金された金額と、印刷処理の単価とを使用して印刷可能枚数を計算する印刷可能枚数計算部、前記印刷可能枚数が前記グループの数未満である場合には、前記特徴量を使用して決定された順序で前記グループを表示する操作表示部として画像形成装置を機能させる。 The present invention provides an image forming program for controlling an image forming apparatus that executes a printing process in response to a deposit process. The image forming program calculates a feature amount of the still image data, a still image data generation unit that generates a plurality of still image data from the moving image data, and extracts the still image data based on the feature amount. A still image data extraction unit that generates at least one group that is continuous in time series from a plurality of extracted still image data, and prints using the amount deposited in the deposit process and the unit price of the print process. An image forming unit for calculating the number of printable sheets, and an operation display unit for displaying the groups in an order determined by using the feature amount when the number of printable sheets is less than the number of the groups. Make the device work.

本発明によれば、支払うべき料金を考慮しつつ印刷対象とする静止画像を選択する負担を軽減させる技術を提供する。 According to the present invention, there is provided a technique for reducing the burden of selecting a still image to be printed while considering a fee to be paid.

本発明の第1実施形態に係る画像形成装置100の機能構成を示すブロックダイアグラムである。It is a block diagram which shows the functional structure of the image forming apparatus 100 which concerns on 1st Embodiment of this invention. 第1実施形態に係る静止画像取得処理の内容を示すフローチャートである。It is a flowchart which shows the content of the still image acquisition processing which concerns on 1st Embodiment. 第1実施形態に係るフレーム画像データ生成処理の内容を示すデータフローダイアグラムである。It is a data flow diagram which shows the content of the frame image data generation processing which concerns on 1st Embodiment. 第1実施形態に係るフレーム画像抽出処理の概要を示す説明図である。It is explanatory drawing which shows the outline of the frame image extraction processing which concerns on 1st Embodiment. 第1実施形態に係るフレーム画像抽出処理の内容を示すフローチャートである。It is a flowchart which shows the content of the frame image extraction processing which concerns on 1st Embodiment. 第2実施形態に係る静止画像取得処理の内容を示すフローチャートである。It is a flowchart which shows the content of the still image acquisition processing which concerns on 2nd Embodiment. 第2実施形態に係るフレーム画像抽出処理の内容を示すフローチャートである。It is a flowchart which shows the content of the frame image extraction processing which concerns on 2nd Embodiment. 第2実施形態に係るフレーム画像抽出処理の概要を示す説明図である。It is explanatory drawing which shows the outline of the frame image extraction processing which concerns on 2nd Embodiment. 第3実施形態に係る静止画像取得処理の内容を示すフローチャートである。It is a flowchart which shows the content of the still image acquisition processing which concerns on 3rd Embodiment. 第3実施形態に係る人物登録処理の内容を示すフローチャートである。It is a flowchart which shows the content of the person registration process which concerns on 3rd Embodiment. 第3実施形態に係る特徴量計算処理の内容を示すフローチャートである。It is a flowchart which shows the content of the feature amount calculation process which concerns on 3rd Embodiment. 第4実施形態に係る静止画像取得処理の内容を示すフローチャートである。It is a flowchart which shows the content of the still image acquisition processing which concerns on 4th Embodiment. 第4実施形態に係る印刷出力処理の内容を示すフローチャートである。It is a flowchart which shows the content of the print output processing which concerns on 4th Embodiment. 第4実施形態に係る印刷対象画像選択処理の内容を示すフローチャートである。It is a flowchart which shows the content of the print target image selection process which concerns on 4th Embodiment. 第4実施形態に係る印刷対象画像選択処理における操作表示画面を示す説明図である。It is explanatory drawing which shows the operation display screen in the print target image selection process which concerns on 4th Embodiment. 第4実施形態に係る印刷レイアウト設定処理の内容を示すフローチャートである。It is a flowchart which shows the content of the print layout setting process which concerns on 4th Embodiment. 第4実施形態に係る印刷レイアウト設定処理における操作表示画面を示す説明図である。It is explanatory drawing which shows the operation display screen in the print layout setting process which concerns on 4th Embodiment. 第4実施形態に係る印刷レイアウト設定処理の一例を示す説明図である。It is explanatory drawing which shows an example of the print layout setting process which concerns on 4th Embodiment. 第4実施形態に係る印刷レイアウト設定処理の他の例を示す説明図である。It is explanatory drawing which shows another example of the print layout setting process which concerns on 4th Embodiment.

以下、本発明を実施するための形態(以下、「実施形態」という)を、図面を参照して以下の順序で説明する。
A.第1実施形態:
B.第2実施形態:
C.第3実施形態:
D.第4実施形態:
E.変形例:
Hereinafter, embodiments for carrying out the present invention (hereinafter, referred to as “embodiments”) will be described in the following order with reference to the drawings.
A. First Embodiment:
B. Second embodiment:
C. Third Embodiment:
D. Fourth Embodiment:
E. Modification example:

A.第1実施形態:
図1は、本発明の第1実施形態に係る画像形成装置100の機能構成を示すブロックダイアグラムである。画像形成装置100は、制御部110と、画像形成部120と、操作表示部130と、記憶部140と、通信インターフェース部150(通信I/F部とも呼ばれる。)とを備えている。画像形成装置100は、通信インターフェース部150を介して近距離無線通信でスマートフォン200と接続される。これにより、画像形成装置100は、スマートフォン200で撮像して生成された動画像データを受信することができる。
A. First Embodiment:
FIG. 1 is a block diagram showing a functional configuration of the image forming apparatus 100 according to the first embodiment of the present invention. The image forming apparatus 100 includes a control unit 110, an image forming unit 120, an operation display unit 130, a storage unit 140, and a communication interface unit 150 (also referred to as a communication I / F unit). The image forming apparatus 100 is connected to the smartphone 200 by short-range wireless communication via the communication interface unit 150. As a result, the image forming apparatus 100 can receive the moving image data generated by imaging with the smartphone 200.

近距離無線通信は、本実施形態では、BLUETOOTH(登録商標)のCLASS2を使用している。BLUETOOTH(登録商標)のCLASS2は、出力2.5mWの通信であり、画像形成装置100とスマートフォン200との距離が10m以内程度での通信が可能な近距離無線通信である。 For short-range wireless communication, in this embodiment, CLASS2 of BLUETOOTH (registered trademark) is used. BLUETOOTH (registered trademark) CLASS2 is a communication with an output of 2.5 mW, and is a short-range wireless communication capable of communicating within a distance of about 10 m between the image forming apparatus 100 and the smartphone 200.

制御部110は、RAMやROM等の主記憶手段、及びMPU(Micro Processing Unit)やCPU(Central Processing Unit)等の制御手段を備えている。また、制御部110は、各種I/O、USB(Universal Serial Bus)、バス、その他ハードウェア等のインターフェースに関連するコントローラー機能を備えている。制御部110は、画像形成装置100の全体を制御する。 The control unit 110 includes main storage means such as RAM and ROM, and control means such as MPU (Micro Processing Unit) and CPU (Central Processing Unit). In addition, the control unit 110 has controller functions related to interfaces such as various I / O, USB (Universal Serial Bus), bus, and other hardware. The control unit 110 controls the entire image forming apparatus 100.

制御部110は、フレーム画像生成部111と、特徴量演算部112と、フレーム画像抽出部113と、フレームメモリ114と、周期設定部115とを備えている。画像形成部120は、印刷媒体上に画像を形成する。 The control unit 110 includes a frame image generation unit 111, a feature amount calculation unit 112, a frame image extraction unit 113, a frame memory 114, and a cycle setting unit 115. The image forming unit 120 forms an image on the print medium.

操作表示部130は、ディスプレイ131と、操作処理部132とを備えている。ディスプレイ131は、タッチパネルとして機能し、様々なメニューを入力画面として表示する。操作処理部132は、スタートボタンを含み、ユーザーの操作入力を受け付ける。 The operation display unit 130 includes a display 131 and an operation processing unit 132. The display 131 functions as a touch panel and displays various menus as input screens. The operation processing unit 132 includes a start button and accepts a user's operation input.

記憶部140は、非一時的な記録媒体であるハードディスクドライブやフラッシュメモリー等からなる記憶装置で、それぞれ制御部110が実行する処理の制御プログラムやデータを記憶する。記憶部140は、さらに、フレーム画像データを格納するための静止画像格納領域141と、人物の顔検出のための顔画像データ(登録顔画像データとも呼ばれる。)が登録されている人物登録データ格納領域142とを有している。人物登録データ格納領域142には、一般的な顔の検出に応じてフレーム画像データを抽出するための閾値を表すデータも格納されている。 The storage unit 140 is a storage device including a hard disk drive, a flash memory, or the like, which are non-temporary recording media, and stores control programs and data for processing executed by the control unit 110, respectively. The storage unit 140 further stores a person registration data 141 in which a still image storage area 141 for storing frame image data and face image data (also referred to as registered face image data) for detecting a person's face are registered. It has a region 142. The person registration data storage area 142 also stores data representing a threshold value for extracting frame image data in response to general face detection.

図2は、第1実施形態に係る静止画像取得処理の内容を示すフローチャートである。ステップS10では、ユーザーは、操作表示部130を使用して特徴選択処理を実行する。特徴選択処理では、ユーザーは、動画像データから静止画像データを抽出する際の条件として抽出対象となる静止画像で検出されるべき特徴量の種類を選択することができる。 FIG. 2 is a flowchart showing the contents of the still image acquisition process according to the first embodiment. In step S10, the user executes the feature selection process using the operation display unit 130. In the feature selection process, the user can select the type of feature amount to be detected in the still image to be extracted as a condition for extracting the still image data from the moving image data.

特徴量の種類には、顔検出のための特徴量や特定の人物を検出するための特徴量といった種類がある。顔検出のための特徴量は、単に人間の顔が大きく表示されていること等を定量的に表すことができる。特定の人物を検出するための特徴量は、他の人物から特定の人物を識別して、特定の人間の顔が大きく表示されていること等を定量的に表すことができる。特定の人物を検出するための特徴量の登録方法については、第3実施形態で詳しく説明する。 There are various types of feature amounts, such as a feature amount for face detection and a feature amount for detecting a specific person. The feature amount for face detection can simply quantitatively represent that a human face is displayed in a large size. The feature amount for detecting a specific person can identify a specific person from other persons and quantitatively represent that the face of the specific person is displayed in a large size. The method of registering the feature amount for detecting a specific person will be described in detail in the third embodiment.

この際、周期設定部115は、フレーム画像の時間的なサンプリング間隔であるサンプリング周期の設定である周期設定入力を受け付ける操作表示画面(図示せず)を操作表示部130に表示させる。これにより、ユーザーは、サンプリング周期を設定することができる。 At this time, the cycle setting unit 115 causes the operation display unit 130 to display an operation display screen (not shown) that accepts a cycle setting input that is a setting of a sampling cycle that is a temporal sampling interval of the frame image. This allows the user to set the sampling period.

ステップS20では、制御部110のフレーム画像生成部111は、静止画像データ生成部として機能し、フレーム画像データ生成処理を実行する。フレーム画像データ生成処理では、フレーム画像生成部111は、たとえば30fpsのフレームレートの動画像データMDからフレーム画像データを生成する。 In step S20, the frame image generation unit 111 of the control unit 110 functions as a still image data generation unit and executes the frame image data generation process. In the frame image data generation process, the frame image generation unit 111 generates frame image data from the moving image data MD having a frame rate of, for example, 30 fps.

図3は、第1実施形態に係るフレーム画像データ生成処理の内容を示すデータフローダイアグラムである。図3には、上側にデータフローダイアグラムが示され、下側にGOP(Group of Pictures)が示されている。データフローダイアグラムは、動画像データMDからのフレーム画像データの流れを示している。フレーム画像データは、YUV画像データとして構成されている。フレーム画像データ生成処理は、動画像データMDから複数のフレーム画像データを抽出する処理であり、フレーム画像生成部111によって実行される。 FIG. 3 is a data flow diagram showing the contents of the frame image data generation process according to the first embodiment. In FIG. 3, a data flow diagram is shown on the upper side, and GOP (Group of Pictures) is shown on the lower side. The data flow diagram shows the flow of frame image data from the moving image data MD. The frame image data is configured as YUV image data. The frame image data generation process is a process of extracting a plurality of frame image data from the moving image data MD, and is executed by the frame image generation unit 111.

フレーム画像データ生成処理には、たとえばMPEG−4(ISO/IEC 14496)やH.264に規定される処理が含まれる。フレーム画像データ生成処理では、フレーム画像生成部111は、Iフレーム(Intra−coded Frame)、Pフレーム(Predicted Frame)及びBフレーム(Bi−directional Predicted Frame)からフレーム画像データを生成する。 For frame image data generation processing, for example, MPEG-4 (ISO / IEC 14496) or H.M. The processing specified in 264 is included. In the frame image data generation process, the frame image generation unit 111 generates frame image data from an I frame (Intra-coded Frame), a P frame (Predicted Frame), and a B frame (Bi-directional Predicted Frame).

Iフレームとは、フレーム間予測を用いずに符号化されるフレームである。Iフレームとは、イントラフレームやキーフレームとも呼ばれる。Iフレームは、Pフレーム(Predicted Frame)やBフレーム(Bi−directional Predicted Frame)とともにGOPを構成する。Pフレームは、IフレームやPフレームとのフレーム間処理によってフレーム画像データの生成を可能とする。Bフレームは、Iフレーム、Pフレーム及び他のBフレームとの前後のフレーム間処理によってフレーム画像データの生成を可能とする。 An I-frame is a frame that is encoded without using inter-frame prediction. The I frame is also called an intra frame or a key frame. The I frame constitutes a GOP together with a P frame (Predicted Frame) and a B frame (Bi-directed Predicted Frame). The P frame enables the generation of frame image data by inter-frame processing with the I frame and the P frame. The B frame enables the generation of frame image data by inter-frame processing before and after the I frame, the P frame, and other B frames.

動画像データは、時系列順に配列されている複数のフレーム画像データから生成される。複数のフレーム画像データは、時系列の前後のフレーム間で近似していることが多い。フレーム間予測とは、このような動画像データの性質を利用して、時系列的に前のフレーム画像から現在のフレーム画像を予測する技術である。 The moving image data is generated from a plurality of frame image data arranged in chronological order. The plurality of frame image data are often approximated between the frames before and after the time series. Inter-frame prediction is a technique for predicting the current frame image from the previous frame image in chronological order by utilizing the properties of such moving image data.

具体的には、画素ブロック毎の移動を推定し、移動後のフレーム間での画素ブロックの差分をDCT変換・量子化してGOP単位での圧縮率を高める技術である。Pフレームは、動きベクトルを使用してIフレームから再現することができる。動きベクトルは、各画素ブロックの移動ベクトルである。 Specifically, it is a technique that estimates the movement of each pixel block and DCT transforms and quantizes the difference between the pixel blocks after the movement to increase the compression rate in GOP units. The P-frame can be reproduced from the I-frame using motion vectors. The motion vector is a motion vector of each pixel block.

フレーム画像生成部111は、Iフレームに対して逆離散コサイン変換(逆DCT変換とも呼ばれる。)を行うことによって、輝度データと色差データとを含むYUV画像データとしてのフレーム画像データを生成する。逆DCT変換は、たとえば8×8画素あるいは16×16の画素ブロック毎に実行される。フレーム画像生成部111は、再現されたフレーム画像データを制御部110のフレームメモリ114に格納する。 The frame image generation unit 111 generates frame image data as YUV image data including brightness data and color difference data by performing an inverse discrete cosine transform (also called an inverse DCT transform) on an I frame. The inverse DCT transform is performed, for example, for each 8 × 8 pixel or 16 × 16 pixel block. The frame image generation unit 111 stores the reproduced frame image data in the frame memory 114 of the control unit 110.

フレーム画像生成部111は、Pフレーム及びBフレームに対して逆離散コサイン変換を行うことによって差分データを生成する。フレーム画像生成部111は、差分データと動きベクトルとを使用してフレーム間処理を実行してフレーム画像データを生成する。動きベクトルは、動画像データMDのエンコード時に生成されたデータである。本処理は、MPEG−4やH.264に規定される通常の復号化処理である。 The frame image generation unit 111 generates difference data by performing an inverse discrete cosine transform on the P frame and the B frame. The frame image generation unit 111 generates frame image data by executing interframe processing using the difference data and the motion vector. The motion vector is data generated at the time of encoding the motion image data MD. This process is performed by MPEG-4 or H.M. This is a normal decoding process specified in 264.

フレーム画像生成部111は、PフレームやBフレームに基づくフレーム画像データ生成処理を実行し、全てのフレーム画像データをフレームメモリ114に格納する。フレーム画像データをフレームメモリ114に格納する際には、フレーム画像生成部111は、フレーム画像データの時系列的な順序を表す番号を各フレーム画像データに紐づけて格納する。 The frame image generation unit 111 executes a frame image data generation process based on the P frame or the B frame, and stores all the frame image data in the frame memory 114. When the frame image data is stored in the frame memory 114, the frame image generation unit 111 stores a number representing the time-series order of the frame image data in association with each frame image data.

図4は、第1実施形態に係るフレーム画像抽出処理の概要を示す説明図である。図4には、第1フレーム画像群FG1と、第2フレーム画像群FG2と、第3フレーム画像群FG3とが示されている。第1フレーム画像群FG1は、処理対象としての80個のフレーム画像データF1〜F80を示している。第2フレーム画像群FG2は、サンプリング処理中のフレーム画像データF1〜F80を示している。第3フレーム画像群FG3は、フレーム画像抽出処理完了後のフレーム画像データF1〜F80を示している。 FIG. 4 is an explanatory diagram showing an outline of the frame image extraction process according to the first embodiment. FIG. 4 shows a first frame image group FG1, a second frame image group FG2, and a third frame image group FG3. The first frame image group FG1 shows 80 frame image data F1 to F80 as processing targets. The second frame image group FG2 shows the frame image data F1 to F80 during the sampling process. The third frame image group FG3 shows the frame image data F1 to F80 after the frame image extraction process is completed.

ステップS30では、フレーム画像生成部111は、サンプリング処理を実行する。本実施形態では、特徴量演算部112は、ユーザーの選択に基づいて、8フレーム間隔のサンプリング周期(30fpsの場合で0.27秒)でサンプリング対象フレームを決定するものとする。この例では、サンプリング対象フレームは、第1フレーム画像群FG1において菱形の記号で表されている8個のフレーム画像データF9,F18,F27,F36,F45,F54,F63,F72となる。サンプリング対象フレームの画像データは、サンプリング対象静止画像データとも呼ばれる。 In step S30, the frame image generation unit 111 executes the sampling process. In the present embodiment, the feature amount calculation unit 112 determines the sampling target frame at a sampling period of 8 frame intervals (0.27 seconds in the case of 30 fps) based on the user's selection. In this example, the sampling target frames are eight frame image data F9, F18, F27, F36, F45, F54, F63, and F72 represented by diamond symbols in the first frame image group FG1. The image data of the sampling target frame is also called sampling target still image data.

ステップS40では、制御部110の特徴量演算部112は、特徴量計算処理を実行する。特徴量計算処理では、特徴量演算部112は、選択された特徴量の種類に基づいて特徴量を計算する。特徴量演算部112は、たとえば周知のOpenCV(Open Source Computer Vision Library)を使用して人物の検出や特定を実行することができる。サンプリング対象静止画像データの特徴量は、第1の特徴量とも呼ばれる。 In step S40, the feature amount calculation unit 112 of the control unit 110 executes the feature amount calculation process. In the feature amount calculation process, the feature amount calculation unit 112 calculates the feature amount based on the selected feature amount type. The feature amount calculation unit 112 can execute the detection and identification of a person by using, for example, a well-known OpenCV (Open Source Computer Vision Library). The feature amount of the still image data to be sampled is also called the first feature amount.

具体的には、特徴量演算部112は、人物登録データ格納領域142に登録されている登録顔画像データと、たとえばHOG(Histograms of Oriented Gradients)特徴やHaar−Like特徴とに基づいて特定の人物の特徴を定量的に表している特徴量を計算する。特徴量の計算では、SVM(Support Vector Machine)などの機械学習を利用することができる。 Specifically, the feature amount calculation unit 112 is a specific person based on the registered face image data registered in the person registration data storage area 142 and, for example, a HOG (Histograms of Oriented Grades) feature or a Har-Like feature. Calculate the features that quantitatively represent the features of. Machine learning such as SVM (Support Vector Machine) can be used in the calculation of the feature amount.

ステップS50では、フレーム画像抽出部113は、閾値設定処理を実行する。閾値設定処理では、フレーム画像抽出部113は、人物登録データ格納領域142から顔の検出に応じてフレーム画像データを抽出するための閾値を表すデータを読み出し、そのデータを使用して閾値を決定する。閾値は、機械学習によって自動的に計算され、人物登録データ格納領域142に格納される。 In step S50, the frame image extraction unit 113 executes the threshold value setting process. In the threshold value setting process, the frame image extraction unit 113 reads data representing a threshold value for extracting frame image data in response to face detection from the person registration data storage area 142, and determines the threshold value using the data. .. The threshold value is automatically calculated by machine learning and stored in the person registration data storage area 142.

図5は、第1実施形態に係るフレーム画像抽出処理(ステップS60)の内容を示すフローチャートである(図3参照)。ステップS61では、フレーム画像抽出部113は、各サンプリング対象フレームが抽出対象であるか否かを判断する。フレーム画像抽出部113は、各サンプリング対象フレームの特徴量が閾値以上であるか否かに基づいて抽出対象であるか否を判断する。閾値は、人物登録データ格納領域142から読み出された値である。 FIG. 5 is a flowchart showing the contents of the frame image extraction process (step S60) according to the first embodiment (see FIG. 3). In step S61, the frame image extraction unit 113 determines whether or not each sampling target frame is an extraction target. The frame image extraction unit 113 determines whether or not it is an extraction target based on whether or not the feature amount of each sampling target frame is equal to or greater than a threshold value. The threshold value is a value read from the person registration data storage area 142.

フレーム画像抽出部113は、サンプリング対象フレームが抽出対象である場合には、処理をステップS62に進める。この例では、特徴量が閾値以上のサンプリング対象フレームは、第1フレーム画像群FG1において、3個のフレーム画像データF18,F45,F54となる。サンプリング対象フレーム(サンプリング対象静止画像データ)は、抽出対象である場合には、第1の抽出対象静止画像データとも呼ばれる。 When the sampling target frame is the extraction target, the frame image extraction unit 113 proceeds to the process in step S62. In this example, the sampling target frames whose feature amounts are equal to or larger than the threshold value are three frame image data F18, F45, and F54 in the first frame image group FG1. The sampling target frame (sampling target still image data) is also referred to as a first extraction target still image data when it is an extraction target.

ステップS62では、特徴量演算部112は、抽出候補フレーム画像データとして、特徴量が閾値以上のサンプリング対象フレームから予め設定された範囲内(この例では後側の8個)のフレーム画像データ(隣接静止画像データとも呼ばれる。)を選択する(第2フレーム画像群FG2参照)。特徴量が閾値以上のサンプリング対象フレームF18,F45,F54は、抽出対象サンプリング対象フレームとも呼ばれる。 In step S62, the feature amount calculation unit 112 receives frame image data (adjacent to each other) within a preset range (in this example, the rear eight) from the sampling target frame whose feature amount is equal to or greater than the threshold value as extraction candidate frame image data. (Also called still image data) is selected (see the second frame image group FG2). The sampling target frames F18, F45, and F54 whose feature amounts are equal to or larger than the threshold value are also referred to as extraction target sampling target frames.

具体的には、特徴量演算部112は、たとえばサンプリング対象フレームF18については、その後側の8個のフレーム画像データF19〜F26を選択する。さらに、特徴量演算部112は、サンプリング対象フレームF45については、その後側の8個のフレーム画像データF46〜F53を選択し、サンプリング対象フレームF54については、その後側の8個のフレーム画像データF55〜F62を選択する。 Specifically, the feature amount calculation unit 112 selects, for example, eight frame image data F19 to F26 on the rear side of the sampling target frame F18. Further, the feature amount calculation unit 112 selects eight frame image data F46 to F53 on the rear side for the sampling target frame F45, and eight frame image data F55 on the rear side for the sampling target frame F54. Select F62.

ステップS63では、特徴量演算部112は、抽出対象サンプリング対象フレームの直前のサンプリング対象フレームが抽出対象サンプリング対象フレームであるか否かを判断する。特徴量演算部112は、直前のサンプリング対象フレームが抽出対象サンプリング対象フレームである場合には、処理をステップS65に進め、直前のサンプリング対象フレームが抽出対象サンプリング対象フレームでない場合には、処理をステップS64に進める。 In step S63, the feature amount calculation unit 112 determines whether or not the sampling target frame immediately before the extraction target sampling target frame is the extraction target sampling target frame. The feature amount calculation unit 112 advances the processing to step S65 when the immediately preceding sampling target frame is the extraction target sampling target frame, and steps the processing when the immediately preceding sampling target frame is not the extraction target sampling target frame. Proceed to S64.

具体的には、特徴量演算部112は、サンプリング対象フレームF18については、その直前のサンプリング対象フレームF9が抽出対象サンプリング対象フレームでないので、処理をステップS64に進める。この点は、サンプリング対象フレームF45についても同様である。一方、特徴量演算部112は、サンプリング対象フレームF54については、その直前のサンプリング対象フレームF45が抽出対象サンプリング対象フレームなので、処理をステップS65に進める。 Specifically, the feature amount calculation unit 112 proceeds to step S64 for the sampling target frame F18 because the sampling target frame F9 immediately before the sampling target frame F18 is not the extraction target sampling target frame. This point is the same for the sampling target frame F45. On the other hand, the feature amount calculation unit 112 proceeds to step S65 because the sampling target frame F45 immediately before the sampling target frame F54 is the extraction target sampling target frame.

ステップS64では、特徴量演算部112は、抽出候補フレーム画像データとして、抽出対象サンプリング対象フレームから予め設定された範囲内(この例では前側の8個)のフレーム画像データ(隣接静止画像データとも呼ばれる。)を選択する。具体的には、サンプリング対象フレームF18については、8個のフレーム画像データF10〜F17が抽出候補フレーム画像データとして選択され、サンプリング対象フレームF45については、8個のサンプリング対象フレームF37〜F44が抽出候補フレーム画像データとして選択される。 In step S64, the feature amount calculation unit 112 uses the extraction candidate frame image data as frame image data (also referred to as adjacent still image data) within a preset range (in this example, the front eight) from the extraction target sampling target frame. .) Is selected. Specifically, for the sampling target frame F18, eight frame image data F10 to F17 are selected as extraction candidate frame image data, and for the sampling target frame F45, eight sampling target frames F37 to F44 are extraction candidates. Selected as frame image data.

一方、抽出対象サンプリング対象フレームF54については、その前側のフレーム画像データF46〜F53が選択されない。フレーム画像データF46〜F53は、既に抽出対象サンプリング対象フレームF45の後側の8個のフレーム画像データとして選択済みだからである。 On the other hand, for the extraction target sampling target frame F54, the frame image data F46 to F53 on the front side thereof are not selected. This is because the frame image data F46 to F53 have already been selected as the eight frame image data on the rear side of the extraction target sampling target frame F45.

なお、予め設定された範囲は、第1の抽出対象静止画像データ(たとえばサンプリング対象フレームF54)の直前のサンプリング対象静止画像データ(たとえばサンプリング対象フレームF45)と、第1の抽出対象静止画像データの直後のサンプリング対象静止画像データ(たとえばサンプリング対象フレームF63)との間において設定することができる。 The preset range includes the sampling target still image data (for example, sampling target frame F45) immediately before the first extraction target still image data (for example, sampling target frame F54) and the first extraction target still image data. It can be set with the sampling target still image data (for example, sampling target frame F63) immediately after.

このように、特徴量演算部112は、フレーム画像データF10〜F17,F19〜F26,F37〜F44,F46〜F53及びF55〜F62を抽出候補フレーム画像データとして選択する。すなわち、特徴量演算部112は、所定のフレーム間隔でサンプリング対象フレームを設定して特徴量を計算することによって、多数のフレーム画像データのうちの抽出対象である可能性が高い一部のフレーム画像データに限定して特徴量(第2の特徴量とも呼ばれる。)の計算を行うことができる。 In this way, the feature amount calculation unit 112 selects the frame image data F10 to F17, F19 to F26, F37 to F44, F46 to F53, and F55 to F62 as extraction candidate frame image data. That is, the feature amount calculation unit 112 sets the sampling target frame at a predetermined frame interval and calculates the feature amount, so that a part of the frame image that is likely to be the extraction target among a large number of frame image data The feature quantity (also called the second feature quantity) can be calculated only for the data.

本方法は、本願発明者による以下のような知見に基づいて創作されたものである。すなわち、動画の各フレーム画像に含まれる特徴的な部分は、局所的なフレーム(極短時間に相当するフレーム画像)にのみ現れるということは少ない。例えば、人物の顔を特徴として特徴量を計算する場合には、動画中の数フレーム画像のみから顔が検出されることはなく、ある程度連続したフレーム(たとえば数十フレーム)に撮影されていると考えられる。 This method was created based on the following findings by the inventor of the present application. That is, the characteristic portion included in each frame image of the moving image rarely appears only in the local frame (frame image corresponding to an extremely short time). For example, when calculating the feature amount with a person's face as a feature, the face is not detected only from the few frame images in the moving image, and it is said that the face is shot in a certain continuous frame (for example, several tens of frames). Conceivable.

本願発明者は、このような動画像の性質を考慮して、特徴量の計算対象となる被写体が撮影されている一連のシーンをサンプリング対象フレームで検出し、そのシーンを構成するフレーム画像データ(サンプリング対象フレームの近傍のフレーム)についてのみ特徴量の計算を行う方法を創作した。これにより、本願発明者は、動画像データから静止画像データを抽出する処理における特徴量の計算精度と処理負担のトレードオフの問題を解決する方法を実現した。 In consideration of such a property of a moving image, the inventor of the present application detects a series of scenes in which a subject whose feature amount is to be calculated is photographed in a sampling target frame, and frame image data (frame image data) constituting the scene. We created a method to calculate the features only for the frames in the vicinity of the sampling target frame). As a result, the inventor of the present application has realized a method of solving the problem of trade-off between the calculation accuracy of the feature amount and the processing load in the process of extracting the still image data from the moving image data.

ステップS65では、特徴量演算部112は、特徴量計算処理を実行する。この例では、特徴量計算処理の内容は、ステップS40の特徴量計算処理と同一である。すなわち、この例では、第2の特徴量は、第1の特徴量と同一であるが、相互に相違する特徴量とすることもできる。 In step S65, the feature amount calculation unit 112 executes the feature amount calculation process. In this example, the content of the feature amount calculation process is the same as the feature amount calculation process in step S40. That is, in this example, the second feature amount is the same as the first feature amount, but can be different from each other.

ステップS66では、フレーム画像抽出部113は、静止画像データ抽出部として機能し、抽出対象選別処理を実行する。抽出対象選別処理では、フレーム画像抽出部113は、ステップS61の処理と同様の処理を実行し、各抽出候補フレーム画像データの特徴量が閾値以上であるか否かを判断し、特徴量が閾値以上である抽出候補フレーム画像データを選別する。 In step S66, the frame image extraction unit 113 functions as a still image data extraction unit and executes the extraction target selection process. In the extraction target selection process, the frame image extraction unit 113 executes the same process as the process in step S61, determines whether or not the feature amount of each extraction candidate frame image data is equal to or greater than the threshold value, and the feature amount is the threshold value. The above extraction candidate frame image data is selected.

この例では、フレーム画像抽出部113は、第3フレーム画像群FG3に示されるように、も含めてフレーム画像データF12〜F17,F19〜F21,F40〜F44,F46〜F47,F50〜F53,F55〜F61を第2の抽出対象静止画像データとして選別する。第2の抽出対象静止画像データは、抽出対象サンプリング対象フレーム(第1の抽出対象静止画像データとも呼ばれる。)とともに抽出対象フレーム画像データを構成する。 In this example, the frame image extraction unit 113 includes frame image data F12 to F17, F19 to F21, F40 to F44, F46 to F47, F50 to F53, and F55, as shown in the third frame image group FG3. ~ F61 is selected as the second still image data to be extracted. The second extraction target still image data constitutes the extraction target frame image data together with the extraction target sampling target frame (also referred to as the first extraction target still image data).

ステップS67では、フレーム画像抽出部113は、抽出対象フラグ処理を実行する。抽出対象フラグ処理では、フレーム画像抽出部113は、抽出対象フレーム画像データに抽出対象であることを示すフラグを設定する。 In step S67, the frame image extraction unit 113 executes the extraction target flag processing. In the extraction target flag processing, the frame image extraction unit 113 sets a flag indicating the extraction target in the extraction target frame image data.

ステップS68では、フレーム画像抽出部113は、グループ化処理を実行する。グループ化処理では、フレーム画像抽出部113は、抽出対象サンプリング対象フレームを中心として、フラグが設定されている複数の抽出対象フレーム画像データをグループ化する(図3参照)。 In step S68, the frame image extraction unit 113 executes the grouping process. In the grouping process, the frame image extraction unit 113 groups a plurality of extraction target frame image data for which flags are set, centering on the extraction target sampling target frame (see FIG. 3).

具体的には、フレーム画像抽出部113は、抽出対象サンプリング対象フレームF18を中心として第1フレーム画像データ群FE1のグループを生成する(第3フレーム画像群FG3参照)。第1フレーム画像データ群FE1には、時系列的に連続している10個の抽出対象フレーム画像データF12〜F21が含まれる。 Specifically, the frame image extraction unit 113 generates a group of the first frame image data group FE1 centering on the extraction target sampling target frame F18 (see the third frame image group FG3). The first frame image data group FE1 includes ten extraction target frame image data F12 to F21 that are continuous in time series.

さらに、フレーム画像抽出部113は、抽出対象サンプリング対象フレームF45,F54を中心として、それぞれ第2フレーム画像データ群FE2と第3フレーム画像データ群FE3の各グループを生成する。第2フレーム画像データ群FE2には、時系列的に連続している8個の抽出対象フレーム画像データF40〜F47が含まれる。第3フレーム画像データ群FE3には、時系列的に連続している12個の抽出対象フレーム画像データF50〜F61が含まれる。 Further, the frame image extraction unit 113 generates each group of the second frame image data group FE2 and the third frame image data group FE3, respectively, centering on the extraction target sampling target frames F45 and F54. The second frame image data group FE2 includes eight extraction target frame image data F40 to F47 that are continuous in time series. The third frame image data group FE3 includes twelve consecutive frame image data F50 to F61 to be extracted in chronological order.

なお、この例では、2つのフレーム画像データF47,F50の間のフレーム画像データF48,F49が抽出対象フレーム画像データとして選別されていないので、第2フレーム画像データ群FE2と第3フレーム画像データ群FE3とにグループ化されている。しかしながら、仮にフレーム画像データF48,F49が抽出対象フレーム画像データとして選別されていた場合には、第3フレーム画像データ群FE3は、第2フレーム画像データ群FE2に併合された状態でグループ化されることになる。 In this example, since the frame image data F48 and F49 between the two frame image data F47 and F50 are not selected as the frame image data to be extracted, the second frame image data group FE2 and the third frame image data group It is grouped with FE3. However, if the frame image data F48 and F49 are selected as the frame image data to be extracted, the third frame image data group FE3 is grouped in a state of being merged with the second frame image data group FE2. It will be.

制御部110は、最終フレーム画像データまでステップS20乃至ステップS60の処理を繰り返して実行する(ステップS70)。 The control unit 110 repeats the processes of steps S20 to S60 until the final frame image data (step S70).

ステップS80では、制御部110は、フレーム画像データ出力処理を実行する。フレーム画像データ出力処理では、制御部110は、第1フレーム画像データ群FE1、第2フレーム画像データ群FE2及び第3フレーム画像データ群FE3を記憶部140の静止画像格納領域141に格納する。 In step S80, the control unit 110 executes the frame image data output process. In the frame image data output process, the control unit 110 stores the first frame image data group FE1, the second frame image data group FE2, and the third frame image data group FE3 in the still image storage area 141 of the storage unit 140.

これにより、第1フレーム画像データ群FE1、第2フレーム画像データ群FE2及び第3フレーム画像データ群FE3は、3つの連続画像データファイルとして管理され、グループ毎に取り扱うことができる。静止画像格納領域141には、第1フレーム画像データ群FE1、第2フレーム画像データ群FE2及び第3フレーム画像データ群FE3の抽出対象フレーム画像データが、それぞれDCT変換されてJPEG静画像データとして格納される(図3参照)。 As a result, the first frame image data group FE1, the second frame image data group FE2, and the third frame image data group FE3 are managed as three continuous image data files and can be handled for each group. In the still image storage area 141, the extraction target frame image data of the first frame image data group FE1, the second frame image data group FE2, and the third frame image data group FE3 are DCT-converted and stored as PEG still image data. (See FIG. 3).

このように、第1実施形態に係る画像形成装置100によれば、特徴量の計算対象となる被写体が撮影されている一連のシーンをサンプリング対象フレームで検出し、そのシーンを構成するフレーム画像データについてのみ特徴量の計算を行うことができる。これにより、動画像データから静止画像データを抽出する処理における特徴量の計算精度と処理負担のトレードオフの問題を解決することができる。 As described above, according to the image forming apparatus 100 according to the first embodiment, a series of scenes in which a subject whose feature amount is to be calculated is photographed is detected in a sampling target frame, and frame image data constituting the scene is detected. The feature quantity can be calculated only for. This makes it possible to solve the problem of trade-off between the calculation accuracy of the feature amount and the processing load in the process of extracting the still image data from the moving image data.

第1実施形態では、全フレームについてフレーム画像データを生成し、その中から所定の周期でサンプリングしているが、このような方法に限定されない。具体的には、たとえばサンプリング対象フレームの検出の際には、サンプリング対象フレームだけを動画像データから生成するようにしてもよい。 In the first embodiment, frame image data is generated for all frames and sampled from the frame image data at a predetermined cycle, but the method is not limited to this method. Specifically, for example, when detecting a sampling target frame, only the sampling target frame may be generated from the moving image data.

具体的には、サンプリング対象フレームがIフレームである場合には、Iフレームだけでフレーム画像データを生成することができる。Iフレームは、そのフレーム全ての情報を保持したフレームであり、フレーム間予測を用いずに符号化されるフレームだからである。サンプリング対象フレームがPフレームである場合には、フレーム間予測で関連するIフレーム及びPフレームを使用してフレーム画像データを生成することができる。サンプリング対象フレームがBフレームである場合には、フレーム間予測で関連するIフレーム、Pフレーム及びBフレームを使用してフレーム画像データを生成することができる。 Specifically, when the sampling target frame is an I frame, the frame image data can be generated only by the I frame. This is because the I frame is a frame that holds the information of all the frames and is encoded without using the inter-frame prediction. When the sampling target frame is a P frame, the frame image data can be generated by using the related I frame and P frame in the inter-frame prediction. When the sampling target frame is a B frame, the frame image data can be generated by using the related I frame, P frame, and B frame in the inter-frame prediction.

さらに、たとえばIフレームだけをサンプリングするようにしてもよい。こうすれば、フレーム間予測を実行する必要が無いので、処理負担を顕著に軽減することができる。あるいは、Iフレーム及びPフレームだけをサンプリングするようにしてもよい。Pフレームのフレーム間予測にはBフレームが使用されないので、IフレームとPフレームだけからフレーム画像データを生成することができるからである。 Further, for example, only the I frame may be sampled. In this way, it is not necessary to execute the inter-frame prediction, so that the processing load can be significantly reduced. Alternatively, only the I frame and the P frame may be sampled. This is because the B frame is not used for the inter-frame prediction of the P frame, so that the frame image data can be generated only from the I frame and the P frame.

Iフレーム、あるいはIフレーム及びPフレームのサンプリングでは、たとえばサンプリング周期に一致するフレームあるいはサンプリング周期内で最大間隔のフレームをサンプリングすることでサンプリング周期を実現することができる。サンプリング周期内において、Iフレーム及びPフレームのいずれも存在しない場合には、その判断に基づいてBフレームを使用してフレーム画像データを生成するようにしてもよい。 In sampling I-frames, or I-frames and P-frames, a sampling period can be realized by sampling frames that match the sampling period or frames with the maximum interval within the sampling period, for example. If neither the I frame nor the P frame exists in the sampling cycle, the B frame may be used to generate the frame image data based on the determination.

B.第2実施形態:
図6は、第2実施形態に係る静止画像取得処理の内容を示すフローチャートである。図7は、第2実施形態に係るフレーム画像抽出処理の内容を示すフローチャートである。第2実施形態に係る静止画像取得処理は、フレーム画像抽出処理(ステップS60)がフレーム画像抽出処理(ステップS600)に変更されている点で第1実施形態に係る静止画像取得処理と相違する。フレーム画像抽出処理(ステップS600)は、時系列における特徴量の極大値の近傍のフレーム画像を抽出する点に特徴を有している。
B. Second embodiment:
FIG. 6 is a flowchart showing the contents of the still image acquisition process according to the second embodiment. FIG. 7 is a flowchart showing the contents of the frame image extraction process according to the second embodiment. The still image acquisition process according to the second embodiment is different from the still image acquisition process according to the first embodiment in that the frame image extraction process (step S60) is changed to the frame image extraction process (step S600). The frame image extraction process (step S600) is characterized in that a frame image in the vicinity of the maximum value of the feature amount in the time series is extracted.

特徴量は、ユーザーが望む静止画像であることを定量的に表すように設定されている。したがって、特徴量の極大値は、撮影者が被写体を設営する際に意図通りの画像が撮影された瞬間のフレーム画像であることを表すように意図されている。この例では、意図通りの画像とは、特定の人物の顔が正面から大きく撮影できたような場合、あるいは笑顔度が高い人物の顔が撮影された画像を意味する。笑顔度は、たとえば周知の3Dモデルフィッティングの手法を使用し、目や口の形状、さらに目や口の周辺の画像を使用する統計的識別手法により算出することができる。 The feature amount is set so as to quantitatively indicate that the still image is a still image desired by the user. Therefore, the maximum value of the feature amount is intended to indicate that the image as intended when the photographer sets up the subject is a frame image at the moment when the image is taken. In this example, the intended image means an image in which the face of a specific person can be photographed large from the front, or the face of a person with a high degree of smile is photographed. The degree of smile can be calculated by, for example, using a well-known 3D model fitting method, and a statistical identification method using an image of the shape of the eyes and mouth and images around the eyes and mouth.

しかしながら、特徴量が極大である画像が必ずしもユーザーが望む画像とは必ずしも一致しない。具体的には、たとえば親であるユーザーから見て、親が望む子供の表情が写っている画像は、笑顔度が極大値とは限らない。第2実施形態は、特徴量の極大値の近傍のフレーム画像を抽出することによって、笑顔度等でフレーム画像を絞り込み、その中からユーザーが好みのフレーム画像を選択できるようにしている。 However, the image having the maximum feature amount does not always match the image desired by the user. Specifically, for example, from the perspective of a parent user, an image showing a child's facial expression desired by the parent does not always have a maximum smile level. In the second embodiment, by extracting a frame image in the vicinity of the maximum value of the feature amount, the frame image is narrowed down by the degree of smile or the like, and the user can select a favorite frame image from the frame images.

ステップS610では、フレーム画像抽出部113は、極大値探索処理を実行する。極大値探索処理では、フレーム画像抽出部113は、時系列における特徴量の極大値を探索する。極大値とは、特徴量の局所的な(つまり、ある点の近傍における)最大値を意味している。 In step S610, the frame image extraction unit 113 executes the maximum value search process. In the maximum value search process, the frame image extraction unit 113 searches for the maximum value of the feature amount in the time series. The maximum value means the local maximum value (that is, in the vicinity of a certain point) of the feature quantity.

図8は、第2実施形態に係るフレーム画像抽出処理の概要を示す説明図である。図8は、時系列における特徴量の変動を表している特徴量曲線FCを示している。この例では、特徴量曲線FCは、第1の極大値LM1と、第2の極大値LM2と、第3の極大値LM3とを有している。図8では、最小値が0となり、最大値が1となるように特徴量が正規化されている。第1の極大値LM1は特徴量0.65を有し、第2の極大値LM2は特徴量0.8を有し、第3の極大値LM3は特徴量0.5を有している。 FIG. 8 is an explanatory diagram showing an outline of the frame image extraction process according to the second embodiment. FIG. 8 shows a feature amount curve FC showing a change in the feature amount in a time series. In this example, the feature amount curve FC has a first maximum value LM1, a second maximum value LM2, and a third maximum value LM3. In FIG. 8, the feature amount is normalized so that the minimum value is 0 and the maximum value is 1. The first maximum value LM1 has a feature amount of 0.65, the second maximum value LM2 has a feature amount of 0.8, and the third maximum value LM3 has a feature amount of 0.5.

この例では、特徴量曲線FCは、サンプリング対象フレームの特徴量を使用して生成されたスプライン曲線として構成されている。スプライン曲線には、サンプリング対象フレームの特徴量を通過する曲線と、サンプリング対象フレームの特徴量を必ずしも通過しないスプライン曲線(たとえばB−スプライン曲線)とがある。特徴量曲線FCは、スプライン曲線に限られず、サンプリング対象フレームの特徴量あるいはその近傍を通過する近似曲線であればよい。 In this example, the feature curve FC is configured as a spline curve generated using the features of the sampling target frame. The spline curve includes a curve that passes through the feature amount of the sampling target frame and a spline curve (for example, a B-spline curve) that does not necessarily pass through the feature amount of the sampling target frame. The feature amount curve FC is not limited to the spline curve, and may be an approximate curve that passes through the feature amount of the sampling target frame or its vicinity.

ステップS620では、フレーム画像抽出部113は、閾値計算処理を実行する。閾値計算処理では、フレーム画像抽出部113は、この例では、極大値に対する予め設定された所定の割合である80%として閾値を計算する。具体的には、たとえば第1の極大値LM1(特徴量0.65)に対する閾値Th1は、0.52となり、第2の極大値LM2(特徴量0.8)に対する閾値Th2は、0.64となり、第3の極大値LM3(特徴量0.5)に対する閾値Th3は、0.4となる。 In step S620, the frame image extraction unit 113 executes the threshold value calculation process. In the threshold calculation process, the frame image extraction unit 113 calculates the threshold value as 80%, which is a preset predetermined ratio to the maximum value in this example. Specifically, for example, the threshold Th1 for the first maximum value LM1 (feature amount 0.65) is 0.52, and the threshold Th2 for the second maximum value LM2 (feature amount 0.8) is 0.64. Therefore, the threshold Th3 with respect to the third maximum value LM3 (feature amount 0.5) is 0.4.

ステップS630では、フレーム画像抽出部113は、隣接極小値探索処理を実行する。隣接極小値探索処理では、フレーム画像抽出部113は、各極大値の近傍において閾値を超える極小値を探索する。具体的には、フレーム画像抽出部113は、第3の極大値LMの近傍において閾値Th3(0.4)を超える極小値ALを発見することができる。 In step S630, the frame image extraction unit 113 executes the adjacent minimum value search process. In the adjacent minimum value search process, the frame image extraction unit 113 searches for a minimum value that exceeds the threshold value in the vicinity of each maximum value. Specifically, the frame image extraction unit 113 can find a minimum value AL exceeding the threshold value Th3 (0.4) in the vicinity of the third maximum value LM.

ステップS640では、フレーム画像抽出部113は、隣接極小値が存在した場合には、処理をステップS655に進め、隣接極小値が存在しなかった場合には、処理をステップS650に進める。この例では、フレーム画像抽出部113は、第1の極大値LM1および第2の極大値LM2については処理をステップS650に進める。一方、第3の極大値LMの始期時刻については処理をステップS655に進め、第3の極大値LMの終期時刻については処理をステップS650に進める。 In step S640, the frame image extraction unit 113 advances the process to step S655 when the adjacent minimum value exists, and proceeds to the process to step S650 when the adjacent minimum value does not exist. In this example, the frame image extraction unit 113 proceeds to step S650 for the first maximum value LM1 and the second maximum value LM2. On the other hand, the process proceeds to step S655 for the start time of the third maximum value LM, and the process proceeds to step S650 for the end time of the third maximum value LM.

ステップS650では、フレーム画像抽出部113は、閾値との交差時刻を取得する。閾値との交差時刻は、スプライン曲線を使用して求めることもできるし、あるいは閾値より大きく閾値に最も近い特徴量を有するフレーム画像データの時刻として求めることもできる。この例では、フレーム画像抽出部113は、第1の極大値LM1については始期時刻t11と終期時刻t12とを取得し、第2の極大値LM2については始期時刻t21と終期時刻t22とを取得し、第3の極大値LM3については終期時刻t32を取得する。 In step S650, the frame image extraction unit 113 acquires the intersection time with the threshold value. The intersection time with the threshold value can be obtained by using a spline curve, or can be obtained as the time of frame image data having a feature amount larger than the threshold value and closest to the threshold value. In this example, the frame image extraction unit 113 acquires the start time t11 and the end time t12 for the first maximum value LM1, and acquires the start time t21 and the end time t22 for the second maximum value LM2. , The final time t32 is acquired for the third maximum value LM3.

ステップS655では、フレーム画像抽出部113は、隣接極小値の時刻を取得する。隣接極小値の時刻は、スプライン曲線を使用して求めることもできるし、あるいは隣接極小値の近傍のフレーム画像データの時刻として求めることもできる。この例では、フレーム画像抽出部113は、第3の極大値LM3について隣接極小値ALの時刻である始期時刻t31を取得する。 In step S655, the frame image extraction unit 113 acquires the time of the adjacent minimum value. The time of the adjacent minimum value can be obtained by using a spline curve, or can be obtained as the time of the frame image data in the vicinity of the adjacent minimum value. In this example, the frame image extraction unit 113 acquires the start time t31, which is the time of the adjacent minimum value AL for the third maximum value LM3.

ステップS660では、フレーム画像抽出部113は、静止画像データ抽出部として機能し、抽出対象選別処理を実行する。抽出対象選別処理では、フレーム画像抽出部113は、各極大値の近傍において始期時刻と終期時刻との間の所定の時間範囲内のフレーム画像データを抽出対象フレーム画像データとして選別する。所定の時間範囲は、換言すれば各極大値と始期時刻(又は隣接極小値の時刻)との間の時間と、各極大値と終期時刻(又は隣接極小値の時刻)との間の時間とを使用して設定される。 In step S660, the frame image extraction unit 113 functions as a still image data extraction unit and executes the extraction target selection process. In the extraction target selection process, the frame image extraction unit 113 selects frame image data within a predetermined time range between the start time and the end time in the vicinity of each maximum value as extraction target frame image data. The predetermined time range is, in other words, the time between each maximum value and the start time (or the time of the adjacent minimum value), and the time between each maximum value and the end time (or the time of the adjacent minimum value). Is set using.

この例では、フレーム画像抽出部113は、第1の極大値LM1については始期時刻t11と終期時刻t12との間のフレーム画像データを選別し、第2の極大値LM2については始期時刻t21と終期時刻t22との間のフレーム画像データを選別し、第3の極大値LM3については始期時刻t31と終期時刻t32との間のフレーム画像データを選別する。 In this example, the frame image extraction unit 113 selects frame image data between the start time t11 and the end time t12 for the first maximum value LM1, and the start time t21 and the end time for the second maximum value LM2. The frame image data between the time t22 and the time t22 is selected, and the frame image data between the start time t31 and the end time t32 is selected for the third maximum value LM3.

ステップS670では、フレーム画像抽出部113は、抽出対象フラグ処理を実行する。抽出対象フラグ処理では、フレーム画像抽出部113は、抽出対象フレーム画像データに抽出対象であることを示すフラグを設定する。 In step S670, the frame image extraction unit 113 executes the extraction target flag processing. In the extraction target flag processing, the frame image extraction unit 113 sets a flag indicating the extraction target in the extraction target frame image data.

ステップS680では、フレーム画像抽出部113は、グループ化処理を実行する。グループ化処理では、フレーム画像抽出部113は、フラグが設定されている複数の抽出対象フレーム画像データを極大値毎にグループ化する(図3参照)。これにより、フレーム画像抽出部113は、第1の極大値LM1、第2の極大値LM2及び第3の極大値LM3に対して、それぞれフレーム画像データ群FE1a,FE2a,FE3aを連続画像データファイルとして生成することができる。 In step S680, the frame image extraction unit 113 executes the grouping process. In the grouping process, the frame image extraction unit 113 groups a plurality of extraction target frame image data for which flags are set for each maximum value (see FIG. 3). As a result, the frame image extraction unit 113 uses the frame image data groups FE1a, FE2a, and FE3a as continuous image data files for the first maximum value LM1, the second maximum value LM2, and the third maximum value LM3, respectively. Can be generated.

このように、第2実施形態に係るフレーム画像抽出処理は、特徴量の極大値を探索し、極大値の80%の閾値との交差時刻(又は隣接極小値の時刻)を使用して、特徴量の極大値の近傍のフレーム画像データを抽出する。これにより、画像形成装置100は、極大値のピーク形状(あるいは傾斜)が急峻である場合は抽出するフレーム数を少なくして効率的な抽出を可能とする一方、極大値のピーク形状(あるいは傾斜)が緩やかである場合には、長時間に亘って安定的に意図通りの画像が取得できたとして、抽出するフレーム数を多くすることができる。 As described above, the frame image extraction process according to the second embodiment searches for the maximum value of the feature amount and uses the intersection time (or the time of the adjacent minimum value) with the threshold value of 80% of the maximum value. The frame image data in the vicinity of the maximum value of the quantity is extracted. As a result, the image forming apparatus 100 enables efficient extraction by reducing the number of frames to be extracted when the peak shape (or inclination) of the maximum value is steep, while the peak shape (or inclination) of the maximum value is enabled. ) Is gentle, it is possible to increase the number of frames to be extracted, assuming that the intended image can be stably acquired for a long period of time.

なお、本実施形態では、極大値の80%の閾値との交差時刻が使用されているが、数値は80%に限定されず、特徴量の極大値の近傍を決定するための時刻の設定方法も閾値と交差時刻を使用する方法に限定されない。第2実施形態に係るフレーム画像抽出処理は、極大値のピーク形状が緩やかである場合には、抽出するフレーム数を少なくする一方、極大値のピーク形状が緩やかである場合には、抽出するフレーム数を多くするように構成されていればよい。 In the present embodiment, the intersection time with the threshold value of 80% of the maximum value is used, but the numerical value is not limited to 80%, and a method of setting the time for determining the vicinity of the maximum value of the feature amount. Is not limited to the method using the threshold value and the crossing time. In the frame image extraction process according to the second embodiment, the number of frames to be extracted is reduced when the peak shape of the maximum value is gentle, and the frame to be extracted is performed when the peak shape of the maximum value is gentle. It suffices if it is configured to increase the number.

また、本実施形態では、特徴量曲線FCは、サンプリング対象フレームの特徴量を使用して生成された近似曲線として構成されているが、必ずしもサンプリング対象フレームの特徴量を使用する必要はなく、全てのフレーム画像データを使用するようにしてもよい。 Further, in the present embodiment, the feature amount curve FC is configured as an approximate curve generated by using the feature amount of the sampling target frame, but it is not always necessary to use the feature amount of the sampling target frame, and all of them. The frame image data of may be used.

C.第3実施形態:
図9は、第3実施形態に係る静止画像取得処理の内容を示すフローチャートである。第3実施形態に係る静止画像取得処理は、人物登録処理(ステップS100)が追加されている点と、特徴量計算処理(ステップS40)が特徴量計算処理(ステップS400)に変更されている点とで第1実施形態及び第2実施形態に係る静止画像取得処理と相違する。
C. Third Embodiment:
FIG. 9 is a flowchart showing the contents of the still image acquisition process according to the third embodiment. In the still image acquisition process according to the third embodiment, the person registration process (step S100) is added, and the feature amount calculation process (step S40) is changed to the feature amount calculation process (step S400). This is different from the still image acquisition process according to the first embodiment and the second embodiment.

図10は、第3実施形態に係る人物登録処理の内容を示すフローチャートである。ステップS110では、ユーザーは、人物登録処理用の動画像データ読込処理を実行する。動画像データ読込処理では、ユーザーは、操作表示部130を使用して人物登録処理用の動画像データを選択して動画像データの読込を指示する。動画像データは、たとえばワイヤレス通信(図示せず)や可搬記憶媒体(図示せず)を利用して画像形成装置100で読込可能とすることができる。 FIG. 10 is a flowchart showing the contents of the person registration process according to the third embodiment. In step S110, the user executes a moving image data reading process for the person registration process. In the moving image data reading process, the user selects the moving image data for the person registration process using the operation display unit 130 and instructs the reading of the moving image data. The moving image data can be read by the image forming apparatus 100 by using, for example, wireless communication (not shown) or a portable storage medium (not shown).

ステップS120では、制御部110の特徴量演算部112は、人物検出処理を実行する。人物検出処理では、特徴量演算部112は、動画像データからフレーム画像データを生成し、フレーム画像データファイルによって表される静止画像中から人物と思われる特徴を有する画像領域である人物検出領域を抽出する。特徴量演算部112は、たとえばHOG(Histograms of Oriented Gradients)特徴量に基づいて、SVM(Support Vector Machine)などの機械学習を利用して人物検出領域を抽出することができる。 In step S120, the feature amount calculation unit 112 of the control unit 110 executes the person detection process. In the person detection process, the feature amount calculation unit 112 generates frame image data from the moving image data, and generates a person detection area which is an image area having characteristics considered to be a person from the still image represented by the frame image data file. Extract. The feature amount calculation unit 112 can extract a person detection region by using machine learning such as SVM (Support Vector Machine) based on, for example, a HOG (Histograms of Oriented Gradients) feature amount.

ステップS130では、特徴量演算部112は、人物分類処理を実行する。人物分類処理では、特徴量演算部112は、たとえば予め登録されている家族の誰かに人物検出領域中の人物を分類する。本実施形態では、家族として父親A、母親B、息子C及び娘Dが操作表示部130を使用してユーザーによって予め登録されているものとする。 In step S130, the feature amount calculation unit 112 executes the person classification process. In the person classification process, the feature amount calculation unit 112 classifies a person in the person detection area into, for example, a person in a family registered in advance. In the present embodiment, it is assumed that the father A, the mother B, the son C, and the daughter D are pre-registered as a family by the user using the operation display unit 130.

特徴量演算部112は、予め設定されている画像領域よりも大きなサイズで人物の顔が表示されているフレーム画像データを選択し、自動的に複数のグループに分類して操作表示部130に表示する。ユーザーは、操作表示部130を介して、複数のグループのそれぞれが父親A、母親B、息子C及び娘Dあるいは他人の何れに該当するかを選択して入力する。 The feature amount calculation unit 112 selects frame image data in which a person's face is displayed in a size larger than a preset image area, automatically classifies the frame image data into a plurality of groups, and displays the frame image data on the operation display unit 130. To do. The user selects and inputs whether each of the plurality of groups corresponds to the father A, the mother B, the son C and the daughter D, or another person via the operation display unit 130.

ユーザーは、さらに、たとえば息子Cのグループに父親Aの静止画像が含まれているといった誤認識に応じて修正動作を行うことができる。これにより、特徴量演算部112は、機械学習の精度を向上させることができる。特徴量演算部112は、父親A、母親B、息子C及び娘Dをレコードとしてデータベースを生成する。データベースには、父親A、母親B、息子C及び娘Dの顔画像のHOG特徴量が登録される。 The user can further perform a correction operation in response to a false recognition that, for example, the group of son C contains a still image of father A. As a result, the feature amount calculation unit 112 can improve the accuracy of machine learning. The feature amount calculation unit 112 generates a database with the father A, the mother B, the son C, and the daughter D as records. HOG features of facial images of father A, mother B, son C, and daughter D are registered in the database.

ステップS140では、特徴量演算部112は、服装選択処理を実行する。服装選択処理では、特徴量演算部112は、父親A、母親B、息子C及び娘Dのそれぞれが着ている服装についてのHOG特徴量をフレーム画像データから抽出する。これにより、特徴量演算部112は、父親A、母親B、息子C及び娘Dの顔画像のHOG特徴量に加えて、その服装画像のHOG特徴量を使用して人物を特定することができる。各人物は、同一の服装を着ることが多く、相違する人物は、相違する服装を着る傾向があるからである。 In step S140, the feature amount calculation unit 112 executes the clothing selection process. In the clothing selection process, the feature amount calculation unit 112 extracts the HOG feature amount of the clothes worn by the father A, the mother B, the son C, and the daughter D from the frame image data. As a result, the feature amount calculation unit 112 can identify a person by using the HOG feature amount of the face image of the father A, the mother B, the son C, and the daughter D, and the HOG feature amount of the clothing image. .. This is because each person often wears the same outfit, and different people tend to wear different outfits.

ステップS150では、特徴量演算部112は、データベース登録処理を実行する。データベース登録処理では、特徴量演算部112は、父親A、母親B、息子C及び娘Dについてのデータベースを記憶部140の人物登録データ格納領域142に格納する。データベースには、父親A、母親B、息子C及び娘Dをレコードとし、それぞれの顔画像のHOG特徴量、服装画像のHOG特徴量、顔画像の機械学習データ、服装画像の機械学習データに加え、身長その他のユーザー入力可能な属性データが含まれる。 In step S150, the feature amount calculation unit 112 executes the database registration process. In the database registration process, the feature amount calculation unit 112 stores the database of the father A, the mother B, the son C, and the daughter D in the person registration data storage area 142 of the storage unit 140. In the database, father A, mother B, son C, and daughter D are recorded, and in addition to the HOG feature amount of each face image, the HOG feature amount of the clothes image, the machine learning data of the face image, and the machine learning data of the clothes image. Includes, height and other user-enterable attribute data.

ユーザーは、さらに、デジタルカメラで撮像した静止画像データを使用して各人物の顔画像や服装画像のデータを登録することもできる。特徴量演算部112は、このような画像データを使用して、顔画像のHOG特徴量及び服装画像のHOG特徴量を生成して、データベースに登録することができる。なお、本実施形態では、HOG特徴量は、画像認識における計算負荷の小さいYUV画像データに基づいて生成されているものとする。 The user can also register the data of the face image and the clothes image of each person by using the still image data captured by the digital camera. The feature amount calculation unit 112 can use such image data to generate a HOG feature amount of a face image and a HOG feature amount of a clothing image and register them in a database. In this embodiment, it is assumed that the HOG feature amount is generated based on the YUV image data having a small calculation load in image recognition.

図11は、第3実施形態に係る特徴量計算処理の内容を示すフローチャートである。特徴量計算処理(ステップS400)では、特徴量演算部112は、比較的に処理負荷が小さい候補領域高速検出処理を実行して所定の特徴を有する領域である候補領域を検出し、検出された各候補領域において人物を特定するための特徴量を計算する(比較的に処理負荷が大きい)。 FIG. 11 is a flowchart showing the contents of the feature amount calculation process according to the third embodiment. In the feature amount calculation process (step S400), the feature amount calculation unit 112 executes a candidate area high-speed detection process having a relatively small processing load to detect and detect a candidate area which is an area having a predetermined feature. The feature amount for identifying a person in each candidate area is calculated (the processing load is relatively large).

ステップS410では、特徴量演算部112は、候補領域高速検出処理を実行する。候補領域高速検出処理では、特徴量演算部112は、フレーム画像データから候補領域を検出する。候補領域高速検出処理は、人物認識処理(後述)よりも処理速度を優先して構成されている検出処理方法を採用している。 In step S410, the feature amount calculation unit 112 executes the candidate region high-speed detection process. In the candidate area high-speed detection process, the feature amount calculation unit 112 detects the candidate area from the frame image data. The candidate area high-speed detection process employs a detection processing method configured in which the processing speed is prioritized over the person recognition process (described later).

具体的には、特徴量演算部112は、広く使用されている顔検出処理、たとえばHaar−like検出器を使用する多段フィルタ処理を実行する。ただし、多段フィルタ処理は、段数を少なくして計算速度を優先するように構成されている。したがって、候補領域高速検出処理には、ユーザーが望まない領域を候補領域として検出することが許容されている。 Specifically, the feature amount calculation unit 112 executes a widely used face detection process, for example, a multi-stage filter process using a Har-like detector. However, the multi-stage filter processing is configured to reduce the number of stages and give priority to the calculation speed. Therefore, in the candidate area high-speed detection process, it is allowed to detect an area not desired by the user as a candidate area.

ステップS420では、特徴量演算部112は、候補領域切り出し処理を実行する。候補領域切り出し処理では、特徴量演算部112は、ビットマップ画像データであるフレーム画像データにおいて検出された各候補領域の位置を表す座標や大きさを表す情報である候補領域情報を取得し、候補領域情報を使用して各候補領域のビットマップ画像データを生成する。 In step S420, the feature amount calculation unit 112 executes the candidate area cutting process. In the candidate area cutting process, the feature amount calculation unit 112 acquires candidate area information which is information indicating the position and size of each candidate area detected in the frame image data which is the bitmap image data, and is a candidate. Bitmap image data of each candidate area is generated using the area information.

ステップS430では、特徴量演算部112は、複数の候補領域のビットマップ画像データの画素数(面積)の総和とフレーム画像データの全画素数(全面積)とを比較する。本願発明者は、複数の候補領域が相互に重なり合って、複数の候補領域の画素数の総和がフレーム画像データの画素数を超え、却って計算量が増大する可能性があるという課題を見いだした。 In step S430, the feature amount calculation unit 112 compares the total number of pixels (area) of the bitmap image data of the plurality of candidate regions with the total number of pixels (total area) of the frame image data. The inventor of the present application has found that a plurality of candidate regions may overlap each other and the total number of pixels of the plurality of candidate regions may exceed the number of pixels of the frame image data, resulting in an increase in the amount of calculation.

特徴量演算部112は、複数の候補領域の画素数の総和がフレーム画像データの画素数未満のときには、処理をステップS440に進め、複数の候補領域の画素数の総和がフレーム画像データの画素数以上のときには、処理をステップS450に進める。これにより、特徴量演算部112は、上述の計算量の増大という課題を解決することができる。 When the total number of pixels of the plurality of candidate regions is less than the number of pixels of the frame image data, the feature amount calculation unit 112 proceeds to step S440, and the total number of pixels of the plurality of candidate regions is the total number of pixels of the frame image data. In the above case, the process proceeds to step S450. Thereby, the feature amount calculation unit 112 can solve the above-mentioned problem of increasing the calculation amount.

ステップS440では、特徴量演算部112は、各候補領域のビットマップ画像データに基づいて各特徴量を計算し、その最大値を特徴量として出力する。最大値としたのは、同一人物の画像は、各ビットマップ画像データに1つだけのはずだからである。ステップS450では、特徴量演算部112は、フレーム画像データ全体としてのビットマップ画像データに基づいて特徴量を計算して出力する。 In step S440, the feature amount calculation unit 112 calculates each feature amount based on the bitmap image data of each candidate area, and outputs the maximum value as the feature amount. The maximum value is set because there should be only one image of the same person in each bitmap image data. In step S450, the feature amount calculation unit 112 calculates and outputs the feature amount based on the bitmap image data of the frame image data as a whole.

具体的には、特徴量演算部112は、人物認識処理を実行する。人物認識処理は、特定の人物である可能性(確度)を特徴量として定量的に表す処理である。人物認識処理では、フレームメモリ114に格納されている複数のフレーム画像データのそれぞれについてステップS10で選択された特徴(この例では、特徴選択処理(ステップS10)で娘Dが選択されたものとする。)が含まれているか否かを判断する。特徴量演算部112は、輝度データと色差データとを含むYUV画像データとしてのフレーム画像データから娘Dの検出を試みる。 Specifically, the feature amount calculation unit 112 executes the person recognition process. The person recognition process is a process of quantitatively expressing the possibility (probability) of a specific person as a feature quantity. In the person recognition process, it is assumed that the feature selected in step S10 for each of the plurality of frame image data stored in the frame memory 114 (in this example, the daughter D is selected in the feature selection process (step S10)). .) Is included or not. The feature amount calculation unit 112 attempts to detect the daughter D from the frame image data as YUV image data including the luminance data and the color difference data.

特徴量演算部112は、たとえば周知のOpenCV(Open Source Computer Vision Library)を使用して人物の検出や特定を実行することができる。特徴量演算部112は、フレーム画像データの中から人物を検出し、検出された人物の顔が娘Dの顔であるか否かを判断する。この判断は、娘Dの顔画像のHOG特徴量を使用して行われる。 The feature amount calculation unit 112 can execute the detection and identification of a person by using, for example, a well-known OpenCV (Open Source Computer Vision Library). The feature amount calculation unit 112 detects a person from the frame image data, and determines whether or not the face of the detected person is the face of the daughter D. This determination is made using the HOG features of the face image of daughter D.

特徴量演算部112は、娘Dの顔であるか否かの判断の確度が低い場合には、娘Dの服装画像のHOG特徴量を使用して娘Dであるか否かを判断する。服装画像のHOG特徴量は、特に、娘Dを横方向から撮影し、顔画像のサイズが小さい場合等に補助的に使用可能である。特徴量演算部112は、さらに娘Dの笑顔度も定量化して特徴量の算出に利用することもできる。このように、特徴量演算部112は、演算量が多く複雑な処理を各候補領域に対して実行することができる。 When the accuracy of determining whether or not the face is the daughter D is low, the feature amount calculation unit 112 determines whether or not the daughter D is the daughter D by using the HOG feature amount of the clothes image of the daughter D. The HOG feature amount of the clothes image can be used as a supplement, especially when the daughter D is photographed from the side and the size of the face image is small. The feature amount calculation unit 112 can also quantify the smile degree of the daughter D and use it for calculating the feature amount. In this way, the feature amount calculation unit 112 can execute complicated processing with a large amount of calculation for each candidate area.

このように、第3実施形態に係るフレーム画像抽出処理は、候補領域高速検出処理を実行して所定の特徴を有する領域である候補領域を検出し、検出された各候補領域において計算負荷の大きな特徴量の計算を実行する。これにより、第3実施形態は、特徴量の計算対象を低減させることができるので、全体として特徴量の計算負荷を過大とすることなく、処理負担が比較的に大きくて高精度の計算方法を採用することができる。 As described above, in the frame image extraction process according to the third embodiment, the candidate area high-speed detection process is executed to detect the candidate area which is an area having a predetermined feature, and the calculation load is large in each of the detected candidate areas. Perform feature calculation. As a result, in the third embodiment, the calculation target of the feature amount can be reduced, so that the calculation load of the feature amount is not excessive as a whole, and the processing load is relatively large and the calculation method is highly accurate. Can be adopted.

なお、本実施形態では、候補領域高速検出処理(ステップS410)と人物認識処理(ステップS440,S450)は、相互に相違する種類の処理としているが、同一種類の処理で精度だけが相違するようにしてもよい。 In the present embodiment, the candidate region high-speed detection process (step S410) and the person recognition process (steps S440 and S450) are different types of processing, but the same type of processing differs only in accuracy. It may be.

また、本実施形態は、第1実施形態及び第2実施形態の少なくとも一方と組み合わせて実装することもできるし、第1実施形態及び第2実施形態のいずれとも組み合わせることなく実装することも可能である。さらに、第1実施形態乃至第3実施形態に係るフレーム画像抽出処理は、画像形成装置100でなく画像処理装置として機能するスマートフォン200側で実行するようにしてもよい。 Further, the present embodiment can be implemented in combination with at least one of the first embodiment and the second embodiment, or can be implemented without being combined with either the first embodiment or the second embodiment. is there. Further, the frame image extraction process according to the first to third embodiments may be executed not by the image forming apparatus 100 but by the smartphone 200 that functions as an image processing apparatus.

D.第4実施形態:
図12は、第4実施形態に係る静止画像取得処理の内容を示すフローチャートである。第4実施形態に係る静止画像取得処理は、少なくともフレーム画像データ出力処理(ステップS80)が印刷出力処理(ステップS800)に変更されている点で第1実施形態乃至第3実施形態に係る静止画像取得処理と相違する。
D. Fourth Embodiment:
FIG. 12 is a flowchart showing the contents of the still image acquisition process according to the fourth embodiment. The still image acquisition process according to the fourth embodiment is a still image according to the first to third embodiments in that at least the frame image data output process (step S80) is changed to the print output process (step S800). It is different from the acquisition process.

図13は、第4実施形態に係る印刷出力処理の内容を示すフローチャートである。この例では、画像形成装置100は、コンビニエンスストア等に設置され、金銭の投入その他の入金処理に応じて印刷出力可能とされる。 FIG. 13 is a flowchart showing the contents of the print output process according to the fourth embodiment. In this example, the image forming apparatus 100 is installed in a convenience store or the like, and can be printed out in response to the input of money or other deposit processing.

ステップS810では、ユーザーは、画像形成装置100の図示しない金銭投入用のスリットから金銭を投入する。この例では、ユーザーは、画像形成装置100に500円の硬貨を投入したものとする。画像形成装置100では、利用可能な印刷サイズには、L版(127mm×89mm)と、2L版(127mm×178mm)とがあるものとする。この例では、印刷サイズとしてL版(127mm×89mm)が初期設定として設定され、その単価は、30円であるものとする。 In step S810, the user inserts money through a slit for inserting money (not shown) in the image forming apparatus 100. In this example, it is assumed that the user has inserted a coin of 500 yen into the image forming apparatus 100. In the image forming apparatus 100, it is assumed that the print size that can be used includes an L plate (127 mm × 89 mm) and a 2 L plate (127 mm × 178 mm). In this example, the L plate (127 mm × 89 mm) is set as the initial setting as the print size, and the unit price is assumed to be 30 yen.

ステップS820では、制御部110は、印刷可能枚数計算部として機能し、印刷可能枚数を計算する。制御部110は、印刷サイズの設定がなされるまでは、初期設定(L版)に基づいて16枚(=500円(入金処理で入金された金額)÷30円(単価))を印刷可能枚数として計算する。 In step S820, the control unit 110 functions as a printable number calculation unit and calculates the printable number. The control unit 110 can print 16 sheets (= 500 yen (amount deposited in the deposit process) ÷ 30 yen (unit price)) based on the initial setting (L version) until the print size is set. Calculate as.

ステップS830では、制御部110は、グループ数計算処理を実行する。グループとは、グループ化処理(ステップS68及びステップS680)によってグループ化された時系列的に連続している複数のフレーム画像データ(連続画像データファイルを構成)である。グループには、たとえば第1フレーム画像データ群FE1、第2フレーム画像データ群FE2及び第3フレーム画像データ群FE3(第1実施形態)や3つのフレーム画像データ群FE1a,FE2a,FE3a(第2実施形態)がある。 In step S830, the control unit 110 executes the group number calculation process. The group is a plurality of frame image data (constituting a continuous image data file) that are continuously continuous in time series grouped by the grouping process (step S68 and step S680). The groups include, for example, the first frame image data group FE1, the second frame image data group FE2, the third frame image data group FE3 (first embodiment), and the three frame image data groups FE1a, FE2a, FE3a (second embodiment). Form).

ステップS840では、制御部110は、印刷可能枚数がグループ数以上であるか否かを判断する。印刷可能枚数がグループ数未満の場合には、制御部110は、処理をステップS850に進め、印刷可能枚数がグループ数以上の場合には、制御部110は、処理をステップS860に進める。ステップS850では、制御部110は、第1の印刷対象画像選択処理を実行する。なお、第2の印刷対象画像選択処理については後述する。 In step S840, the control unit 110 determines whether or not the number of printable sheets is equal to or greater than the number of groups. If the number of printable sheets is less than the number of groups, the control unit 110 advances the process to step S850, and if the number of printable sheets is more than the number of groups, the control unit 110 advances the process to step S860. In step S850, the control unit 110 executes the first print target image selection process. The second print target image selection process will be described later.

図14は、第4実施形態に係る第1の印刷対象画像選択処理の内容を示すフローチャートである。ステップS851では、特徴量演算部112は、グループ毎の平均特徴量を計算する。平均特徴量は、たとえば各グループの上位10個のフレーム画像データの特徴量の平均値として算出することができる。 FIG. 14 is a flowchart showing the contents of the first print target image selection process according to the fourth embodiment. In step S851, the feature amount calculation unit 112 calculates the average feature amount for each group. The average feature amount can be calculated as, for example, the average value of the feature amounts of the top 10 frame image data of each group.

図15は、第4実施形態に係る第1の印刷対象画像選択処理における操作表示画面を示す説明図である。図15(a)は、シーン選択画面として代表静止画像をグループ毎に表示している。この例では、各グループに含まれている複数のフレーム画像データ群は、各シーンを構成しているものとする。図15の操作表示画面では、タッチパネルとして機能する操作表示部130において操作(ピンチイン、ピンチアウト、ドラッグ等)することで表示された画像の拡大縮小、移動などを行うことが可能である。 FIG. 15 is an explanatory diagram showing an operation display screen in the first print target image selection process according to the fourth embodiment. In FIG. 15A, representative still images are displayed for each group as a scene selection screen. In this example, it is assumed that a plurality of frame image data groups included in each group constitute each scene. On the operation display screen of FIG. 15, it is possible to enlarge / reduce or move the displayed image by operating (pinch-in, pinch-out, dragging, etc.) on the operation display unit 130 that functions as a touch panel.

図15(a)では、操作表示部130のディスプレイ131には、3枚の代表静止画像F55,F43,F17と、高評価方向にスクロールするためのスクロールアイコンSC1と、低評価方向にスクロールするためのスクロールアイコンSC2と、残枚数(印刷可能枚数)と残シーン数とを表示する表示領域RCとが表示されている。ディスプレイ131は、タッチパネルとして機能し、スワイプすることによって画面をスクロールさせることも可能である。 In FIG. 15A, the display 131 of the operation display unit 130 has three representative still images F55, F43, and F17, a scroll icon SC1 for scrolling in the high evaluation direction, and scrolling in the low evaluation direction. The scroll icon SC2 and the display area RC for displaying the remaining number of sheets (printable number of sheets) and the number of remaining scenes are displayed. The display 131 functions as a touch panel, and the screen can be scrolled by swiping.

ステップS852では、ディスプレイ131は、平均特徴量が大きい順に代表静止画像を表示する。ディスプレイ131は、表示制御部として機能する制御部110によって生成された表示データに基づいて表示する。表示データは、特徴的な領域と紐づけて代表静止画像を表示するためのデータである。表示データは、複数の代表静止画像のそれぞれの特徴的な領域を、複数の代表静止画像のそれぞれとの関係が分かるように表示するように構成されている。代表静止画像を表示する順序は、平均特徴量に限られず特徴量を使用して決定された順序であればよい。 In step S852, the display 131 displays representative still images in descending order of average feature amount. The display 131 displays based on the display data generated by the control unit 110 that functions as the display control unit. The display data is data for displaying a representative still image in association with a characteristic area. The display data is configured to display each characteristic region of the plurality of representative still images so that the relationship with each of the plurality of representative still images can be understood. The order in which the representative still images are displayed is not limited to the average feature amount, and may be any order determined by using the feature amount.

この例では、ディスプレイ131は、3枚の代表静止画像F55,F43,F17を左側から平均特徴量が大きい順に表示している。代表静止画像F55は、第3フレーム画像データ群FE3を代表するフレーム画像データF55によって表される静止画像である。代表静止画像F43は、第2フレーム画像データ群FE2を代表するフレーム画像データF43によって表される静止画像である。代表静止画像F17は、第1フレーム画像データ群FE1を代表するフレーム画像データF17によって表される静止画像である(第1実施形態の図4参照)。 In this example, the display 131 displays three representative still images F55, F43, and F17 in descending order of average feature amount from the left side. The representative still image F55 is a still image represented by the frame image data F55 representing the third frame image data group FE3. The representative still image F43 is a still image represented by the frame image data F43 representing the second frame image data group FE2. The representative still image F17 is a still image represented by the frame image data F17 representing the first frame image data group FE1 (see FIG. 4 of the first embodiment).

この例では、ディスプレイ131は、代表静止画像F55,F43,F17の上側には、特徴的な領域の画像である特徴画像Q55,Q43,Q17を表示している。これにより、ユーザーは、代表静止画像F55,F43,F17を含むグループが自動的に選択された基準(又は理由)を確認することができる。この例では、代表静止画像F55,F43,F17の各グループは、笑顔度の高い娘Dを被写体として含む静止画像を抽出するための特徴量に基づいて抽出されているものとする。 In this example, the display 131 displays the feature images Q55, Q43, and Q17, which are images of the feature region, on the upper side of the representative still images F55, F43, and F17. As a result, the user can confirm the criterion (or reason) for which the group including the representative still images F55, F43, and F17 is automatically selected. In this example, it is assumed that each group of the representative still images F55, F43, and F17 is extracted based on the feature amount for extracting the still image including the daughter D having a high smile degree as a subject.

具体的には、特徴画像Q55は、第3実施形態に係るフレーム画像抽出処理において代表静止画像F55が抽出される際の特徴量の算出に使用された候補領域の画像である。特徴画像Q43は、代表静止画像F43が抽出される際の特徴量の算出に使用された候補領域の画像である。特徴画像Q17は、代表静止画像F17が抽出される際の特徴量の算出に使用された候補領域の画像である。 Specifically, the feature image Q55 is an image of a candidate region used for calculating the feature amount when the representative still image F55 is extracted in the frame image extraction process according to the third embodiment. The feature image Q43 is an image of a candidate region used for calculating the feature amount when the representative still image F43 is extracted. The feature image Q17 is an image of a candidate region used for calculating the feature amount when the representative still image F17 is extracted.

ステップS853では、ユーザーは、シーンの選択処理としてグループを選択する。この例では、ユーザーは、ディスプレイ131に表示されている代表静止画像F43(又は特徴画像Q43)をタッチしてシーンを選択し、シーン選択アイコンM1をタッチして確定したものとする。 In step S853, the user selects a group as a scene selection process. In this example, it is assumed that the user touches the representative still image F43 (or the feature image Q43) displayed on the display 131 to select a scene, and touches the scene selection icon M1 to confirm.

図15(b)は、画像選択画面として代表静止画像F43の前後の2つの静止画像F42、F44を表示している。図15(b)では、ディスプレイ131には、3枚の静止画像F42,F43,F44と、特徴画像Q42,Q43,Q44と、残枚数と残シーン数とを表示する表示領域RCと、時系列の前側にスクロールするためのスクロールアイコンSC3と、後側にスクロールするためのスクロールアイコンSC4とが表示されている。 FIG. 15B displays two still images F42 and F44 before and after the representative still image F43 as an image selection screen. In FIG. 15B, the display 131 has three still images F42, F43, F44, feature images Q42, Q43, and Q44, a display area RC for displaying the remaining number of sheets and the number of remaining scenes, and a time series. A scroll icon SC3 for scrolling to the front side and a scroll icon SC4 for scrolling to the rear side are displayed.

これにより、以下のようなトレードオフの問題を解決することができる。すなわち、動画像データから静止画像データを抽出した後において、多数の静止画像の中から所望の静止画像を選択するためには、各静止画像の大きさを小さくして一覧表示を行いたいという要請がある。一方、各静止画像の大きさを小さくすると、各静止画像の特徴的な画像領域(たとえば顔画像)が小さくなってしまい、静止画像の選択が困難になるというトレードオフの問題である。 As a result, the following trade-off problems can be solved. That is, after extracting still image data from moving image data, in order to select a desired still image from a large number of still images, there is a request to reduce the size of each still image and display a list. There is. On the other hand, if the size of each still image is reduced, the characteristic image area (for example, a face image) of each still image becomes small, which is a trade-off problem that it becomes difficult to select the still image.

ステップS854では、ユーザーは、画像選択処理としてフレーム画像データを選択する。この例では、ユーザーは、ディスプレイ131に表示されている静止画像F42(又は特徴画像Q42)をタッチして静止画像を選択し、画像選択アイコンM2をタッチして確定したものとする。 In step S854, the user selects frame image data as an image selection process. In this example, it is assumed that the user touches the still image F42 (or the feature image Q42) displayed on the display 131 to select the still image, and touches the image selection icon M2 to confirm.

ステップS855では、ユーザーは、印刷レイアウト設定処理を実行する。印刷レイアウト設定処理では、ユーザーは、静止画像F42の一部を抽出し、L版又は2L版の印刷サイズの印刷レイアウトを設定する。 In step S855, the user executes the print layout setting process. In the print layout setting process, the user extracts a part of the still image F42 and sets the print layout of the print size of the L plate or the 2L plate.

図16は、第4実施形態に係る印刷レイアウト設定処理の内容を示すフローチャートである。図17は、第4実施形態に係る印刷レイアウト設定処理における操作表示画面を示す説明図である。図17(a)は、静止画像F42に表示されている人物の顔を拡大して示している。図17の操作表示画面においても、タッチパネルとして機能する操作表示部130において操作(ピンチイン、ピンチアウト、ドラッグ等)することで表示された画像の拡大縮小、移動などを行うことが可能である。 FIG. 16 is a flowchart showing the contents of the print layout setting process according to the fourth embodiment. FIG. 17 is an explanatory diagram showing an operation display screen in the print layout setting process according to the fourth embodiment. FIG. 17A shows an enlarged face of a person displayed in the still image F42. Also on the operation display screen of FIG. 17, it is possible to enlarge / reduce or move the displayed image by operating (pinch-in, pinch-out, dragging, etc.) on the operation display unit 130 that functions as a touch panel.

この例では、ディスプレイ131は、静止画像F42が娘Dの顔を表示する特徴画像Q42と、息子Cの顔を表示する抽出画像F42cと、人物登録データ格納領域142に未登録の2人の他人の顔を表示する2つの抽出画像F42a,F42bとを含んでいることを示している。3つの抽出画像F42a,F42b,F42cは、静止画像F42の変更に応じて、特徴量演算部112による顔検出処理で抽出されたものである。 In this example, the display 131 includes a feature image Q42 in which the still image F42 displays the face of the daughter D, an extracted image F42c in which the face of the son C is displayed, and two other persons who are not registered in the person registration data storage area 142. It is shown that the two extracted images F42a and F42b that display the face of the above are included. The three extracted images F42a, F42b, and F42c are those extracted by the face detection process by the feature amount calculation unit 112 in response to the change of the still image F42.

ステップS8551では、ユーザーは、印刷レイアウト設定部として機能し、被写体人物選択処理を実行する。被写体人物選択処理では、ユーザーは、息子Cの顔と娘Dの顔とを参照しつつ、時系列的に前側の静止画像へ変更するためのスクロールアイコンSC5と、後側の静止画像へ変更するスクロールアイコンSC6とをタッチして静止画像をグループ内で変更することができる。この例では、ユーザーは、娘Dの顔と息子Cの顔とを選択し、人物選択アイコンM3をタッチして確定したものとする。3つの抽出画像F42a,F42b,F42cは、静止画像の変更に応じて抽出・変更される。 In step S8551, the user functions as a print layout setting unit and executes a subject person selection process. In the subject person selection process, the user refers to the face of the son C and the face of the daughter D, and changes to the scroll icon SC5 for changing to the front still image and the rear still image in chronological order. You can change the still image in the group by touching the scroll icon SC6. In this example, it is assumed that the user selects the face of the daughter D and the face of the son C and touches the person selection icon M3 to confirm. The three extracted images F42a, F42b, and F42c are extracted and changed according to the change of the still image.

図17(b)は、静止画像F42に対して印刷レイアウト設定処理が施された静止画像F42Lを拡大して示している。図17(b)は、さらに、2人の他人の顔が印刷レイアウトで設定されている印刷の対象となる領域である印刷対象領域から排除されていることが分かるように抽出画像F42a,F42bを表示している。静止画像F42Lは、娘Dの顔と息子Cの顔と体が選択される一方、2人の他人の顔を排除する印刷レイアウトを採用している。静止画像F42Lには、以下の方法で自動的に印刷レイアウト設定処理が施されている。ユーザーは、レイアウト調整M4をタッチして印刷レイアウトを調整(変更)し、縦横変更M5をタッチしてL版の縦横を変更することができる。 FIG. 17B is an enlarged view of the still image F42L to which the print layout setting process has been applied to the still image F42. In FIG. 17B, the extracted images F42a and F42b are further shown so that the faces of two other people are excluded from the print target area which is the print target area set in the print layout. it's shown. The still image F42L employs a print layout in which the face of daughter D and the face and body of son C are selected, while the faces of two others are excluded. The still image F42L is automatically subjected to the print layout setting process by the following method. The user can touch the layout adjustment M4 to adjust (change) the print layout, and touch the vertical / horizontal change M5 to change the vertical / horizontal of the L version.

ステップS8552では、制御部110は、被写体人数カウント処理を実行する。被写体人数カウント処理では、制御部110は、選択された顔の数を被写体人数としてカウントする。ステップS8553では、制御部110は、被写体人数が1人であるか否かを判断する。被写体人数が1人でない場合には、制御部110は、処理をステップS8554に進め、被写体人数が1人である場合には、制御部110は、処理をステップS8555に進める。 In step S8552, the control unit 110 executes the subject number counting process. In the subject number counting process, the control unit 110 counts the number of selected faces as the number of subjects. In step S8553, the control unit 110 determines whether or not the number of subjects is one. If the number of subjects is not one, the control unit 110 advances the process to step S8554, and if the number of subjects is one, the control unit 110 advances the process to step S8555.

図18は、第4実施形態に係る印刷レイアウト設定処理の一例を示す説明図である。図18は、印刷レイアウト設定処理を分かりやすく説明するために2人の人物H1,H2の顔を表示する静止画像F101を示している。 FIG. 18 is an explanatory diagram showing an example of the print layout setting process according to the fourth embodiment. FIG. 18 shows a still image F101 displaying the faces of two people H1 and H2 in order to explain the print layout setting process in an easy-to-understand manner.

ステップS8554では、制御部110は、被写体人物全員を包含する矩形を設定する。具体的には、制御部110は、2人の人物H1,H2の全員の顔とその周辺を包含するバウンディングボックスBB1として矩形を自動的に設定する。 In step S8554, the control unit 110 sets a rectangle that includes all the subjects. Specifically, the control unit 110 automatically sets a rectangle as a bounding box BB1 that includes the faces of all the two persons H1 and H2 and their surroundings.

図19は、第4実施形態に係る印刷レイアウト設定処理の他の例を示す説明図である。図19は、印刷レイアウト設定処理を分かりやすく説明するために1人の人物H3の顔を表示する静止画像F102,F103を示している。静止画像F102では、人物H3は、顔も視線も撮影者の方向である撮影方向に向けている。静止画像F103では、人物H3は、顔も視線も左側の方向に向けている。 FIG. 19 is an explanatory diagram showing another example of the print layout setting process according to the fourth embodiment. FIG. 19 shows still images F102 and F103 displaying the faces of one person H3 in order to explain the print layout setting process in an easy-to-understand manner. In the still image F102, the person H3 has his face and line of sight directed in the shooting direction, which is the direction of the photographer. In the still image F103, the person H3 has his face and line of sight directed to the left.

被写体人数が1人である場合には、制御部110は、被写体の視線方向に基づいて印刷レイアウト設定処理を実行する。ステップS8555では、制御部110は、視線方向推定処理を実行する。視線方向推定処理では、制御部110は、たとえば特開平8−322796で提案されている方法を採用して推定することができる。 When the number of subjects is one, the control unit 110 executes the print layout setting process based on the line-of-sight direction of the subjects. In step S8555, the control unit 110 executes the line-of-sight direction estimation process. In the line-of-sight direction estimation process, the control unit 110 can estimate by adopting, for example, the method proposed in Japanese Patent Application Laid-Open No. 8-322796.

特開平8−322796は、顔画像の解析、すなわち、顔の部分の画像から目の部分の画像を切り出し、目の位置情報を表す特徴量を抽出して、特徴量と標準パターンの比較に基づいて視線方向を推定する方法を提案している。特徴量は、濃淡画像の目の部分の黒目に対応する水平方向、垂直方向それぞれの濃度分布を含んでいる。 Japanese Patent Application Laid-Open No. 8-322996 is based on analysis of a face image, that is, an image of an eye part is cut out from an image of a face part, a feature amount representing eye position information is extracted, and a comparison between the feature amount and a standard pattern is performed. We are proposing a method for estimating the line-of-sight direction. The feature amount includes the density distributions in the horizontal direction and the vertical direction corresponding to the black eyes of the eye portion of the shade image.

ステップS8556では、制御部110は、視線方向に空間を配置して印刷レイアウトを設定する。写真撮影においては、一般的に被写体の視線方向や顔の方向に空間が配置されるようにして安定感のある構図が採用される。このように、制御部110は、視線の方向と顔の方向の少なくとも一方の方向である被写体方向に応じて印刷レイアウトを設定し、自動的に安定感のある構図を採用することができる。 In step S8556, the control unit 110 arranges a space in the line-of-sight direction to set the print layout. In photography, a composition with a sense of stability is generally adopted so that the space is arranged in the direction of the subject's line of sight or the direction of the face. In this way, the control unit 110 can set the print layout according to the subject direction, which is at least one of the line-of-sight direction and the face direction, and can automatically adopt a stable composition.

静止画像F102においては、制御部110は、静止画像F102から人物H3とその周辺を包含するバウンディングボックスBB2として矩形を自動的に設定する。制御部110は、人物H3の顔も視線も撮影者の方向に向けられているので、バウンディングボックスBB2から両脇方向に均等に広げた構図を採用する。 In the still image F102, the control unit 110 automatically sets a rectangle as a bounding box BB2 that includes the person H3 and its surroundings from the still image F102. Since the face and the line of sight of the person H3 are directed toward the photographer, the control unit 110 adopts a composition in which the person H3 is evenly spread in both side directions from the bounding box BB2.

一方、静止画像F103においては、制御部110は、静止画像F103から人物H3とその周辺を包含するバウンディングボックスBB3として矩形を自動的に設定する。制御部110は、人物H3の顔も視線も左側の方向に向けられているので、バウンディングボックスBB3から左側に比較的に大きな空間を配置する構図を採用する。 On the other hand, in the still image F103, the control unit 110 automatically sets a rectangle as a bounding box BB3 that includes the person H3 and its surroundings from the still image F103. Since the face and the line of sight of the person H3 are directed to the left side, the control unit 110 adopts a composition in which a relatively large space is arranged on the left side from the bounding box BB3.

なお、撮影方向に対する被写体方向の角度が大きいほど、被写体方向の反対側に配置される空間に対する被写体方向の側に配置される空間の比が大きくなるようにしてもよい。また、人物の数が複数である場合において、複数の顔の被写体方向が同一方向に向いている場合には、その同一方向の側に広い空間を配置するようにしてもよい。 The larger the angle of the subject direction with respect to the shooting direction, the larger the ratio of the space arranged on the subject direction side to the space arranged on the opposite side of the subject direction may be increased. Further, when the number of persons is plural and the subject directions of the plurality of faces are oriented in the same direction, a wide space may be arranged on the side in the same direction.

ステップS8557では、制御部110は、マージン設定処理を実行する。マージン設定処理では、制御部110は、人物をカメラで撮影した場合に想定される一般的なマージンを自動的に配置してフレーム枠Fr1,Fr2,Fr3を設定する。この設定は、初期設定としてのL版(127mm×89mm)のアスペクト比を想定して行われる。 In step S8557, the control unit 110 executes the margin setting process. In the margin setting process, the control unit 110 automatically arranges a general margin assumed when a person is photographed by a camera and sets the frame frames Fr1, Fr2, and Fr3. This setting is made assuming the aspect ratio of the L plate (127 mm × 89 mm) as the initial setting.

動画像のアスペクト比は、一般的に静止画像のアスペクト比と相違するので、静止画像のアスペクト比への編集の際に動画像の撮影時に意図した構図が維持できないことがある。さらに、動画撮影では、撮影者も被写体も動くことがあり、構図を意識した撮影が一般に困難である。 Since the aspect ratio of a moving image is generally different from the aspect ratio of a still image, the composition intended at the time of shooting the moving image may not be maintained when editing the aspect ratio of the still image. Further, in moving image shooting, both the photographer and the subject may move, and it is generally difficult to shoot with consideration for composition.

このような問題に対して、本実施形態では、制御部110は、人物をスチルカメラで撮影した場合に想定される適切な構図を実現し、一般的なマージンを自動的に配置してフレーム枠Fr1,Fr2,Fr3をL版に設定することができる。これにより、動画像の撮影時に意図した構図を維持し、さらには動画像の撮影時には構図を意識しなくても安定感のある好ましい構図の半自動的な設定といった支援を実行して、ユーザー負担を軽減することができる。 In response to such a problem, in the present embodiment, the control unit 110 realizes an appropriate composition assumed when a person is photographed with a still camera, and automatically arranges a general margin to form a frame frame. Fr1, Fr2, and Fr3 can be set to the L version. As a result, the intended composition is maintained when shooting a moving image, and support such as semi-automatic setting of a stable and preferable composition is performed when shooting a moving image without being conscious of the composition, which burdens the user. Can be mitigated.

ステップS856(図14参照)では、印刷設定処理を実行する。印刷設定処理では、ユーザーは、印刷枚数や画像処理の内容を設定し、設定完了M6(図17(b)参照)をタッチして印刷設定処理を完了させる。 In step S856 (see FIG. 14), the print setting process is executed. In the print setting process, the user sets the number of prints and the content of the image processing, and touches the setting completion M6 (see FIG. 17B) to complete the print setting process.

ステップS857では、制御部110は、印刷可能枚数更新処理を実行する。印刷可能枚数更新処理では、制御部110は、設定が完了した静止画像について印刷処理が実行されるものとして、印刷可能な残枚数を計算する。この例では、1枚の静止画像F42Lの印刷が設定されるので、表示領域RCにおいて印刷可能枚数(残枚数)が16枚から15枚に更新されるとともに、残シーン数が18から17に更新される。 In step S857, the control unit 110 executes the printable number update process. In the printable number update process, the control unit 110 calculates the printable remaining number, assuming that the print process is executed for the still image for which the setting has been completed. In this example, since printing of one still image F42L is set, the number of printable sheets (remaining number of sheets) is updated from 16 to 15 in the display area RC, and the number of remaining scenes is updated from 18 to 17. Will be done.

制御部110は、第1の印刷対象画像選択処理として、ステップS851乃至ステップS857の処理を最終グループまで実行する(ステップS858)。この例では、残シーン数は、印刷処理の対象として選択された静止画像データを含むグループよりも後に表示される未処理のグループの数である。 The control unit 110 executes the processes of steps S851 to S857 up to the final group as the first print target image selection process (step S858). In this example, the number of remaining scenes is the number of unprocessed groups that are displayed after the group that contains the still image data selected for printing.

一方、印刷可能枚数がグループ数以上の場合には、制御部110は、処理をステップS860に進める(図13参照)。ステップS860では、制御部110は、第2の印刷対象画像選択処理を実行する。第2の印刷対象画像選択処理は、代表静止画像を時系列順でグループ毎に表示する点で、平均特徴量が大きい順に代表静止画像を表示する第1の印刷対象画像選択処理と相違する。 On the other hand, when the number of printable sheets is equal to or greater than the number of groups, the control unit 110 proceeds to step S860 (see FIG. 13). In step S860, the control unit 110 executes the second print target image selection process. The second print target image selection process is different from the first print target image selection process in that the representative still images are displayed in chronological order for each group, and the representative still images are displayed in descending order of the average feature amount.

印刷可能枚数がグループ数以上の場合には、グループ毎に少なくとも1枚ずつ印刷出力処理が可能なので、制御部110は、代表静止画像を時系列順でグループ毎に表示することができる。これに対して、印刷可能枚数がグループ数未満の場合には、ユーザーは、印刷出力処理を行うグループの選択が望まれるので、平均特徴量が大きい順に代表静止画像を表示する。 When the number of printable sheets is equal to or greater than the number of groups, at least one print output process can be performed for each group, so that the control unit 110 can display representative still images for each group in chronological order. On the other hand, when the number of printable sheets is less than the number of groups, the user is desired to select the group to perform the print output processing, so that the representative still images are displayed in descending order of the average feature amount.

さらに、制御部110は、操作表示部130の表示領域RCにおいて印刷可能枚数(残枚数)と残シーン数とを表示することができる。これにより、ユーザーは、グループ(シーン)の選択を円滑に行うことができる。ユーザーは、たとえば印刷可能枚数が残シーン数(残グループ数)よりも多いときには、各グループから改めて画像を追加で選択することもできる。 Further, the control unit 110 can display the number of printable sheets (remaining number of sheets) and the number of remaining scenes in the display area RC of the operation display unit 130. As a result, the user can smoothly select a group (scene). For example, when the number of printable sheets is larger than the number of remaining scenes (number of remaining groups), the user can select additional images from each group.

動画像データから静止画像データを抽出する場合には、一般的に静止画像の抽出数を予測することが困難である。たとえば旅先において、コンビニエンスストア等に設置してある画像形成装置を使用して印刷処理を行う場合に、抽出数が予測できないので、支払うべき料金を考慮しつつ印刷対象とする静止画像を選択する負担が大きい。本実施形態は、動画像データから抽出された複数の静止画像データから所望の静止画像データを選択するための負担を軽減させることができる。 When extracting still image data from moving image data, it is generally difficult to predict the number of still images extracted. For example, when printing is performed using an image forming device installed in a convenience store or the like while traveling, the number of extracts cannot be predicted, so the burden of selecting a still image to be printed while considering the fee to be paid is a burden. Is big. This embodiment can reduce the burden of selecting desired still image data from a plurality of still image data extracted from moving image data.

ステップS870では、制御部110は、操作処理部(スタートスイッチ)132の押下に応じて画像形成部120を使用して印刷媒体上に画像を形成する。印刷対象となるのは、ステップS856(図14参照)において印刷設定処理が完了した静止画像データである。 In step S870, the control unit 110 forms an image on the print medium by using the image forming unit 120 in response to the pressing of the operation processing unit (start switch) 132. The print target is the still image data for which the print setting process is completed in step S856 (see FIG. 14).

なお、制御部110は、印刷設定処理の完了に応じて直ちに印刷媒体上に画像を形成するようにしてもよい。しかしながら、上述の実施形態によれば、印刷設定処理の解除を許容することによって静止画像データを選択し直すことができるという利点を有している。 The control unit 110 may form an image on the print medium immediately upon completion of the print setting process. However, according to the above-described embodiment, there is an advantage that the still image data can be reselected by allowing the print setting process to be canceled.

このように、第4実施形態に係る静止画像取得処理は、動画像データから抽出された静止画像データの中から被写体の顔の状態を確認しつつシーン(グループ)を選択し、そのグループから望まれる静止画像を円滑に選択することができる。 As described above, in the still image acquisition process according to the fourth embodiment, a scene (group) is selected from the still image data extracted from the moving image data while checking the state of the face of the subject, and the scene (group) is desired from the group. Still images can be selected smoothly.

第4実施形態に係る静止画像取得処理は、さらに、選択された静止画像から被写体の状態を考慮して自動的に適切な構図でレイアウト設定処理を行うこともできる。このように、第4実施形態に係る静止画像取得処理は、動画像データを使用する印刷処理において、ユーザーの負担を軽減しつつ適切な静止画像の印刷出力を実現することができる。 In the still image acquisition process according to the fourth embodiment, it is also possible to automatically perform layout setting processing with an appropriate composition in consideration of the state of the subject from the selected still image. As described above, the still image acquisition process according to the fourth embodiment can realize an appropriate print output of a still image while reducing the burden on the user in the print process using the moving image data.

E.変形例:
本発明は、上記各実施形態だけでなく、以下のような変形例でも実施することができる。
E. Modification example:
The present invention can be implemented not only in the above embodiments but also in the following modifications.

上記実施形態では、画像形成装置に本発明が適用されているが、たとえばスマートフォンやパーソナルコンピュータといった画像処理装置として機能する装置に適用することもできる。 In the above embodiment, the present invention is applied to an image forming apparatus, but it can also be applied to an apparatus functioning as an image processing apparatus such as a smartphone or a personal computer.

100 画像形成装置
110 制御部
111 フレーム画像生成部
112 特徴量演算部
113 フレーム画像抽出部
114 フレームメモリ
115 周期設定部
120 画像形成部
130 操作表示部
140 記憶部
150 通信インターフェース部
200 スマートフォン

100 Image forming device 110 Control unit 111 Frame image generation unit 112 Feature amount calculation unit 113 Frame image extraction unit 114 Frame memory 115 Period setting unit 120 Image forming unit 130 Operation display unit 140 Storage unit 150 Communication interface unit 200 Smartphone

Claims (7)

入金処理に応じて印刷処理を実行する画像形成装置であって、
動画像データから複数の静止画像データを生成する静止画像データ生成部と、
前記静止画像データの人物の顔に関する特徴を表す特徴量を計算し、前記特徴量に基づいて前記静止画像データを抽出し、前記抽出された複数の静止画像データから時系列的に連続してシーンを構成する複数の静止画像データから構成される連続画像データファイルである少なくとも1つのグループを生成する静止画像データ抽出部と、
前記入金処理で入金された金額と、印刷処理の単価とを使用し、前記金額を前記単価で除算することによって印刷可能枚数を計算し、前記生成されたグループの数であるグループ数を計算するとともに、前記印刷可能枚数が前記グループ数以上であるか否かを判断する印刷可能枚数計算部と、
前記印刷可能枚数が前記グループの数未満である場合には、前記特徴量を使用して決定された順序で前記グループ毎に前記連続画像データファイルを代表する代表静止画像のグループを画像形成対象として選択可能に表示し、前記印刷可能枚数が前記グループの数以上である場合には、前記グループの時系列に基づいて決定された順序で前記グループ毎に前記代表静止画像のグループを画像形成対象として選択可能に表示する操作表示部と、
を備える画像形成装置。
An image forming device that executes a printing process according to a deposit process.
A still image data generator that generates multiple still image data from moving image data,
A feature amount representing a feature related to a person's face in the still image data is calculated, the still image data is extracted based on the feature amount, and a scene is continuously generated from the extracted plurality of still image data in a time series. A still image data extraction unit that generates at least one group that is a continuous image data file composed of a plurality of still image data constituting the above.
Using the amount deposited in the deposit process and the unit price of the print process, the number of printable sheets is calculated by dividing the amount by the unit price, and the number of groups, which is the number of the generated groups, is calculated. In addition, a printable number calculation unit for determining whether or not the printable number is equal to or greater than the group number
When the number of printable sheets is less than the number of the groups, a group of representative still images representing the continuous image data file is set as an image forming target for each group in the order determined by using the feature amount. When the number of printable sheets is equal to or greater than the number of the groups, the representative still image groups are set as image formation targets for each group in the order determined based on the time series of the groups. The operation display that can be selected and displayed
An image forming apparatus comprising.
入金処理に応じて印刷処理を実行する画像形成装置であって、
動画像データから複数の静止画像データを生成する静止画像データ生成部と、
前記静止画像データの人物の顔に関する特徴を表す特徴量を計算し、前記特徴量に基づいて前記静止画像データを抽出し、前記抽出された複数の静止画像データから時系列的に連続してシーンを構成する複数の静止画像データから構成される連続画像データファイルである少なくとも1つのグループを生成する静止画像データ抽出部と、
前記入金処理で入金された金額と、印刷処理の単価とを使用し、前記金額を前記単価で除算することによって印刷可能枚数を計算し、前記生成されたグループの数であるグループ数を計算するとともに、前記印刷可能枚数が前記グループ数以上であるか否かを判断する印刷可能枚数計算部と、
前記印刷可能枚数が前記グループの数未満である場合には、前記特徴量を使用して決定された順序で前記グループ毎に前記連続画像データファイルを代表する代表静止画像のグループを画像形成対象として選択可能に表示する操作表示部と、
を備え
前記操作表示部は、前記グループのそれぞれにおける前記連続画像データファイルに含まれる静止画像データの特徴量の平均値である平均特徴量が大きい順に前記順序を決定し、
前記平均特徴量は、前記グループのそれぞれにおいて予め設定された数の前記特徴量の上位の平均値である画像形成装置。
An image forming device that executes a printing process according to a deposit process.
A still image data generator that generates multiple still image data from moving image data,
A feature amount representing a feature related to a person's face in the still image data is calculated, the still image data is extracted based on the feature amount, and a scene is continuously generated from the extracted plurality of still image data in a time series. A still image data extraction unit that generates at least one group that is a continuous image data file composed of a plurality of still image data constituting the above.
Using the amount deposited in the deposit process and the unit price of the print process, the number of printable sheets is calculated by dividing the amount by the unit price, and the number of groups, which is the number of the generated groups, is calculated. At the same time, a printable number calculation unit for determining whether or not the printable number is equal to or greater than the group number, and
When the number of printable sheets is less than the number of the groups, a group of representative still images representing the continuous image data file is set as an image forming target for each group in the order determined by using the feature amount. Operation display unit that can be selected and displayed
Equipped with a,
The operation display unit determines the order in descending order of the average feature amount, which is the average value of the feature amounts of the still image data included in the continuous image data file in each of the groups.
The average feature amount, the image forming apparatus is a predetermined mean value of the feature amount of the higher number in each of the groups.
請求項1又は2に記載の画像形成装置であって、
前記操作表示部は、前記印刷可能枚数と残グループ数とを表示し、前記グループに含まれている前記静止画像データを印刷対象に含める入力を受け付け、前記入力に応じて前記印刷可能枚数を更新し、
前記残グループ数は、前記印刷対象に含められた静止画像データを含む前記グループよりも後の順序で表示されるグループの数とする画像形成装置。
The image forming apparatus according to claim 1 or 2 .
The operation display unit displays the number of printable sheets and the number of remaining groups, accepts an input for including the still image data included in the group in the print target, and updates the printable number of sheets in response to the input. And
An image forming apparatus in which the number of remaining groups is the number of groups displayed in an order after the group including still image data included in the print target.
入金処理に応じて印刷処理を実行する画像形成方法であって、
動画像データから複数の静止画像データを生成する静止画像データ生成工程と、
前記静止画像データの人物の顔に関する特徴を表す特徴量を計算し、前記特徴量に基づいて前記静止画像データを抽出し、前記抽出された複数の静止画像データから時系列的に連続してシーンを構成する複数の静止画像データから構成される連続画像データファイルである少なくとも1つのグループを生成する静止画像データ抽出工程と、
前記入金処理で入金された金額と、印刷処理の単価とを使用し、前記金額を前記単価で除算することによって印刷可能枚数を計算し、前記生成されたグループの数であるグループ数を計算するとともに、前記印刷可能枚数が前記グループ数以上であるか否かを判断する印刷可能枚数計算工程と、
前記印刷可能枚数が前記グループの数未満である場合には、前記特徴量を使用して決定された順序で前記グループ毎に前記連続画像データファイルを代表する代表静止画像のグループを画像形成対象として選択可能に表示し、前記印刷可能枚数が前記グループの数以上である場合には、前記グループの時系列に基づいて決定された順序で前記グループ毎に前記代表静止画像のグループを画像形成対象として選択可能に表示する操作表示工程と、
を備える画像形成方法。
An image forming method that executes a printing process according to the deposit process.
A still image data generation process that generates multiple still image data from moving image data,
A feature amount representing a feature related to a person's face in the still image data is calculated, the still image data is extracted based on the feature amount, and a scene is continuously generated from the extracted plurality of still image data in a time series. A still image data extraction step that generates at least one group that is a continuous image data file composed of a plurality of still image data constituting the above.
Using the amount deposited in the deposit process and the unit price of the print process, the number of printable sheets is calculated by dividing the amount by the unit price, and the number of groups, which is the number of the generated groups, is calculated. At the same time, a printable number calculation step for determining whether or not the printable number is equal to or greater than the group number , and
When the number of printable sheets is less than the number of the groups, a group of representative still images representing the continuous image data file is set as an image forming target for each group in the order determined by using the feature amount. When the number of printable sheets is equal to or greater than the number of the groups, the representative still image groups are set as image formation targets for each group in the order determined based on the time series of the groups. Operation display process to display selectably and
An image forming method comprising.
入金処理に応じて印刷処理を実行する画像形成方法であって、 An image forming method that executes a printing process according to the deposit process.
動画像データから複数の静止画像データを生成する静止画像データ生成工程と、 A still image data generation process that generates multiple still image data from moving image data,
前記静止画像データの人物の顔に関する特徴を表す特徴量を計算し、前記特徴量に基づいて前記静止画像データを抽出し、前記抽出された複数の静止画像データから時系列的に連続してシーンを構成する複数の静止画像データから構成される連続画像データファイルである少なくとも1つのグループを生成する静止画像データ抽出工程と、 A feature amount representing a feature related to a person's face in the still image data is calculated, the still image data is extracted based on the feature amount, and a scene is continuously generated from the extracted plurality of still image data in a time series. A still image data extraction step that generates at least one group that is a continuous image data file composed of a plurality of still image data constituting the above.
前記入金処理で入金された金額と、印刷処理の単価とを使用し、前記金額を前記単価で除算することによって印刷可能枚数を計算し、前記生成されたグループの数であるグループ数を計算するとともに、前記印刷可能枚数が前記グループ数以上であるか否かを判断する印刷可能枚数計算工程と、 Using the amount deposited in the deposit process and the unit price of the print process, the number of printable sheets is calculated by dividing the amount by the unit price, and the number of groups, which is the number of the generated groups, is calculated. At the same time, a printable number calculation step for determining whether or not the printable number is equal to or greater than the group number, and
前記印刷可能枚数が前記グループの数未満である場合には、前記特徴量を使用して決定された順序で前記グループ毎に前記連続画像データファイルを代表する代表静止画像のグループを画像形成対象として選択可能に表示する操作表示工程と、 When the number of printable sheets is less than the number of the groups, a group of representative still images representing the continuous image data file is set as an image forming target for each group in the order determined by using the feature amount. Operation display process to be displayed selectably and
を備え、With
前記操作表示工程は、前記グループのそれぞれにおける前記連続画像データファイルに含まれる静止画像データの特徴量の平均値である平均特徴量が大きい順に前記順序を決定する工程を含み、 The operation display step includes a step of determining the order in descending order of the average feature amount, which is the average value of the feature amounts of the still image data included in the continuous image data file in each of the groups.
前記平均特徴量は、前記グループのそれぞれにおいて予め設定された数の前記特徴量の上位の平均値である画像形成方法。 An image forming method in which the average feature amount is a higher average value of a preset number of the feature amounts in each of the groups.
入金処理に応じて印刷処理を実行する画像形成装置を制御するための画像形成プログラムであって、
動画像データから複数の静止画像データを生成する静止画像データ生成部、
前記静止画像データの人物の顔に関する特徴を表す特徴量を計算し、前記特徴量に基づいて前記静止画像データを抽出し、前記抽出された複数の静止画像データから時系列的に連続してシーンを構成する複数の静止画像データから構成される連続画像データファイルである少なくとも1つのグループを生成する静止画像データ抽出部、
前記入金処理で入金された金額と、印刷処理の単価とを使用し、前記金額を前記単価で除算することによって印刷可能枚数を計算し、前記生成されたグループの数であるグループ数を計算するとともに、前記印刷可能枚数が前記グループ数以上であるか否かを判断する印刷可能枚数計算部、及び
前記印刷可能枚数が前記グループの数未満である場合には、前記特徴量を使用して決定された順序で前記グループ毎に前記連続画像データファイルを代表する代表静止画像のグループを画像形成対象として選択可能に表示し、前記印刷可能枚数が前記グループの数以上である場合には、前記グループの時系列に基づいて決定された順序で前記グループ毎に前記代表静止画像のグループを画像形成対象として選択可能に表示する操作表示部として画像形成装置を機能させる画像形成プログラム。
An image forming program for controlling an image forming apparatus that executes a printing process according to a deposit process.
Still image data generator, which generates multiple still image data from moving image data,
A feature amount representing a feature related to a person's face in the still image data is calculated, the still image data is extracted based on the feature amount, and a scene is continuously generated from the extracted plurality of still image data in a time series. Still image data extraction unit that generates at least one group that is a continuous image data file composed of a plurality of still image data constituting
Using the amount deposited in the deposit process and the unit price in the print process, the number of printable sheets is calculated by dividing the amount by the unit price, and the number of groups, which is the number of generated groups, is calculated. At the same time, a printable number calculation unit for determining whether or not the number of printable sheets is equal to or greater than the number of the groups , and a determination using the feature amount when the number of printable sheets is less than the number of the groups. A group of representative still images representing the continuous image data file is selectively displayed as an image formation target for each of the groups in the order in which they are printed, and when the number of printable sheets is equal to or greater than the number of the groups, the group. An image forming program that causes an image forming apparatus to function as an operation display unit that selectively displays a group of representative still images as an image forming target for each of the groups in an order determined based on the time series of .
入金処理に応じて印刷処理を実行する画像形成装置を制御するための画像形成プログラムであって、 An image forming program for controlling an image forming apparatus that executes a printing process according to a deposit process.
動画像データから複数の静止画像データを生成する静止画像データ生成部、 Still image data generator, which generates multiple still image data from moving image data,
前記静止画像データの人物の顔に関する特徴を表す特徴量を計算し、前記特徴量に基づいて前記静止画像データを抽出し、前記抽出された複数の静止画像データから時系列的に連続してシーンを構成する複数の静止画像データから構成される連続画像データファイルである少なくとも1つのグループを生成する静止画像データ抽出部、 A feature amount representing a feature related to a person's face in the still image data is calculated, the still image data is extracted based on the feature amount, and a scene is continuously generated from the extracted plurality of still image data in a time series. Still image data extraction unit that generates at least one group that is a continuous image data file composed of a plurality of still image data constituting
前記入金処理で入金された金額と、印刷処理の単価とを使用し、前記金額を前記単価で除算することによって印刷可能枚数を計算し、前記生成されたグループの数であるグループ数を計算するとともに、前記印刷可能枚数が前記グループ数以上であるか否かを判断する印刷可能枚数計算部、及び Using the amount deposited in the deposit process and the unit price of the print process, the number of printable sheets is calculated by dividing the amount by the unit price, and the number of groups, which is the number of the generated groups, is calculated. At the same time, a printable number calculation unit for determining whether or not the printable number is equal to or greater than the group number, and
前記印刷可能枚数が前記グループの数未満である場合には、前記特徴量を使用して決定された順序で前記グループ毎に前記連続画像データファイルを代表する代表静止画像のグループを画像形成対象として選択可能に表示する操作表示部として画像形成装置を機能させ、 When the number of printable sheets is less than the number of the groups, a group of representative still images representing the continuous image data file is set as an image forming target for each group in the order determined by using the feature amount. The image forming device is made to function as an operation display unit for display in a selectable manner.
前記操作表示部は、前記グループのそれぞれにおける前記連続画像データファイルに含まれる静止画像データの特徴量の平均値である平均特徴量が大きい順に前記順序を決定し、 The operation display unit determines the order in descending order of the average feature amount, which is the average value of the feature amounts of the still image data included in the continuous image data file in each of the groups.
前記平均特徴量は、前記グループのそれぞれにおいて予め設定された数の前記特徴量の上位の平均値である画像形成プログラム。 An image forming program in which the average feature amount is a higher average value of a preset number of the feature amounts in each of the groups.
JP2017141385A 2017-07-20 2017-07-20 Image forming apparatus, image forming method and image forming program Active JP6778398B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017141385A JP6778398B2 (en) 2017-07-20 2017-07-20 Image forming apparatus, image forming method and image forming program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017141385A JP6778398B2 (en) 2017-07-20 2017-07-20 Image forming apparatus, image forming method and image forming program

Publications (2)

Publication Number Publication Date
JP2019018517A JP2019018517A (en) 2019-02-07
JP6778398B2 true JP6778398B2 (en) 2020-11-04

Family

ID=65353792

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017141385A Active JP6778398B2 (en) 2017-07-20 2017-07-20 Image forming apparatus, image forming method and image forming program

Country Status (1)

Country Link
JP (1) JP6778398B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000152165A (en) * 1998-11-09 2000-05-30 Minolta Co Ltd Still image output device
JP4415591B2 (en) * 2003-07-16 2010-02-17 カシオ計算機株式会社 Image printing apparatus and program
JP2006060648A (en) * 2004-08-23 2006-03-02 Seiko Epson Corp Selection method of still picture, and printer
JP4240098B2 (en) * 2006-09-26 2009-03-18 カシオ計算機株式会社 Image processing apparatus and image processing method
JP2016052013A (en) * 2014-08-29 2016-04-11 富士フイルム株式会社 Image processing device, image processing method, program and recording medium

Also Published As

Publication number Publication date
JP2019018517A (en) 2019-02-07

Similar Documents

Publication Publication Date Title
US20200351466A1 (en) Low Power Framework for Controlling Image Sensor Mode in a Mobile Image Capture Device
US10732809B2 (en) Systems and methods for selective retention and editing of images captured by mobile image capture device
US9836484B1 (en) Systems and methods that leverage deep learning to selectively store images at a mobile image capture device
CN109285115B (en) Image processing apparatus, image forming apparatus, image processing method, and recording medium
JP4168940B2 (en) Video display system
US9838641B1 (en) Low power framework for processing, compressing, and transmitting images at a mobile image capture device
US8345118B2 (en) Image capturing apparatus, image capturing method, album creating apparatus, album creating method, album creating system and computer readable medium
US9934423B2 (en) Computerized prominent character recognition in videos
US8379931B2 (en) Image processing apparatus for retrieving object from moving image and method thereof
US9836819B1 (en) Systems and methods for selective retention and editing of images captured by mobile image capture device
WO2013069605A1 (en) Similar image search system
MX2011012725A (en) Image search apparatus and image search method.
CN105095853A (en) Image processing apparatus and image processing method
US11019251B2 (en) Information processing apparatus, image capturing apparatus, information processing method, and recording medium storing program
JP6768222B2 (en) Image processing device, image processing method and image processing program
JP6737247B2 (en) Image processing apparatus, image processing method, and image processing program
JP6948787B2 (en) Information processing equipment, methods and programs
JP6778398B2 (en) Image forming apparatus, image forming method and image forming program
JP6756311B2 (en) Image processing device, image processing method and image processing program
JP6768223B2 (en) Image processing device, image processing method and image processing program
JP6841181B2 (en) Image processing device, image processing method and image processing program
JP4909315B2 (en) Video processing apparatus and method, program, and computer-readable recording medium
JP5464965B2 (en) Image processing apparatus, control method therefor, program, and storage medium
JP6870728B2 (en) Image processing device, image forming device and image processing method
KR20220026140A (en) Mixed reality experience system and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200629

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200923

R150 Certificate of patent or registration of utility model

Ref document number: 6778398

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150