JP2019022166A - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP2019022166A
JP2019022166A JP2017141388A JP2017141388A JP2019022166A JP 2019022166 A JP2019022166 A JP 2019022166A JP 2017141388 A JP2017141388 A JP 2017141388A JP 2017141388 A JP2017141388 A JP 2017141388A JP 2019022166 A JP2019022166 A JP 2019022166A
Authority
JP
Japan
Prior art keywords
image data
frame
still image
face
frame image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017141388A
Other languages
Japanese (ja)
Other versions
JP6737247B2 (en
Inventor
田中 邦彦
Kunihiko Tanaka
邦彦 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2017141388A priority Critical patent/JP6737247B2/en
Publication of JP2019022166A publication Critical patent/JP2019022166A/en
Application granted granted Critical
Publication of JP6737247B2 publication Critical patent/JP6737247B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide a technology to support setting a composition in extracting still image data from dynamic image data.SOLUTION: An image processing apparatus comprises: a still image data creation unit that creates a plurality of pieces of still image data from dynamic image data; and a print layout setting unit that analyzes face images displaying the faces displayed in the still image data, specifies subject directions that are each a direction of at least one of the face and the line of sight of the face on the basis of the analysis, and sets a composition in which a wide space is arranged toward the specified subject directions rather than the opposite side of the subject directions.SELECTED DRAWING: Figure 1

Description

本発明は、動画像データから静止画像データを抽出する画像処理技術に関する。   The present invention relates to an image processing technique for extracting still image data from moving image data.

近年、ビデオカメラやスマートフォンの性能向上や画質向上に伴い、動画像データから抽出可能な静止画像データを生成することが行われるようになってきた。このような状況を踏まえて、たとえば特許文献1は、全体画像領域の予め設定された領域に顔の画像が配置されるように拡大/縮小するとともに位置決めするレイアウト工程を含む画像処理方法を提案している。これにより、特許文献1は、人物の画像を自動的に適正なレイアウトで配置することができるとしている。   In recent years, with improvement in performance and image quality of video cameras and smartphones, generation of still image data that can be extracted from moving image data has been performed. In view of such a situation, for example, Patent Document 1 proposes an image processing method including a layout step of enlarging / reducing and positioning so that a face image is arranged in a preset area of the entire image area. ing. Accordingly, Patent Document 1 states that a person image can be automatically arranged in an appropriate layout.

特開2000−270198号公報JP 2000-270198 A

しかし、動画像のアスペクト比は、一般的に静止画像のアスペクト比と相違するので、静止画像のアスペクト比への編集の際に動画像の撮影時に意図した構図が維持できないことがある。さらに、動画撮影では、撮影者も被写体も動くことがあり、構図を意識した撮影が一般に困難である。   However, since the aspect ratio of the moving image is generally different from the aspect ratio of the still image, the composition intended when the moving image is captured may not be maintained when editing the aspect ratio of the still image. Furthermore, in video shooting, both the photographer and the subject may move, and it is generally difficult to shoot with the composition in mind.

本発明は、このような状況に鑑みてなされたものであり、動画像データから静止画像データを抽出する際の構図の設定を支援する技術を提供することを目的とする。   The present invention has been made in view of such a situation, and an object of the present invention is to provide a technique for supporting composition setting when extracting still image data from moving image data.

本発明の画像処理装置は、動画像データから複数の静止画像データを生成する静止画像データ生成部と、前記静止画像データに表示されている顔を表示する顔画像を解析し、前記解析に基づいて前記顔と前記顔の視線の少なくとも一方の方向に応じて、前記方向の反対側よりも前記方向の側に広い空間を配置する構図を設定する静止画像データ抽出部とを備える。   The image processing apparatus of the present invention analyzes a still image data generation unit that generates a plurality of still image data from moving image data, a face image that displays a face displayed in the still image data, and based on the analysis And a still image data extraction unit that sets a composition in which a larger space is arranged on the side of the direction than the opposite side of the direction according to at least one direction of the face and the line of sight of the face.

本発明の画像形成装置は、前記画像処理装置と、印刷媒体に画像を形成する画像形成部とを備える。   An image forming apparatus according to the present invention includes the image processing apparatus and an image forming unit that forms an image on a print medium.

本発明の画像処理方法は、動画像データから複数の静止画像データを生成する静止画像データ生成工程と、前記静止画像データに表示されている顔を表示する顔画像を解析し、前記解析に基づいて前記顔と前記顔の視線の少なくとも一方の方向に応じて、前記方向の反対側よりも前記方向の側に広い空間を配置する構図を設定する静止画像データ抽出工程と、を備える。   According to the image processing method of the present invention, a still image data generation step of generating a plurality of still image data from moving image data, a face image displaying a face displayed in the still image data are analyzed, and based on the analysis And a still image data extraction step of setting a composition in which a larger space is arranged on the side of the direction than the opposite side of the direction according to at least one direction of the face and the line of sight of the face.

本発明の画像処理プログラムは、動画像データから複数の静止画像データを生成する静止画像データ生成部と、及び前記静止画像データに表示されている顔を表示する顔画像を解析し、前記解析に基づいて前記顔と前記顔の視線の少なくとも一方の方向に応じて、前記方向の反対側よりも前記方向の側に広い空間を配置する構図を設定する静止画像データ抽出部として画像処理装置を機能させる。   The image processing program of the present invention analyzes a still image data generation unit that generates a plurality of still image data from moving image data, and a face image that displays a face displayed in the still image data, and performs the analysis Based on at least one direction of the face and the line of sight of the face, the image processing apparatus functions as a still image data extraction unit that sets a composition in which a larger space is arranged on the side of the direction than the opposite side of the direction Let

本発明によれば、動画像データから静止画像データを抽出する際の構図の設定を支援する技術を提供する。   According to the present invention, a technique for supporting composition setting when extracting still image data from moving image data is provided.

本発明の第1実施形態に係る画像形成装置100の機能構成を示すブロックダイアグラムである。2 is a block diagram showing a functional configuration of the image forming apparatus 100 according to the first embodiment of the present invention. 第1実施形態に係る静止画像取得処理の内容を示すフローチャートである。It is a flowchart which shows the content of the still image acquisition process which concerns on 1st Embodiment. 第1実施形態に係るフレーム画像データ生成処理の内容を示すデータフローダイアグラムである。It is a data flow diagram which shows the content of the frame image data generation process which concerns on 1st Embodiment. 第1実施形態に係るフレーム画像抽出処理の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the frame image extraction process which concerns on 1st Embodiment. 第1実施形態に係るフレーム画像抽出処理の内容を示すフローチャートである。It is a flowchart which shows the content of the frame image extraction process which concerns on 1st Embodiment. 第2実施形態に係る静止画像取得処理の内容を示すフローチャートである。It is a flowchart which shows the content of the still image acquisition process which concerns on 2nd Embodiment. 第2実施形態に係るフレーム画像抽出処理の内容を示すフローチャートである。It is a flowchart which shows the content of the frame image extraction process which concerns on 2nd Embodiment. 第2実施形態に係るフレーム画像抽出処理の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the frame image extraction process which concerns on 2nd Embodiment. 第3実施形態に係る静止画像取得処理の内容を示すフローチャートである。It is a flowchart which shows the content of the still image acquisition process which concerns on 3rd Embodiment. 第3実施形態に係る人物登録処理の内容を示すフローチャートである。It is a flowchart which shows the content of the person registration process which concerns on 3rd Embodiment. 第3実施形態に係る特徴量計算処理の内容を示すフローチャートである。It is a flowchart which shows the content of the feature-value calculation process which concerns on 3rd Embodiment. 第4実施形態に係る静止画像取得処理の内容を示すフローチャートである。It is a flowchart which shows the content of the still image acquisition process which concerns on 4th Embodiment. 第4実施形態に係る印刷出力処理の内容を示すフローチャートである。It is a flowchart which shows the content of the print output process which concerns on 4th Embodiment. 第4実施形態に係る印刷対象画像選択処理の内容を示すフローチャートである。It is a flowchart which shows the content of the printing target image selection process which concerns on 4th Embodiment. 第4実施形態に係る印刷対象画像選択処理における操作表示画面を示す説明図である。It is explanatory drawing which shows the operation display screen in the printing target image selection process which concerns on 4th Embodiment. 第4実施形態に係る印刷レイアウト設定処理の内容を示すフローチャートである。It is a flowchart which shows the content of the print layout setting process which concerns on 4th Embodiment. 第4実施形態に係る印刷レイアウト設定処理における操作表示画面を示す説明図である。It is explanatory drawing which shows the operation display screen in the print layout setting process which concerns on 4th Embodiment. 第4実施形態に係る印刷レイアウト設定処理の一例を示す説明図である。It is explanatory drawing which shows an example of the print layout setting process which concerns on 4th Embodiment. 第4実施形態に係る印刷レイアウト設定処理の他の例を示す説明図である。It is explanatory drawing which shows the other example of the printing layout setting process which concerns on 4th Embodiment.

以下、本発明を実施するための形態(以下、「実施形態」という)を、図面を参照して以下の順序で説明する。
A.第1実施形態:
B.第2実施形態:
C.第3実施形態:
D.第4実施形態:
E.変形例:
Hereinafter, modes for carrying out the present invention (hereinafter referred to as “embodiments”) will be described in the following order with reference to the drawings.
A. First embodiment:
B. Second embodiment:
C. Third embodiment:
D. Fourth embodiment:
E. Variation:

A.第1実施形態:
図1は、本発明の第1実施形態に係る画像形成装置100の機能構成を示すブロックダイアグラムである。画像形成装置100は、制御部110と、画像形成部120と、操作表示部130と、記憶部140と、通信インターフェース部150(通信I/F部とも呼ばれる。)とを備えている。画像形成装置100は、通信インターフェース部150を介して近距離無線通信でスマートフォン200と接続される。これにより、画像形成装置100は、スマートフォン200で撮像して生成された動画像データを受信することができる。
A. First embodiment:
FIG. 1 is a block diagram showing a functional configuration of an image forming apparatus 100 according to the first embodiment of the present invention. The image forming apparatus 100 includes a control unit 110, an image forming unit 120, an operation display unit 130, a storage unit 140, and a communication interface unit 150 (also referred to as a communication I / F unit). The image forming apparatus 100 is connected to the smartphone 200 via short-range wireless communication via the communication interface unit 150. Thereby, the image forming apparatus 100 can receive the moving image data generated by imaging with the smartphone 200.

近距離無線通信は、本実施形態では、BLUETOOTH(登録商標)のCLASS2を使用している。BLUETOOTH(登録商標)のCLASS2は、出力2.5mWの通信であり、画像形成装置100とスマートフォン200との距離が10m以内程度での通信が可能な近距離無線通信である。   In this embodiment, near field communication uses CLASS 2 of BLUETOOTH (registered trademark). CLASS 2 of BLUETOOTH (registered trademark) is a communication with an output of 2.5 mW, and is a short-range wireless communication that enables communication between the image forming apparatus 100 and the smartphone 200 within about 10 m.

制御部110は、RAMやROM等の主記憶手段、及びMPU(Micro Processing Unit)やCPU(Central Processing Unit)等の制御手段を備えている。また、制御部110は、各種I/O、USB(Universal Serial Bus)、バス、その他ハードウェア等のインターフェースに関連するコントローラー機能を備えている。制御部110は、画像形成装置100の全体を制御する。   The control unit 110 includes main storage means such as RAM and ROM, and control means such as MPU (Micro Processing Unit) and CPU (Central Processing Unit). The control unit 110 also has controller functions related to various I / O, USB (Universal Serial Bus), bus, and other interfaces such as hardware. The control unit 110 controls the entire image forming apparatus 100.

制御部110は、フレーム画像生成部111と、特徴量演算部112と、フレーム画像抽出部113と、フレームメモリ114と、周期設定部115とを備えている。画像形成部120は、印刷媒体上に画像を形成する。   The control unit 110 includes a frame image generation unit 111, a feature amount calculation unit 112, a frame image extraction unit 113, a frame memory 114, and a cycle setting unit 115. The image forming unit 120 forms an image on a print medium.

操作表示部130は、ディスプレイ131と、操作処理部132とを備えている。ディスプレイ131は、タッチパネルとして機能し、様々なメニューを入力画面として表示する。操作処理部132は、スタートボタンを含み、ユーザーの操作入力を受け付ける。   The operation display unit 130 includes a display 131 and an operation processing unit 132. The display 131 functions as a touch panel and displays various menus as an input screen. The operation processing unit 132 includes a start button and accepts a user operation input.

記憶部140は、非一時的な記録媒体であるハードディスクドライブやフラッシュメモリー等からなる記憶装置で、それぞれ制御部110が実行する処理の制御プログラムやデータを記憶する。記憶部140は、さらに、フレーム画像データを格納するための静止画像格納領域141と、人物の顔検出のための顔画像データ(登録顔画像データとも呼ばれる。)が登録されている人物登録データ格納領域142とを有している。人物登録データ格納領域142には、一般的な顔の検出に応じてフレーム画像データを抽出するための閾値を表すデータも格納されている。   The storage unit 140 is a storage device including a hard disk drive or a flash memory that is a non-temporary recording medium, and stores a control program and data for processing executed by the control unit 110, respectively. The storage unit 140 further stores a person registration data in which a still image storage area 141 for storing frame image data and face image data for detecting a human face (also referred to as registered face image data) are registered. Region 142. The person registration data storage area 142 also stores data representing a threshold for extracting frame image data in accordance with general face detection.

図2は、第1実施形態に係る静止画像取得処理の内容を示すフローチャートである。ステップS10では、ユーザーは、操作表示部130を使用して特徴選択処理を実行する。特徴選択処理では、ユーザーは、動画像データから静止画像データを抽出する際の条件として抽出対象となる静止画像で検出されるべき特徴量の種類を選択することができる。   FIG. 2 is a flowchart showing the content of the still image acquisition process according to the first embodiment. In step S <b> 10, the user executes feature selection processing using the operation display unit 130. In the feature selection process, the user can select the type of feature quantity to be detected in the still image to be extracted as a condition for extracting still image data from moving image data.

特徴量の種類には、顔検出のための特徴量や特定の人物を検出するための特徴量といった種類がある。顔検出のための特徴量は、単に人間の顔が大きく表示されていること等を定量的に表すことができる。特定の人物を検出するための特徴量は、他の人物から特定の人物を識別して、特定の人間の顔が大きく表示されていること等を定量的に表すことができる。特定の人物を検出するための特徴量の登録方法については、第3実施形態で詳しく説明する。   The types of feature amounts include a feature amount for face detection and a feature amount for detecting a specific person. The feature amount for face detection can quantitatively represent that a human face is simply displayed large. The feature amount for detecting a specific person can identify the specific person from other persons and quantitatively represent that the face of the specific person is displayed large. A feature amount registration method for detecting a specific person will be described in detail in a third embodiment.

この際、周期設定部115は、フレーム画像の時間的なサンプリング間隔であるサンプリング周期の設定である周期設定入力を受け付ける操作表示画面(図示せず)を操作表示部130に表示させる。これにより、ユーザーは、サンプリング周期を設定することができる。   At this time, the cycle setting unit 115 causes the operation display unit 130 to display an operation display screen (not shown) that receives a cycle setting input that is a sampling cycle setting that is a temporal sampling interval of the frame image. Thereby, the user can set a sampling period.

ステップS20では、制御部110のフレーム画像生成部111は、静止画像データ生成部として機能し、フレーム画像データ生成処理を実行する。フレーム画像データ生成処理では、フレーム画像生成部111は、たとえば30fpsのフレームレートの動画像データMDからフレーム画像データを生成する。   In step S20, the frame image generation unit 111 of the control unit 110 functions as a still image data generation unit, and executes frame image data generation processing. In the frame image data generation process, the frame image generation unit 111 generates frame image data from moving image data MD having a frame rate of 30 fps, for example.

図3は、第1実施形態に係るフレーム画像データ生成処理の内容を示すデータフローダイアグラムである。図3には、上側にデータフローダイアグラムが示され、下側にGOP(Group of Pictures)が示されている。データフローダイアグラムは、動画像データMDからのフレーム画像データの流れを示している。フレーム画像データは、YUV画像データとして構成されている。フレーム画像データ生成処理は、動画像データMDから複数のフレーム画像データを抽出する処理であり、フレーム画像生成部111によって実行される。   FIG. 3 is a data flow diagram showing the contents of the frame image data generation processing according to the first embodiment. In FIG. 3, a data flow diagram is shown on the upper side, and a GOP (Group of Pictures) is shown on the lower side. The data flow diagram shows the flow of frame image data from the moving image data MD. The frame image data is configured as YUV image data. The frame image data generation process is a process for extracting a plurality of frame image data from the moving image data MD, and is executed by the frame image generation unit 111.

フレーム画像データ生成処理には、たとえばMPEG−4(ISO/IEC 14496)やH.264に規定される処理が含まれる。フレーム画像データ生成処理では、フレーム画像生成部111は、Iフレーム(Intra−coded Frame)、Pフレーム(Predicted Frame)及びBフレーム(Bi−directional Predicted Frame)からフレーム画像データを生成する。   Examples of the frame image data generation process include MPEG-4 (ISO / IEC 14496) and H.264. H.264 is included. In the frame image data generation process, the frame image generation unit 111 generates frame image data from an I frame (Intra-coded Frame), a P frame (Predicted Frame), and a B frame (Bi-directional Predicted Frame).

Iフレームとは、フレーム間予測を用いずに符号化されるフレームである。Iフレームとは、イントラフレームやキーフレームとも呼ばれる。Iフレームは、Pフレーム(Predicted Frame)やBフレーム(Bi−directional Predicted Frame)とともにGOPを構成する。Pフレームは、IフレームやPフレームとのフレーム間処理によってフレーム画像データの生成を可能とする。Bフレームは、Iフレーム、Pフレーム及び他のBフレームとの前後のフレーム間処理によってフレーム画像データの生成を可能とする。   An I frame is a frame that is encoded without using inter-frame prediction. The I frame is also called an intra frame or a key frame. The I frame constitutes a GOP together with a P frame (Predicted Frame) and a B frame (Bi-directional Predicted Frame). The P frame enables generation of frame image data by inter-frame processing with an I frame or a P frame. The B frame enables generation of frame image data by inter-frame processing before and after the I frame, P frame, and other B frames.

動画像データは、時系列順に配列されている複数のフレーム画像データから生成される。複数のフレーム画像データは、時系列の前後のフレーム間で近似していることが多い。フレーム間予測とは、このような動画像データの性質を利用して、時系列的に前のフレーム画像から現在のフレーム画像を予測する技術である。   The moving image data is generated from a plurality of frame image data arranged in time series. A plurality of frame image data is often approximated between frames before and after time series. Inter-frame prediction is a technique for predicting a current frame image from a previous frame image in time series using such characteristics of moving image data.

具体的には、画素ブロック毎の移動を推定し、移動後のフレーム間での画素ブロックの差分をDCT変換・量子化してGOP単位での圧縮率を高める技術である。Pフレームは、動きベクトルを使用してIフレームから再現することができる。動きベクトルは、各画素ブロックの移動ベクトルである。   Specifically, this is a technique for estimating the movement of each pixel block and DCT-transforming / quantizing the difference of the pixel block between the moved frames to increase the compression rate in GOP units. P frames can be reproduced from I frames using motion vectors. The motion vector is a movement vector of each pixel block.

フレーム画像生成部111は、Iフレームに対して逆離散コサイン変換(逆DCT変換とも呼ばれる。)を行うことによって、輝度データと色差データとを含むYUV画像データとしてのフレーム画像データを生成する。逆DCT変換は、たとえば8×8画素あるいは16×16の画素ブロック毎に実行される。フレーム画像生成部111は、再現されたフレーム画像データを制御部110のフレームメモリ114に格納する。   The frame image generation unit 111 generates frame image data as YUV image data including luminance data and color difference data by performing inverse discrete cosine transform (also referred to as inverse DCT transform) on the I frame. The inverse DCT transform is executed for each 8 × 8 pixel or 16 × 16 pixel block, for example. The frame image generation unit 111 stores the reproduced frame image data in the frame memory 114 of the control unit 110.

フレーム画像生成部111は、Pフレーム及びBフレームに対して逆離散コサイン変換を行うことによって差分データを生成する。フレーム画像生成部111は、差分データと動きベクトルとを使用してフレーム間処理を実行してフレーム画像データを生成する。動きベクトルは、動画像データMDのエンコード時に生成されたデータである。本処理は、MPEG−4やH.264に規定される通常の復号化処理である。   The frame image generation unit 111 generates difference data by performing inverse discrete cosine transform on the P frame and the B frame. The frame image generation unit 111 performs inter-frame processing using the difference data and the motion vector, and generates frame image data. The motion vector is data generated when the moving image data MD is encoded. This processing is performed using MPEG-4 or H.264. H.264 is a normal decoding process.

フレーム画像生成部111は、PフレームやBフレームに基づくフレーム画像データ生成処理を実行し、全てのフレーム画像データをフレームメモリ114に格納する。フレーム画像データをフレームメモリ114に格納する際には、フレーム画像生成部111は、フレーム画像データの時系列的な順序を表す番号を各フレーム画像データに紐づけて格納する。   The frame image generation unit 111 executes frame image data generation processing based on the P frame and the B frame, and stores all the frame image data in the frame memory 114. When the frame image data is stored in the frame memory 114, the frame image generation unit 111 stores a number representing the time-series order of the frame image data in association with each frame image data.

図4は、第1実施形態に係るフレーム画像抽出処理の概要を示す説明図である。図4には、第1フレーム画像群FG1と、第2フレーム画像群FG2と、第3フレーム画像群FG3とが示されている。第1フレーム画像群FG1は、処理対象としての80個のフレーム画像データF1〜F80を示している。第2フレーム画像群FG2は、サンプリング処理中のフレーム画像データF1〜F80を示している。第3フレーム画像群FG3は、フレーム画像抽出処理完了後のフレーム画像データF1〜F80を示している。   FIG. 4 is an explanatory diagram showing an outline of the frame image extraction processing according to the first embodiment. FIG. 4 shows a first frame image group FG1, a second frame image group FG2, and a third frame image group FG3. The first frame image group FG1 shows 80 frame image data F1 to F80 as processing targets. The second frame image group FG2 shows frame image data F1 to F80 during sampling processing. The third frame image group FG3 shows frame image data F1 to F80 after completion of the frame image extraction process.

ステップS30では、フレーム画像生成部111は、サンプリング処理を実行する。本実施形態では、特徴量演算部112は、ユーザーの選択に基づいて、8フレーム間隔のサンプリング周期(30fpsの場合で0.27秒)でサンプリング対象フレームを決定するものとする。この例では、サンプリング対象フレームは、第1フレーム画像群FG1において菱形の記号で表されている8個のフレーム画像データF9,F18,F27,F36,F45,F54,F63,F72となる。サンプリング対象フレームの画像データは、サンプリング対象静止画像データとも呼ばれる。   In step S30, the frame image generation unit 111 executes a sampling process. In the present embodiment, the feature amount calculation unit 112 determines a sampling target frame at a sampling period of 8 frames (0.27 seconds in the case of 30 fps) based on a user's selection. In this example, the sampling target frames are eight frame image data F9, F18, F27, F36, F45, F54, F63, and F72 represented by diamond symbols in the first frame image group FG1. The image data of the sampling target frame is also called sampling target still image data.

ステップS40では、制御部110の特徴量演算部112は、特徴量計算処理を実行する。特徴量計算処理では、特徴量演算部112は、選択された特徴量の種類に基づいて特徴量を計算する。特徴量演算部112は、たとえば周知のOpenCV(Open Source Computer Vision Library)を使用して人物の検出や特定を実行することができる。サンプリング対象静止画像データの特徴量は、第1の特徴量とも呼ばれる。   In step S40, the feature amount calculation unit 112 of the control unit 110 performs a feature amount calculation process. In the feature amount calculation process, the feature amount calculation unit 112 calculates a feature amount based on the selected feature amount type. The feature quantity calculation unit 112 can perform detection and identification of a person using, for example, the well-known OpenCV (Open Source Computer Vision Library). The feature amount of the sampling target still image data is also referred to as a first feature amount.

具体的には、特徴量演算部112は、人物登録データ格納領域142に登録されている登録顔画像データと、たとえばHOG(Histograms of Oriented Gradients)特徴やHaar−Like特徴とに基づいて特定の人物の特徴を定量的に表している特徴量を計算する。特徴量の計算では、SVM(Support Vector Machine)などの機械学習を利用することができる。   Specifically, the feature amount calculation unit 112 is configured to specify a specific person based on registered face image data registered in the person registration data storage area 142 and, for example, a HOG (Histograms of Oriented Gradients) feature or a Haar-Like feature. The feature quantity that quantitatively represents the feature of is calculated. In the calculation of the feature amount, machine learning such as SVM (Support Vector Machine) can be used.

ステップS50では、フレーム画像抽出部113は、閾値設定処理を実行する。閾値設定処理では、フレーム画像抽出部113は、人物登録データ格納領域142から顔の検出に応じてフレーム画像データを抽出するための閾値を表すデータを読み出し、そのデータを使用して閾値を決定する。閾値は、機械学習によって自動的に計算され、人物登録データ格納領域142に格納される。   In step S50, the frame image extraction unit 113 executes a threshold setting process. In the threshold value setting process, the frame image extraction unit 113 reads data representing a threshold value for extracting frame image data in accordance with face detection from the person registration data storage area 142, and determines the threshold value using the data. . The threshold value is automatically calculated by machine learning and stored in the person registration data storage area 142.

図5は、第1実施形態に係るフレーム画像抽出処理(ステップS60)の内容を示すフローチャートである(図3参照)。ステップS61では、フレーム画像抽出部113は、各サンプリング対象フレームが抽出対象であるか否かを判断する。フレーム画像抽出部113は、各サンプリング対象フレームの特徴量が閾値以上であるか否かに基づいて抽出対象であるか否を判断する。閾値は、人物登録データ格納領域142から読み出された値である。   FIG. 5 is a flowchart showing the contents of the frame image extraction process (step S60) according to the first embodiment (see FIG. 3). In step S61, the frame image extraction unit 113 determines whether each sampling target frame is an extraction target. The frame image extraction unit 113 determines whether or not it is an extraction target based on whether or not the feature amount of each sampling target frame is greater than or equal to a threshold value. The threshold value is a value read from the person registration data storage area 142.

フレーム画像抽出部113は、サンプリング対象フレームが抽出対象である場合には、処理をステップS62に進める。この例では、特徴量が閾値以上のサンプリング対象フレームは、第1フレーム画像群FG1において、3個のフレーム画像データF18,F45,F54となる。サンプリング対象フレーム(サンプリング対象静止画像データ)は、抽出対象である場合には、第1の抽出対象静止画像データとも呼ばれる。   If the sampling target frame is the extraction target, the frame image extraction unit 113 advances the process to step S62. In this example, the sampling target frame whose feature amount is equal to or greater than the threshold value is three frame image data F18, F45, and F54 in the first frame image group FG1. The sampling target frame (sampling target still image data) is also called first extraction target still image data when it is an extraction target.

ステップS62では、特徴量演算部112は、抽出候補フレーム画像データとして、特徴量が閾値以上のサンプリング対象フレームから予め設定された範囲内(この例では後側の8個)のフレーム画像データ(隣接静止画像データとも呼ばれる。)を選択する(第2フレーム画像群FG2参照)。特徴量が閾値以上のサンプリング対象フレームF18,F45,F54は、抽出対象サンプリング対象フレームとも呼ばれる。   In step S62, the feature amount calculation unit 112 extracts, as extraction candidate frame image data, frame image data (adjacent eight in this example) within a preset range from a sampling target frame whose feature amount is equal to or greater than a threshold value. (Also referred to as still image data)) (see second frame image group FG2). The sampling target frames F18, F45, and F54 whose feature amount is equal to or greater than the threshold are also referred to as extraction target sampling target frames.

具体的には、特徴量演算部112は、たとえばサンプリング対象フレームF18については、その後側の8個のフレーム画像データF19〜F26を選択する。さらに、特徴量演算部112は、サンプリング対象フレームF45については、その後側の8個のフレーム画像データF46〜F53を選択し、サンプリング対象フレームF54については、その後側の8個のフレーム画像データF55〜F62を選択する。   Specifically, for example, for the sampling target frame F18, the feature amount calculation unit 112 selects the eight subsequent frame image data F19 to F26. Further, the feature amount calculation unit 112 selects the eight subsequent frame image data F46 to F53 for the sampling target frame F45, and the eight subsequent frame image data F55 to F5 for the sampling target frame F54. Select F62.

ステップS63では、特徴量演算部112は、抽出対象サンプリング対象フレームの直前のサンプリング対象フレームが抽出対象サンプリング対象フレームであるか否かを判断する。特徴量演算部112は、直前のサンプリング対象フレームが抽出対象サンプリング対象フレームである場合には、処理をステップS65に進め、直前のサンプリング対象フレームが抽出対象サンプリング対象フレームでない場合には、処理をステップS64に進める。   In step S63, the feature amount calculation unit 112 determines whether the sampling target frame immediately before the extraction target sampling target frame is the extraction target sampling target frame. If the immediately preceding sampling target frame is the extraction target sampling target frame, the feature amount calculation unit 112 proceeds to step S65. If the immediately preceding sampling target frame is not the extraction target sampling target frame, the feature amount calculating unit 112 performs the processing. Proceed to S64.

具体的には、特徴量演算部112は、サンプリング対象フレームF18については、その直前のサンプリング対象フレームF9が抽出対象サンプリング対象フレームでないので、処理をステップS64に進める。この点は、サンプリング対象フレームF45についても同様である。一方、特徴量演算部112は、サンプリング対象フレームF54については、その直前のサンプリング対象フレームF45が抽出対象サンプリング対象フレームなので、処理をステップS65に進める。   Specifically, for the sampling target frame F18, the feature amount calculating unit 112 advances the process to step S64 because the immediately preceding sampling target frame F9 is not the extraction target sampling target frame. This also applies to the sampling target frame F45. On the other hand, for the sampling target frame F54, the feature amount calculation unit 112 advances the processing to step S65 because the immediately preceding sampling target frame F45 is the extraction target sampling target frame.

ステップS64では、特徴量演算部112は、抽出候補フレーム画像データとして、抽出対象サンプリング対象フレームから予め設定された範囲内(この例では前側の8個)のフレーム画像データ(隣接静止画像データとも呼ばれる。)を選択する。具体的には、サンプリング対象フレームF18については、8個のフレーム画像データF10〜F17が抽出候補フレーム画像データとして選択され、サンプリング対象フレームF45については、8個のサンプリング対象フレームF37〜F44が抽出候補フレーム画像データとして選択される。   In step S64, the feature amount calculation unit 112, as extraction candidate frame image data, frame image data (also referred to as adjacent still image data) within a preset range from the extraction target sampling target frame (eight in this example). .) Specifically, for the sampling target frame F18, eight frame image data F10 to F17 are selected as extraction candidate frame image data, and for the sampling target frame F45, eight sampling target frames F37 to F44 are extraction candidates. Selected as frame image data.

一方、抽出対象サンプリング対象フレームF54については、その前側のフレーム画像データF46〜F53が選択されない。フレーム画像データF46〜F53は、既に抽出対象サンプリング対象フレームF45の後側の8個のフレーム画像データとして選択済みだからである。   On the other hand, for the extraction target sampling target frame F54, the previous frame image data F46 to F53 are not selected. This is because the frame image data F46 to F53 have already been selected as the eight frame image data on the rear side of the extraction target sampling target frame F45.

なお、予め設定された範囲は、第1の抽出対象静止画像データ(たとえばサンプリング対象フレームF54)の直前のサンプリング対象静止画像データ(たとえばサンプリング対象フレームF45)と、第1の抽出対象静止画像データの直後のサンプリング対象静止画像データ(たとえばサンプリング対象フレームF63)との間において設定することができる。   Note that the preset range includes the sampling target still image data (for example, sampling target frame F45) immediately before the first extraction target still image data (for example, sampling target frame F54) and the first extraction target still image data. It can be set with the sampling target still image data immediately after (for example, sampling target frame F63).

このように、特徴量演算部112は、フレーム画像データF10〜F17,F19〜F26,F37〜F44,F46〜F53及びF55〜F62を抽出候補フレーム画像データとして選択する。すなわち、特徴量演算部112は、所定のフレーム間隔でサンプリング対象フレームを設定して特徴量を計算することによって、多数のフレーム画像データのうちの抽出対象である可能性が高い一部のフレーム画像データに限定して特徴量(第2の特徴量とも呼ばれる。)の計算を行うことができる。   As described above, the feature amount calculation unit 112 selects the frame image data F10 to F17, F19 to F26, F37 to F44, F46 to F53, and F55 to F62 as extraction candidate frame image data. That is, the feature amount calculation unit 112 sets a sampling target frame at a predetermined frame interval and calculates a feature amount, so that a part of the frame images that are likely to be extracted from a large number of frame image data. It is possible to calculate feature amounts (also referred to as second feature amounts) by limiting to data.

本方法は、本願発明者による以下のような知見に基づいて創作されたものである。すなわち、動画の各フレーム画像に含まれる特徴的な部分は、局所的なフレーム(極短時間に相当するフレーム画像)にのみ現れるということは少ない。例えば、人物の顔を特徴として特徴量を計算する場合には、動画中の数フレーム画像のみから顔が検出されることはなく、ある程度連続したフレーム(たとえば数十フレーム)に撮影されていると考えられる。   This method was created based on the following findings by the present inventors. That is, a characteristic part included in each frame image of a moving image rarely appears only in a local frame (a frame image corresponding to an extremely short time). For example, when calculating a feature amount using a human face as a feature, the face is not detected from only a few frame images in the moving image, and is captured in a certain number of consecutive frames (for example, several tens of frames). Conceivable.

本願発明者は、このような動画像の性質を考慮して、特徴量の計算対象となる被写体が撮影されている一連のシーンをサンプリング対象フレームで検出し、そのシーンを構成するフレーム画像データ(サンプリング対象フレームの近傍のフレーム)についてのみ特徴量の計算を行う方法を創作した。これにより、本願発明者は、動画像データから静止画像データを抽出する処理における特徴量の計算精度と処理負担のトレードオフの問題を解決する方法を実現した。   The inventor of the present application considers the nature of the moving image as described above, detects a series of scenes in which the subject whose characteristic amount is to be calculated is photographed in the sampling target frame, and frame image data ( We created a method to calculate the feature value only for frames near the sampling target frame. As a result, the inventor of the present application has realized a method for solving the trade-off problem between the calculation accuracy of the feature amount and the processing burden in the process of extracting still image data from moving image data.

ステップS65では、特徴量演算部112は、特徴量計算処理を実行する。この例では、特徴量計算処理の内容は、ステップS40の特徴量計算処理と同一である。すなわち、この例では、第2の特徴量は、第1の特徴量と同一であるが、相互に相違する特徴量とすることもできる。   In step S65, the feature amount calculation unit 112 executes feature amount calculation processing. In this example, the feature amount calculation process is the same as the feature amount calculation process in step S40. That is, in this example, the second feature amount is the same as the first feature amount, but may be a feature amount different from each other.

ステップS66では、フレーム画像抽出部113は、静止画像データ抽出部として機能し、抽出対象選別処理を実行する。抽出対象選別処理では、フレーム画像抽出部113は、ステップS61の処理と同様の処理を実行し、各抽出候補フレーム画像データの特徴量が閾値以上であるか否かを判断し、特徴量が閾値以上である抽出候補フレーム画像データを選別する。   In step S66, the frame image extraction unit 113 functions as a still image data extraction unit and executes an extraction target selection process. In the extraction target selection process, the frame image extraction unit 113 performs the same process as the process of step S61, determines whether or not the feature amount of each extraction candidate frame image data is equal to or greater than the threshold value, and the feature amount is the threshold value. The extraction candidate frame image data as described above is selected.

この例では、フレーム画像抽出部113は、第3フレーム画像群FG3に示されるように、も含めてフレーム画像データF12〜F17,F19〜F21,F40〜F44,F46〜F47,F50〜F53,F55〜F61を第2の抽出対象静止画像データとして選別する。第2の抽出対象静止画像データは、抽出対象サンプリング対象フレーム(第1の抽出対象静止画像データとも呼ばれる。)とともに抽出対象フレーム画像データを構成する。   In this example, the frame image extraction unit 113 includes the frame image data F12 to F17, F19 to F21, F40 to F44, F46 to F47, F50 to F53, and F55, as shown in the third frame image group FG3. ... F61 are selected as second extraction target still image data. The second extraction target still image data constitutes extraction target frame image data together with the extraction target sampling target frame (also referred to as first extraction target still image data).

ステップS67では、フレーム画像抽出部113は、抽出対象フラグ処理を実行する。抽出対象フラグ処理では、フレーム画像抽出部113は、抽出対象フレーム画像データに抽出対象であることを示すフラグを設定する。   In step S67, the frame image extraction unit 113 executes an extraction target flag process. In the extraction target flag process, the frame image extraction unit 113 sets a flag indicating that it is an extraction target in the extraction target frame image data.

ステップS68では、フレーム画像抽出部113は、グループ化処理を実行する。グループ化処理では、フレーム画像抽出部113は、抽出対象サンプリング対象フレームを中心として、フラグが設定されている複数の抽出対象フレーム画像データをグループ化する(図3参照)。   In step S68, the frame image extraction unit 113 executes grouping processing. In the grouping process, the frame image extraction unit 113 groups a plurality of extraction target frame image data for which a flag is set around the extraction target sampling target frame (see FIG. 3).

具体的には、フレーム画像抽出部113は、抽出対象サンプリング対象フレームF18を中心として第1フレーム画像データ群FE1のグループを生成する(第3フレーム画像群FG3参照)。第1フレーム画像データ群FE1には、時系列的に連続している10個の抽出対象フレーム画像データF12〜F21が含まれる。   Specifically, the frame image extraction unit 113 generates a group of the first frame image data group FE1 around the extraction target sampling target frame F18 (see the third frame image group FG3). The first frame image data group FE1 includes ten extraction target frame image data F12 to F21 that are continuous in time series.

さらに、フレーム画像抽出部113は、抽出対象サンプリング対象フレームF45,F54を中心として、それぞれ第2フレーム画像データ群FE2と第3フレーム画像データ群FE3の各グループを生成する。第2フレーム画像データ群FE2には、時系列的に連続している8個の抽出対象フレーム画像データF40〜F47が含まれる。第3フレーム画像データ群FE3には、時系列的に連続している12個の抽出対象フレーム画像データF50〜F61が含まれる。   Further, the frame image extraction unit 113 generates groups of the second frame image data group FE2 and the third frame image data group FE3, respectively, with the extraction target sampling target frames F45 and F54 as the center. The second frame image data group FE2 includes eight extraction target frame image data F40 to F47 that are continuous in time series. The third frame image data group FE3 includes twelve extraction target frame image data F50 to F61 that are continuous in time series.

なお、この例では、2つのフレーム画像データF47,F50の間のフレーム画像データF48,F49が抽出対象フレーム画像データとして選別されていないので、第2フレーム画像データ群FE2と第3フレーム画像データ群FE3とにグループ化されている。しかしながら、仮にフレーム画像データF48,F49が抽出対象フレーム画像データとして選別されていた場合には、第3フレーム画像データ群FE3は、第2フレーム画像データ群FE2に併合された状態でグループ化されることになる。   In this example, since the frame image data F48 and F49 between the two frame image data F47 and F50 are not selected as the extraction target frame image data, the second frame image data group FE2 and the third frame image data group Grouped with FE3. However, if the frame image data F48 and F49 are selected as the extraction target frame image data, the third frame image data group FE3 is grouped in a state of being merged with the second frame image data group FE2. It will be.

制御部110は、最終フレーム画像データまでステップS20乃至ステップS60の処理を繰り返して実行する(ステップS70)。   The control unit 110 repeatedly executes the processing from step S20 to step S60 until the final frame image data (step S70).

ステップS80では、制御部110は、フレーム画像データ出力処理を実行する。フレーム画像データ出力処理では、制御部110は、第1フレーム画像データ群FE1、第2フレーム画像データ群FE2及び第3フレーム画像データ群FE3を記憶部140の静止画像格納領域141に格納する。   In step S80, the control unit 110 executes frame image data output processing. In the frame image data output process, the control unit 110 stores the first frame image data group FE1, the second frame image data group FE2, and the third frame image data group FE3 in the still image storage area 141 of the storage unit 140.

これにより、第1フレーム画像データ群FE1、第2フレーム画像データ群FE2及び第3フレーム画像データ群FE3は、3つの連続画像データファイルとして管理され、グループ毎に取り扱うことができる。静止画像格納領域141には、第1フレーム画像データ群FE1、第2フレーム画像データ群FE2及び第3フレーム画像データ群FE3の抽出対象フレーム画像データが、それぞれDCT変換されてJPEG静画像データとして格納される(図3参照)。   Thus, the first frame image data group FE1, the second frame image data group FE2, and the third frame image data group FE3 are managed as three continuous image data files and can be handled for each group. In the still image storage area 141, the extraction target frame image data of the first frame image data group FE1, the second frame image data group FE2, and the third frame image data group FE3 are each DCT converted and stored as JPEG still image data. (See FIG. 3).

このように、第1実施形態に係る画像形成装置100によれば、特徴量の計算対象となる被写体が撮影されている一連のシーンをサンプリング対象フレームで検出し、そのシーンを構成するフレーム画像データについてのみ特徴量の計算を行うことができる。これにより、動画像データから静止画像データを抽出する処理における特徴量の計算精度と処理負担のトレードオフの問題を解決することができる。   As described above, according to the image forming apparatus 100 according to the first embodiment, a series of scenes in which a subject whose feature amount is to be calculated is detected by a sampling target frame, and frame image data constituting the scene is detected. The feature quantity can be calculated only for. Thereby, it is possible to solve the trade-off problem between the calculation accuracy of the feature amount and the processing burden in the process of extracting still image data from moving image data.

第1実施形態では、全フレームについてフレーム画像データを生成し、その中から所定の周期でサンプリングしているが、このような方法に限定されない。具体的には、たとえばサンプリング対象フレームの検出の際には、サンプリング対象フレームだけを動画像データから生成するようにしてもよい。   In the first embodiment, frame image data is generated for all frames, and sampling is performed at a predetermined cycle from the frame image data. However, the present invention is not limited to such a method. Specifically, for example, when the sampling target frame is detected, only the sampling target frame may be generated from the moving image data.

具体的には、サンプリング対象フレームがIフレームである場合には、Iフレームだけでフレーム画像データを生成することができる。Iフレームは、そのフレーム全ての情報を保持したフレームであり、フレーム間予測を用いずに符号化されるフレームだからである。サンプリング対象フレームがPフレームである場合には、フレーム間予測で関連するIフレーム及びPフレームを使用してフレーム画像データを生成することができる。サンプリング対象フレームがBフレームである場合には、フレーム間予測で関連するIフレーム、Pフレーム及びBフレームを使用してフレーム画像データを生成することができる。   Specifically, when the sampling target frame is an I frame, frame image data can be generated using only the I frame. This is because the I frame is a frame that retains information of all the frames and is encoded without using inter-frame prediction. When the sampling target frame is a P frame, frame image data can be generated using I frames and P frames related in inter-frame prediction. When the sampling target frame is a B frame, frame image data can be generated using the I frame, the P frame, and the B frame related in inter-frame prediction.

さらに、たとえばIフレームだけをサンプリングするようにしてもよい。こうすれば、フレーム間予測を実行する必要が無いので、処理負担を顕著に軽減することができる。あるいは、Iフレーム及びPフレームだけをサンプリングするようにしてもよい。Pフレームのフレーム間予測にはBフレームが使用されないので、IフレームとPフレームだけからフレーム画像データを生成することができるからである。   Furthermore, for example, only I frames may be sampled. In this way, since it is not necessary to perform inter-frame prediction, the processing load can be significantly reduced. Alternatively, only the I frame and the P frame may be sampled. This is because the B frame is not used for the inter-frame prediction of the P frame, so that the frame image data can be generated from only the I frame and the P frame.

Iフレーム、あるいはIフレーム及びPフレームのサンプリングでは、たとえばサンプリング周期に一致するフレームあるいはサンプリング周期内で最大間隔のフレームをサンプリングすることでサンプリング周期を実現することができる。サンプリング周期内において、Iフレーム及びPフレームのいずれも存在しない場合には、その判断に基づいてBフレームを使用してフレーム画像データを生成するようにしてもよい。   In the sampling of the I frame, or the I frame and the P frame, the sampling period can be realized by, for example, sampling a frame that coincides with the sampling period or a frame having the maximum interval within the sampling period. If neither the I frame nor the P frame exists within the sampling period, the frame image data may be generated using the B frame based on the determination.

B.第2実施形態:
図6は、第2実施形態に係る静止画像取得処理の内容を示すフローチャートである。図7は、第2実施形態に係るフレーム画像抽出処理の内容を示すフローチャートである。第2実施形態に係る静止画像取得処理は、フレーム画像抽出処理(ステップS60)がフレーム画像抽出処理(ステップS600)に変更されている点で第1実施形態に係る静止画像取得処理と相違する。フレーム画像抽出処理(ステップS600)は、時系列における特徴量の極大値の近傍のフレーム画像を抽出する点に特徴を有している。
B. Second embodiment:
FIG. 6 is a flowchart showing the content of the still image acquisition process according to the second embodiment. FIG. 7 is a flowchart showing the contents of the frame image extraction process according to the second embodiment. The still image acquisition process according to the second embodiment is different from the still image acquisition process according to the first embodiment in that the frame image extraction process (step S60) is changed to the frame image extraction process (step S600). The frame image extraction process (step S600) has a feature in that a frame image in the vicinity of the maximum value of the feature amount in time series is extracted.

特徴量は、ユーザーが望む静止画像であることを定量的に表すように設定されている。したがって、特徴量の極大値は、撮影者が被写体を設営する際に意図通りの画像が撮影された瞬間のフレーム画像であることを表すように意図されている。この例では、意図通りの画像とは、特定の人物の顔が正面から大きく撮影できたような場合、あるいは笑顔度が高い人物の顔が撮影された画像を意味する。笑顔度は、たとえば周知の3Dモデルフィッティングの手法を使用し、目や口の形状、さらに目や口の周辺の画像を使用する統計的識別手法により算出することができる。   The feature amount is set so as to quantitatively represent the still image desired by the user. Therefore, the maximum value of the feature amount is intended to indicate that it is a frame image at the moment when an image as intended is taken when the photographer sets up the subject. In this example, the image as intended means an image in which a face of a specific person can be photographed from the front or a face of a person with a high smile degree is photographed. The smile degree can be calculated by a statistical identification method using, for example, a well-known 3D model fitting method, and using the shape of the eyes and mouth, and images around the eyes and mouth.

しかしながら、特徴量が極大である画像が必ずしもユーザーが望む画像とは必ずしも一致しない。具体的には、たとえば親であるユーザーから見て、親が望む子供の表情が写っている画像は、笑顔度が極大値とは限らない。第2実施形態は、特徴量の極大値の近傍のフレーム画像を抽出することによって、笑顔度等でフレーム画像を絞り込み、その中からユーザーが好みのフレーム画像を選択できるようにしている。   However, the image having the maximum feature amount does not necessarily match the image desired by the user. Specifically, for example, an image showing a child's facial expression desired by the parent as viewed from the parent user does not necessarily have a maximum smile level. In the second embodiment, by extracting a frame image in the vicinity of the maximum value of the feature amount, the frame image is narrowed down based on the smile level or the like, and the user can select a favorite frame image from the frame image.

ステップS610では、フレーム画像抽出部113は、極大値探索処理を実行する。極大値探索処理では、フレーム画像抽出部113は、時系列における特徴量の極大値を探索する。極大値とは、特徴量の局所的な(つまり、ある点の近傍における)最大値を意味している。   In step S610, the frame image extraction unit 113 executes a local maximum search process. In the maximum value search process, the frame image extraction unit 113 searches for the maximum value of the feature amount in time series. The maximum value means a local maximum value (that is, in the vicinity of a certain point) of the feature amount.

図8は、第2実施形態に係るフレーム画像抽出処理の概要を示す説明図である。図8は、時系列における特徴量の変動を表している特徴量曲線FCを示している。この例では、特徴量曲線FCは、第1の極大値LM1と、第2の極大値LM2と、第3の極大値LM3とを有している。図8では、最小値が0となり、最大値が1となるように特徴量が正規化されている。第1の極大値LM1は特徴量0.65を有し、第2の極大値LM2は特徴量0.8を有し、第3の極大値LM3は特徴量0.5を有している。   FIG. 8 is an explanatory diagram showing an outline of the frame image extraction processing according to the second embodiment. FIG. 8 shows a feature amount curve FC representing the variation of the feature amount in time series. In this example, the feature amount curve FC has a first maximum value LM1, a second maximum value LM2, and a third maximum value LM3. In FIG. 8, the feature values are normalized so that the minimum value is 0 and the maximum value is 1. The first maximum value LM1 has a feature value of 0.65, the second maximum value LM2 has a feature value of 0.8, and the third maximum value LM3 has a feature value of 0.5.

この例では、特徴量曲線FCは、サンプリング対象フレームの特徴量を使用して生成されたスプライン曲線として構成されている。スプライン曲線には、サンプリング対象フレームの特徴量を通過する曲線と、サンプリング対象フレームの特徴量を必ずしも通過しないスプライン曲線(たとえばB−スプライン曲線)とがある。特徴量曲線FCは、スプライン曲線に限られず、サンプリング対象フレームの特徴量あるいはその近傍を通過する近似曲線であればよい。   In this example, the feature amount curve FC is configured as a spline curve generated using the feature amount of the sampling target frame. The spline curve includes a curve that passes through the feature amount of the sampling target frame and a spline curve that does not necessarily pass through the feature amount of the sampling target frame (for example, a B-spline curve). The feature amount curve FC is not limited to a spline curve, and may be an approximate curve that passes through the feature amount of the sampling target frame or its vicinity.

ステップS620では、フレーム画像抽出部113は、閾値計算処理を実行する。閾値計算処理では、フレーム画像抽出部113は、この例では、極大値に対する予め設定された所定の割合である80%として閾値を計算する。具体的には、たとえば第1の極大値LM1(特徴量0.65)に対する閾値Th1は、0.52となり、第2の極大値LM2(特徴量0.8)に対する閾値Th2は、0.64となり、第3の極大値LM3(特徴量0.5)に対する閾値Th3は、0.4となる。   In step S620, the frame image extraction unit 113 executes a threshold value calculation process. In the threshold calculation process, the frame image extraction unit 113 calculates the threshold as 80%, which is a predetermined ratio set in advance with respect to the maximum value in this example. Specifically, for example, the threshold value Th1 for the first maximum value LM1 (feature amount 0.65) is 0.52, and the threshold value Th2 for the second maximum value LM2 (feature amount 0.8) is 0.64. Thus, the threshold value Th3 for the third maximum value LM3 (feature amount 0.5) is 0.4.

ステップS630では、フレーム画像抽出部113は、隣接極小値探索処理を実行する。隣接極小値探索処理では、フレーム画像抽出部113は、各極大値の近傍において閾値を超える極小値を探索する。具体的には、フレーム画像抽出部113は、第3の極大値LMの近傍において閾値Th3(0.4)を超える極小値ALを発見することができる。   In step S630, the frame image extraction unit 113 executes an adjacent minimum value search process. In the adjacent minimum value search process, the frame image extraction unit 113 searches for a minimum value exceeding the threshold value in the vicinity of each maximum value. Specifically, the frame image extraction unit 113 can find a local minimum value AL exceeding the threshold Th3 (0.4) in the vicinity of the third local maximum value LM.

ステップS640では、フレーム画像抽出部113は、隣接極小値が存在した場合には、処理をステップS655に進め、隣接極小値が存在しなかった場合には、処理をステップS650に進める。この例では、フレーム画像抽出部113は、第1の極大値LM1および第2の極大値LM2については処理をステップS650に進める。一方、第3の極大値LMの始期時刻については処理をステップS655に進め、第3の極大値LMの終期時刻については処理をステップS650に進める。   In step S640, the frame image extraction unit 113 proceeds to step S655 when the adjacent minimum value exists, and proceeds to step S650 when the adjacent minimum value does not exist. In this example, the frame image extraction unit 113 advances the process to step S650 for the first maximum value LM1 and the second maximum value LM2. On the other hand, the process proceeds to step S655 for the start time of the third maximum value LM, and the process proceeds to step S650 for the end time of the third maximum value LM.

ステップS650では、フレーム画像抽出部113は、閾値との交差時刻を取得する。閾値との交差時刻は、スプライン曲線を使用して求めることもできるし、あるいは閾値より大きく閾値に最も近い特徴量を有するフレーム画像データの時刻として求めることもできる。この例では、フレーム画像抽出部113は、第1の極大値LM1については始期時刻t11と終期時刻t12とを取得し、第2の極大値LM2については始期時刻t21と終期時刻t22とを取得し、第3の極大値LM3については終期時刻t32を取得する。   In step S650, the frame image extraction unit 113 acquires the intersection time with the threshold value. The intersection time with the threshold value can be obtained by using a spline curve, or can be obtained as the time of frame image data having a feature quantity that is larger than the threshold value and closest to the threshold value. In this example, the frame image extraction unit 113 acquires the start time t11 and the end time t12 for the first maximum value LM1, and acquires the start time t21 and the end time t22 for the second maximum value LM2. For the third maximum value LM3, the end time t32 is acquired.

ステップS655では、フレーム画像抽出部113は、隣接極小値の時刻を取得する。隣接極小値の時刻は、スプライン曲線を使用して求めることもできるし、あるいは隣接極小値の近傍のフレーム画像データの時刻として求めることもできる。この例では、フレーム画像抽出部113は、第3の極大値LM3について隣接極小値ALの時刻である始期時刻t31を取得する。   In step S655, the frame image extraction unit 113 acquires the time of the adjacent minimum value. The time of the adjacent minimum value can be obtained using a spline curve, or can be obtained as the time of frame image data in the vicinity of the adjacent minimum value. In this example, the frame image extraction unit 113 acquires the start time t31 that is the time of the adjacent minimum value AL for the third maximum value LM3.

ステップS660では、フレーム画像抽出部113は、静止画像データ抽出部として機能し、抽出対象選別処理を実行する。抽出対象選別処理では、フレーム画像抽出部113は、各極大値の近傍において始期時刻と終期時刻との間の所定の時間範囲内のフレーム画像データを抽出対象フレーム画像データとして選別する。所定の時間範囲は、換言すれば各極大値と始期時刻(又は隣接極小値の時刻)との間の時間と、各極大値と終期時刻(又は隣接極小値の時刻)との間の時間とを使用して設定される。   In step S660, the frame image extraction unit 113 functions as a still image data extraction unit and executes an extraction target selection process. In the extraction target selection process, the frame image extraction unit 113 selects frame image data within a predetermined time range between the start time and the end time in the vicinity of each local maximum value as extraction target frame image data. The predetermined time range is, in other words, the time between each maximum value and the start time (or the time of the adjacent minimum value), and the time between each maximum value and the end time (or the time of the adjacent minimum value). Set using.

この例では、フレーム画像抽出部113は、第1の極大値LM1については始期時刻t11と終期時刻t12との間のフレーム画像データを選別し、第2の極大値LM2については始期時刻t21と終期時刻t22との間のフレーム画像データを選別し、第3の極大値LM3については始期時刻t31と終期時刻t32との間のフレーム画像データを選別する。   In this example, the frame image extraction unit 113 selects frame image data between the start time t11 and the end time t12 for the first maximum value LM1, and the start time t21 and the end time for the second maximum value LM2. The frame image data between the time t22 and the third maximum value LM3 is selected between the start time t31 and the end time t32.

ステップS670では、フレーム画像抽出部113は、抽出対象フラグ処理を実行する。抽出対象フラグ処理では、フレーム画像抽出部113は、抽出対象フレーム画像データに抽出対象であることを示すフラグを設定する。   In step S670, the frame image extraction unit 113 executes an extraction target flag process. In the extraction target flag process, the frame image extraction unit 113 sets a flag indicating that it is an extraction target in the extraction target frame image data.

ステップS680では、フレーム画像抽出部113は、グループ化処理を実行する。グループ化処理では、フレーム画像抽出部113は、フラグが設定されている複数の抽出対象フレーム画像データを極大値毎にグループ化する(図3参照)。これにより、フレーム画像抽出部113は、第1の極大値LM1、第2の極大値LM2及び第3の極大値LM3に対して、それぞれフレーム画像データ群FE1a,FE2a,FE3aを連続画像データファイルとして生成することができる。   In step S680, the frame image extraction unit 113 performs a grouping process. In the grouping process, the frame image extraction unit 113 groups a plurality of extraction target frame image data set with a flag for each local maximum value (see FIG. 3). Thus, the frame image extraction unit 113 uses the frame image data groups FE1a, FE2a, and FE3a as continuous image data files for the first maximum value LM1, the second maximum value LM2, and the third maximum value LM3, respectively. Can be generated.

このように、第2実施形態に係るフレーム画像抽出処理は、特徴量の極大値を探索し、極大値の80%の閾値との交差時刻(又は隣接極小値の時刻)を使用して、特徴量の極大値の近傍のフレーム画像データを抽出する。これにより、画像形成装置100は、極大値のピーク形状(あるいは傾斜)が急峻である場合は抽出するフレーム数を少なくして効率的な抽出を可能とする一方、極大値のピーク形状(あるいは傾斜)が緩やかである場合には、長時間に亘って安定的に意図通りの画像が取得できたとして、抽出するフレーム数を多くすることができる。   As described above, the frame image extraction processing according to the second embodiment searches for the maximum value of the feature value, and uses the intersection time (or the time of the adjacent minimum value) with the threshold value of 80% of the maximum value. Frame image data in the vicinity of the local maximum value is extracted. As a result, when the peak shape (or inclination) of the maximum value is steep, the image forming apparatus 100 enables efficient extraction by reducing the number of frames to be extracted, while the peak shape (or inclination of the maximum value). ) Is moderate, it is possible to increase the number of frames to be extracted, assuming that an intended image can be stably acquired over a long period of time.

なお、本実施形態では、極大値の80%の閾値との交差時刻が使用されているが、数値は80%に限定されず、特徴量の極大値の近傍を決定するための時刻の設定方法も閾値と交差時刻を使用する方法に限定されない。第2実施形態に係るフレーム画像抽出処理は、極大値のピーク形状が緩やかである場合には、抽出するフレーム数を少なくする一方、極大値のピーク形状が緩やかである場合には、抽出するフレーム数を多くするように構成されていればよい。   In this embodiment, the intersection time of the maximum value with the threshold value of 80% is used. However, the numerical value is not limited to 80%, and a time setting method for determining the vicinity of the maximum value of the feature amount. Is not limited to the method using the threshold and the crossing time. The frame image extraction process according to the second embodiment reduces the number of frames to be extracted when the peak shape of the maximum value is gentle, while extracting the frame when the peak shape of the maximum value is gentle. What is necessary is just to be comprised so that a number may be increased.

また、本実施形態では、特徴量曲線FCは、サンプリング対象フレームの特徴量を使用して生成された近似曲線として構成されているが、必ずしもサンプリング対象フレームの特徴量を使用する必要はなく、全てのフレーム画像データを使用するようにしてもよい。   In the present embodiment, the feature amount curve FC is configured as an approximate curve generated using the feature amount of the sampling target frame, but it is not always necessary to use the feature amount of the sampling target frame. The frame image data may be used.

C.第3実施形態:
図9は、第3実施形態に係る静止画像取得処理の内容を示すフローチャートである。第3実施形態に係る静止画像取得処理は、人物登録処理(ステップS100)が追加されている点と、特徴量計算処理(ステップS40)が特徴量計算処理(ステップS400)に変更されている点とで第1実施形態及び第2実施形態に係る静止画像取得処理と相違する。
C. Third embodiment:
FIG. 9 is a flowchart showing the contents of still image acquisition processing according to the third embodiment. In the still image acquisition process according to the third embodiment, a person registration process (step S100) is added, and a feature quantity calculation process (step S40) is changed to a feature quantity calculation process (step S400). This is different from the still image acquisition processing according to the first embodiment and the second embodiment.

図10は、第3実施形態に係る人物登録処理の内容を示すフローチャートである。ステップS110では、ユーザーは、人物登録処理用の動画像データ読込処理を実行する。動画像データ読込処理では、ユーザーは、操作表示部130を使用して人物登録処理用の動画像データを選択して動画像データの読込を指示する。動画像データは、たとえばワイヤレス通信(図示せず)や可搬記憶媒体(図示せず)を利用して画像形成装置100で読込可能とすることができる。   FIG. 10 is a flowchart showing the contents of the person registration process according to the third embodiment. In step S110, the user executes moving image data reading processing for person registration processing. In the moving image data reading process, the user uses the operation display unit 130 to select moving image data for person registration processing and instruct to read moving image data. The moving image data can be read by the image forming apparatus 100 using, for example, wireless communication (not shown) or a portable storage medium (not shown).

ステップS120では、制御部110の特徴量演算部112は、人物検出処理を実行する。人物検出処理では、特徴量演算部112は、動画像データからフレーム画像データを生成し、フレーム画像データファイルによって表される静止画像中から人物と思われる特徴を有する画像領域である人物検出領域を抽出する。特徴量演算部112は、たとえばHOG(Histograms of Oriented Gradients)特徴量に基づいて、SVM(Support Vector Machine)などの機械学習を利用して人物検出領域を抽出することができる。   In step S120, the feature amount calculation unit 112 of the control unit 110 executes a person detection process. In the person detection process, the feature amount calculation unit 112 generates frame image data from the moving image data, and extracts a person detection area that is an image area having a feature that seems to be a person from the still image represented by the frame image data file. Extract. The feature amount calculation unit 112 can extract a person detection region using machine learning such as SVM (Support Vector Machine) based on, for example, HOG (Histograms of Oriented Gradients) feature amounts.

ステップS130では、特徴量演算部112は、人物分類処理を実行する。人物分類処理では、特徴量演算部112は、たとえば予め登録されている家族の誰かに人物検出領域中の人物を分類する。本実施形態では、家族として父親A、母親B、息子C及び娘Dが操作表示部130を使用してユーザーによって予め登録されているものとする。   In step S130, the feature amount calculation unit 112 performs a person classification process. In the person classification process, the feature amount calculation unit 112 classifies a person in the person detection area as, for example, someone in the family registered in advance. In this embodiment, it is assumed that father A, mother B, son C, and daughter D are registered in advance by the user using the operation display unit 130 as a family.

特徴量演算部112は、予め設定されている画像領域よりも大きなサイズで人物の顔が表示されているフレーム画像データを選択し、自動的に複数のグループに分類して操作表示部130に表示する。ユーザーは、操作表示部130を介して、複数のグループのそれぞれが父親A、母親B、息子C及び娘Dあるいは他人の何れに該当するかを選択して入力する。   The feature amount calculation unit 112 selects frame image data in which a human face is displayed in a size larger than a preset image area, and automatically classifies the frame image data into a plurality of groups and displays them on the operation display unit 130. To do. The user selects and inputs whether each of the plurality of groups corresponds to the father A, the mother B, the son C, the daughter D, or another person via the operation display unit 130.

ユーザーは、さらに、たとえば息子Cのグループに父親Aの静止画像が含まれているといった誤認識に応じて修正動作を行うことができる。これにより、特徴量演算部112は、機械学習の精度を向上させることができる。特徴量演算部112は、父親A、母親B、息子C及び娘Dをレコードとしてデータベースを生成する。データベースには、父親A、母親B、息子C及び娘Dの顔画像のHOG特徴量が登録される。   Further, the user can perform a correction operation in response to a misrecognition that a still image of father A is included in the group of son C, for example. Thereby, the feature quantity computing unit 112 can improve the accuracy of machine learning. The feature amount calculation unit 112 generates a database using father A, mother B, son C, and daughter D as records. In the database, HOG feature amounts of face images of father A, mother B, son C, and daughter D are registered.

ステップS140では、特徴量演算部112は、服装選択処理を実行する。服装選択処理では、特徴量演算部112は、父親A、母親B、息子C及び娘Dのそれぞれが着ている服装についてのHOG特徴量をフレーム画像データから抽出する。これにより、特徴量演算部112は、父親A、母親B、息子C及び娘Dの顔画像のHOG特徴量に加えて、その服装画像のHOG特徴量を使用して人物を特定することができる。各人物は、同一の服装を着ることが多く、相違する人物は、相違する服装を着る傾向があるからである。   In step S140, the feature amount calculation unit 112 executes a clothing selection process. In the clothing selection process, the feature amount calculation unit 112 extracts HOG feature amounts for the clothing worn by the father A, mother B, son C, and daughter D from the frame image data. Thereby, the feature amount calculation unit 112 can specify a person using the HOG feature amount of the clothing image in addition to the HOG feature amount of the facial images of the father A, mother B, son C, and daughter D. . This is because each person often wears the same clothes, and different persons tend to wear different clothes.

ステップS150では、特徴量演算部112は、データベース登録処理を実行する。データベース登録処理では、特徴量演算部112は、父親A、母親B、息子C及び娘Dについてのデータベースを記憶部140の人物登録データ格納領域142に格納する。データベースには、父親A、母親B、息子C及び娘Dをレコードとし、それぞれの顔画像のHOG特徴量、服装画像のHOG特徴量、顔画像の機械学習データ、服装画像の機械学習データに加え、身長その他のユーザー入力可能な属性データが含まれる。   In step S150, the feature amount calculation unit 112 executes database registration processing. In the database registration process, the feature amount calculation unit 112 stores a database for the father A, the mother B, the son C, and the daughter D in the person registration data storage area 142 of the storage unit 140. In the database, father A, mother B, son C, and daughter D are recorded, and in addition to the HOG feature value of each face image, the HOG feature value of the dress image, machine learning data of the face image, and machine learning data of the dress image , Height and other user-enterable attribute data.

ユーザーは、さらに、デジタルカメラで撮像した静止画像データを使用して各人物の顔画像や服装画像のデータを登録することもできる。特徴量演算部112は、このような画像データを使用して、顔画像のHOG特徴量及び服装画像のHOG特徴量を生成して、データベースに登録することができる。なお、本実施形態では、HOG特徴量は、画像認識における計算負荷の小さいYUV画像データに基づいて生成されているものとする。   The user can also register the face image and clothes image data of each person using still image data captured by the digital camera. The feature amount calculation unit 112 can generate the HOG feature amount of the face image and the HOG feature amount of the clothing image using such image data, and register them in the database. In the present embodiment, it is assumed that the HOG feature amount is generated based on YUV image data with a small calculation load in image recognition.

図11は、第3実施形態に係る特徴量計算処理の内容を示すフローチャートである。特徴量計算処理(ステップS400)では、特徴量演算部112は、比較的に処理負荷が小さい候補領域高速検出処理を実行して所定の特徴を有する領域である候補領域を検出し、検出された各候補領域において人物を特定するための特徴量を計算する(比較的に処理負荷が大きい)。   FIG. 11 is a flowchart showing the contents of the feature amount calculation processing according to the third embodiment. In the feature amount calculation process (step S400), the feature amount calculation unit 112 detects a candidate region that is a region having a predetermined feature by executing a candidate region high-speed detection process with a relatively small processing load. A feature amount for specifying a person in each candidate area is calculated (the processing load is relatively large).

ステップS410では、特徴量演算部112は、候補領域高速検出処理を実行する。候補領域高速検出処理では、特徴量演算部112は、フレーム画像データから候補領域を検出する。候補領域高速検出処理は、人物認識処理(後述)よりも処理速度を優先して構成されている検出処理方法を採用している。   In step S410, the feature amount calculation unit 112 executes candidate area high-speed detection processing. In the candidate area high-speed detection process, the feature amount calculation unit 112 detects a candidate area from the frame image data. The candidate area high-speed detection processing employs a detection processing method configured so that processing speed is prioritized over person recognition processing (described later).

具体的には、特徴量演算部112は、広く使用されている顔検出処理、たとえばHaar−like検出器を使用する多段フィルタ処理を実行する。ただし、多段フィルタ処理は、段数を少なくして計算速度を優先するように構成されている。したがって、候補領域高速検出処理には、ユーザーが望まない領域を候補領域として検出することが許容されている。   Specifically, the feature amount calculation unit 112 performs a widely used face detection process, for example, a multi-stage filter process using a Haar-like detector. However, the multi-stage filter processing is configured to give priority to calculation speed by reducing the number of stages. Therefore, the candidate area high-speed detection process is allowed to detect an area that the user does not want as a candidate area.

ステップS420では、特徴量演算部112は、候補領域切り出し処理を実行する。候補領域切り出し処理では、特徴量演算部112は、ビットマップ画像データであるフレーム画像データにおいて検出された各候補領域の位置を表す座標や大きさを表す情報である候補領域情報を取得し、候補領域情報を使用して各候補領域のビットマップ画像データを生成する。   In step S420, the feature amount calculation unit 112 executes candidate area cutout processing. In the candidate area cut-out process, the feature amount calculation unit 112 acquires candidate area information, which is information indicating coordinates and size indicating the position of each candidate area detected in the frame image data that is bitmap image data. Bitmap image data of each candidate area is generated using the area information.

ステップS430では、特徴量演算部112は、複数の候補領域のビットマップ画像データの画素数(面積)の総和とフレーム画像データの全画素数(全面積)とを比較する。本願発明者は、複数の候補領域が相互に重なり合って、複数の候補領域の画素数の総和がフレーム画像データの画素数を超え、却って計算量が増大する可能性があるという課題を見いだした。   In step S430, the feature amount calculation unit 112 compares the total number of pixels (area) of the bitmap image data of the plurality of candidate regions with the total number of pixels (total area) of the frame image data. The inventor of the present application has found a problem that a plurality of candidate regions overlap each other, and the sum of the number of pixels of the plurality of candidate regions exceeds the number of pixels of the frame image data, and the calculation amount may increase.

特徴量演算部112は、複数の候補領域の画素数の総和がフレーム画像データの画素数未満のときには、処理をステップS440に進め、複数の候補領域の画素数の総和がフレーム画像データの画素数以上のときには、処理をステップS450に進める。これにより、特徴量演算部112は、上述の計算量の増大という課題を解決することができる。   When the sum of the number of pixels in the plurality of candidate areas is less than the number of pixels in the frame image data, the feature amount calculating unit 112 proceeds to step S440, and the sum of the number of pixels in the plurality of candidate areas is the number of pixels in the frame image data. If so, the process proceeds to step S450. Thereby, the feature amount calculation unit 112 can solve the problem of increase in the amount of calculation described above.

ステップS440では、特徴量演算部112は、各候補領域のビットマップ画像データに基づいて各特徴量を計算し、その最大値を特徴量として出力する。最大値としたのは、同一人物の画像は、各ビットマップ画像データに1つだけのはずだからである。ステップS450では、特徴量演算部112は、フレーム画像データ全体としてのビットマップ画像データに基づいて特徴量を計算して出力する。   In step S440, the feature amount calculation unit 112 calculates each feature amount based on the bitmap image data of each candidate area, and outputs the maximum value as the feature amount. The maximum value is set because there should be only one image of the same person for each bitmap image data. In step S450, the feature amount calculation unit 112 calculates and outputs a feature amount based on the bitmap image data as the entire frame image data.

具体的には、特徴量演算部112は、人物認識処理を実行する。人物認識処理は、特定の人物である可能性(確度)を特徴量として定量的に表す処理である。人物認識処理では、フレームメモリ114に格納されている複数のフレーム画像データのそれぞれについてステップS10で選択された特徴(この例では、特徴選択処理(ステップS10)で娘Dが選択されたものとする。)が含まれているか否かを判断する。特徴量演算部112は、輝度データと色差データとを含むYUV画像データとしてのフレーム画像データから娘Dの検出を試みる。   Specifically, the feature amount calculation unit 112 performs a person recognition process. The person recognition process is a process that quantitatively represents the possibility (accuracy) of a specific person as a feature amount. In the person recognition process, the feature selected in step S10 for each of the plurality of frame image data stored in the frame memory 114 (in this example, the daughter D is selected in the feature selection process (step S10)). .) Is included. The feature amount calculation unit 112 attempts to detect the daughter D from frame image data as YUV image data including luminance data and color difference data.

特徴量演算部112は、たとえば周知のOpenCV(Open Source Computer Vision Library)を使用して人物の検出や特定を実行することができる。特徴量演算部112は、フレーム画像データの中から人物を検出し、検出された人物の顔が娘Dの顔であるか否かを判断する。この判断は、娘Dの顔画像のHOG特徴量を使用して行われる。   The feature quantity calculation unit 112 can perform detection and identification of a person using, for example, the well-known OpenCV (Open Source Computer Vision Library). The feature amount calculation unit 112 detects a person from the frame image data, and determines whether or not the detected face of the person is the face of the daughter D. This determination is made using the HOG feature amount of the daughter D's face image.

特徴量演算部112は、娘Dの顔であるか否かの判断の確度が低い場合には、娘Dの服装画像のHOG特徴量を使用して娘Dであるか否かを判断する。服装画像のHOG特徴量は、特に、娘Dを横方向から撮影し、顔画像のサイズが小さい場合等に補助的に使用可能である。特徴量演算部112は、さらに娘Dの笑顔度も定量化して特徴量の算出に利用することもできる。このように、特徴量演算部112は、演算量が多く複雑な処理を各候補領域に対して実行することができる。   When the accuracy of the determination as to whether or not the face is the face of the daughter D is low, the feature amount calculation unit 112 determines whether or not it is the daughter D using the HOG feature amount of the clothes image of the daughter D. The HOG feature amount of the clothing image can be used supplementarily when the daughter D is photographed from the lateral direction and the size of the face image is small. The feature amount calculation unit 112 can also quantify the smile level of the daughter D and use it for calculating the feature amount. As described above, the feature amount calculation unit 112 can execute a complicated process with a large calculation amount for each candidate region.

このように、第3実施形態に係るフレーム画像抽出処理は、候補領域高速検出処理を実行して所定の特徴を有する領域である候補領域を検出し、検出された各候補領域において計算負荷の大きな特徴量の計算を実行する。これにより、第3実施形態は、特徴量の計算対象を低減させることができるので、全体として特徴量の計算負荷を過大とすることなく、処理負担が比較的に大きくて高精度の計算方法を採用することができる。   As described above, in the frame image extraction processing according to the third embodiment, candidate region high-speed detection processing is executed to detect a candidate region that is a region having a predetermined characteristic, and a large calculation load is detected in each detected candidate region. Perform feature calculation. As a result, the third embodiment can reduce the calculation target of the feature quantity, so that the processing load is relatively large and the calculation method with high accuracy can be achieved without overloading the calculation quantity of the feature quantity as a whole. Can be adopted.

なお、本実施形態では、候補領域高速検出処理(ステップS410)と人物認識処理(ステップS440,S450)は、相互に相違する種類の処理としているが、同一種類の処理で精度だけが相違するようにしてもよい。   In the present embodiment, the candidate area high-speed detection process (step S410) and the person recognition process (steps S440 and S450) are different types of processes, but only the same type of process is different only in accuracy. It may be.

また、本実施形態は、第1実施形態及び第2実施形態の少なくとも一方と組み合わせて実装することもできるし、第1実施形態及び第2実施形態のいずれとも組み合わせることなく実装することも可能である。さらに、第1実施形態乃至第3実施形態に係るフレーム画像抽出処理は、画像形成装置100でなく画像処理装置として機能するスマートフォン200側で実行するようにしてもよい。   In addition, the present embodiment can be mounted in combination with at least one of the first embodiment and the second embodiment, or can be mounted without combining with either the first embodiment or the second embodiment. is there. Furthermore, the frame image extraction process according to the first to third embodiments may be executed not on the image forming apparatus 100 but on the smartphone 200 functioning as the image processing apparatus.

D.第4実施形態:
図12は、第4実施形態に係る静止画像取得処理の内容を示すフローチャートである。第4実施形態に係る静止画像取得処理は、少なくともフレーム画像データ出力処理(ステップS80)が印刷出力処理(ステップS800)に変更されている点で第1実施形態乃至第3実施形態に係る静止画像取得処理と相違する。
D. Fourth embodiment:
FIG. 12 is a flowchart showing the contents of still image acquisition processing according to the fourth embodiment. The still image acquisition process according to the fourth embodiment is a still image according to the first to third embodiments in that at least the frame image data output process (step S80) is changed to a print output process (step S800). It differs from the acquisition process.

図13は、第4実施形態に係る印刷出力処理の内容を示すフローチャートである。この例では、画像形成装置100は、コンビニエンスストア等に設置され、金銭の投入その他の入金処理に応じて印刷出力可能とされる。   FIG. 13 is a flowchart showing the contents of print output processing according to the fourth embodiment. In this example, the image forming apparatus 100 is installed in a convenience store or the like, and can be printed out according to money input or other deposit processing.

ステップS810では、ユーザーは、画像形成装置100の図示しない金銭投入用のスリットから金銭を投入する。この例では、ユーザーは、画像形成装置100に500円の硬貨を投入したものとする。画像形成装置100では、利用可能な印刷サイズには、L版(127mm×89mm)と、2L版(127mm×178mm)とがあるものとする。この例では、印刷サイズとしてL版(127mm×89mm)が初期設定として設定され、その単価は、30円であるものとする。   In step S <b> 810, the user inserts money from a money insertion slit (not shown) of the image forming apparatus 100. In this example, it is assumed that the user has inserted 500 yen coins into the image forming apparatus 100. In the image forming apparatus 100, usable print sizes include an L plate (127 mm × 89 mm) and a 2L plate (127 mm × 178 mm). In this example, it is assumed that the L size (127 mm × 89 mm) is set as an initial setting as the print size, and the unit price is 30 yen.

ステップS820では、制御部110は、印刷可能枚数計算部として機能し、印刷可能枚数を計算する。制御部110は、印刷サイズの設定がなされるまでは、初期設定(L版)に基づいて16枚(=500円(入金処理で入金された金額)÷30円(単価))を印刷可能枚数として計算する。   In step S820, the control unit 110 functions as a printable sheet number calculation unit, and calculates the printable sheet number. Until the print size is set, the control unit 110 prints 16 sheets (= 500 yen (amount deposited by the deposit process) ÷ 30 yen (unit price)) based on the initial setting (L version). Calculate as

ステップS830では、制御部110は、グループ数計算処理を実行する。グループとは、グループ化処理(ステップS68及びステップS680)によってグループ化された時系列的に連続している複数のフレーム画像データ(連続画像データファイルを構成)である。グループには、たとえば第1フレーム画像データ群FE1、第2フレーム画像データ群FE2及び第3フレーム画像データ群FE3(第1実施形態)や3つのフレーム画像データ群FE1a,FE2a,FE3a(第2実施形態)がある。   In step S830, control unit 110 executes a group number calculation process. A group is a plurality of continuous frame image data (constituting a continuous image data file) grouped by grouping processing (steps S68 and S680). The group includes, for example, a first frame image data group FE1, a second frame image data group FE2, and a third frame image data group FE3 (first embodiment) and three frame image data groups FE1a, FE2a, and FE3a (second embodiment). Form).

ステップS840では、制御部110は、印刷可能枚数がグループ数以上であるか否かを判断する。印刷可能枚数がグループ数未満の場合には、制御部110は、処理をステップS850に進め、印刷可能枚数がグループ数以上の場合には、制御部110は、処理をステップS860に進める。ステップS850では、制御部110は、第1の印刷対象画像選択処理を実行する。なお、第2の印刷対象画像選択処理については後述する。   In step S840, control unit 110 determines whether the number of printable sheets is equal to or greater than the number of groups. If the printable number is less than the number of groups, the control unit 110 advances the process to step S850. If the printable number is greater than or equal to the number of groups, the control unit 110 advances the process to step S860. In step S850, control unit 110 executes a first print target image selection process. The second print target image selection process will be described later.

図14は、第4実施形態に係る印刷対象画像選択処理の内容を示すフローチャートである。ステップS851では、特徴量演算部112は、グループ毎の平均特徴量を計算する。平均特徴量は、たとえば各グループの上位10個のフレーム画像データの特徴量の平均値として算出することができる。   FIG. 14 is a flowchart showing the contents of the print target image selection process according to the fourth embodiment. In step S851, the feature amount calculation unit 112 calculates an average feature amount for each group. The average feature amount can be calculated as, for example, an average value of feature amounts of the top 10 frame image data of each group.

図15は、第4実施形態に係る印刷対象画像選択処理における操作表示画面を示す説明図である。図15(a)は、シーン選択画面として代表静止画像をグループ毎に表示している。この例では、各グループに含まれている複数のフレーム画像データ群は、各シーンを構成しているものとする。図15の操作表示画面では、タッチパネルとして機能する操作表示部130において操作(ピンチイン、ピンチアウト、ドラッグ等)することで表示された画像の拡大縮小、移動などを行うことが可能である。   FIG. 15 is an explanatory diagram showing an operation display screen in the print target image selection process according to the fourth embodiment. FIG. 15A displays a representative still image for each group as a scene selection screen. In this example, it is assumed that a plurality of frame image data groups included in each group constitute each scene. On the operation display screen of FIG. 15, it is possible to perform enlargement / reduction, movement, etc. of the displayed image by operating (pinch-in, pinch-out, drag, etc.) on the operation display unit 130 functioning as a touch panel.

図15(a)では、操作表示部130のディスプレイ131には、3枚の代表静止画像F55,F43,F17と、高評価方向にスクロールするためのスクロールアイコンSC1と、低評価方向にスクロールするためのスクロールアイコンSC2と、残枚数(印刷可能枚数)と残シーン数とを表示する表示領域RCとが表示されている。ディスプレイ131は、タッチパネルとして機能し、スワイプすることによって画面をスクロールさせることも可能である。   In FIG. 15A, the display 131 of the operation display unit 130 has three representative still images F55, F43, and F17, a scroll icon SC1 for scrolling in the high evaluation direction, and scrolling in the low evaluation direction. And a display area RC for displaying the remaining number of sheets (printable sheet number) and the number of remaining scenes. The display 131 functions as a touch panel, and the screen can be scrolled by swiping.

ステップS852では、ディスプレイ131は、平均特徴量が大きい順に代表静止画像を表示する。ディスプレイ131は、表示制御部として機能する制御部110によって生成された表示データに基づいて表示する。表示データは、特徴的な領域と紐づけて代表静止画像を表示するためのデータである。表示データは、複数の代表静止画像のそれぞれの特徴的な領域を、複数の代表静止画像のそれぞれとの関係が分かるように表示するように構成されている。代表静止画像を表示する順序は、平均特徴量に限られず特徴量を使用して決定された順序であればよい。   In step S852, the display 131 displays representative still images in descending order of the average feature amount. The display 131 displays based on display data generated by the control unit 110 that functions as a display control unit. The display data is data for displaying a representative still image in association with a characteristic area. The display data is configured to display the characteristic regions of each of the plurality of representative still images so that the relationship with each of the plurality of representative still images can be understood. The order in which the representative still images are displayed is not limited to the average feature amount, and may be an order determined using the feature amount.

この例では、ディスプレイ131は、3枚の代表静止画像F55,F43,F17を左側から平均特徴量が大きい順に表示している。代表静止画像F55は、第3フレーム画像データ群FE3を代表するフレーム画像データF55によって表される静止画像である。代表静止画像F43は、第2フレーム画像データ群FE2を代表するフレーム画像データF43によって表される静止画像である。代表静止画像F17は、第1フレーム画像データ群FE1を代表するフレーム画像データF17によって表される静止画像である(第1実施形態の図4参照)。   In this example, the display 131 displays the three representative still images F55, F43, and F17 in descending order of the average feature amount from the left side. The representative still image F55 is a still image represented by frame image data F55 that represents the third frame image data group FE3. The representative still image F43 is a still image represented by frame image data F43 representing the second frame image data group FE2. The representative still image F17 is a still image represented by frame image data F17 representing the first frame image data group FE1 (see FIG. 4 of the first embodiment).

この例では、ディスプレイ131は、代表静止画像F55,F43,F17の上側には、特徴的な領域の画像である特徴画像Q55,Q43,Q17を表示している。これにより、ユーザーは、代表静止画像F55,F43,F17を含むグループが自動的に選択された基準(又は理由)を確認することができる。この例では、代表静止画像F55,F43,F17の各グループは、笑顔度の高い娘Dを被写体として含む静止画像を抽出するための特徴量に基づいて抽出されているものとする。   In this example, the display 131 displays characteristic images Q55, Q43, and Q17 that are images of characteristic areas above the representative still images F55, F43, and F17. Thereby, the user can confirm the standard (or reason) by which the group including the representative still images F55, F43, and F17 is automatically selected. In this example, it is assumed that each group of representative still images F55, F43, and F17 is extracted based on a feature amount for extracting a still image including the daughter D having a high smile degree as a subject.

具体的には、特徴画像Q55は、第3実施形態に係るフレーム画像抽出処理において代表静止画像F55が抽出される際の特徴量の算出に使用された候補領域の画像である。特徴画像Q43は、代表静止画像F43が抽出される際の特徴量の算出に使用された候補領域の画像である。特徴画像Q17は、代表静止画像F17が抽出される際の特徴量の算出に使用された候補領域の画像である。   Specifically, the feature image Q55 is an image of a candidate region used for calculating the feature amount when the representative still image F55 is extracted in the frame image extraction process according to the third embodiment. The feature image Q43 is an image of a candidate area used for calculating the feature amount when the representative still image F43 is extracted. The feature image Q17 is an image of a candidate area used for calculating the feature amount when the representative still image F17 is extracted.

ステップS853では、ユーザーは、シーンの選択処理としてグループを選択する。この例では、ユーザーは、ディスプレイ131に表示されている代表静止画像F43(又は特徴画像Q43)をタッチしてシーンを選択し、シーン選択アイコンM1をタッチして確定したものとする。   In step S853, the user selects a group as scene selection processing. In this example, it is assumed that the user selects a scene by touching the representative still image F43 (or feature image Q43) displayed on the display 131, and touches and confirms the scene selection icon M1.

図15(b)は、画像選択画面として代表静止画像F43の前後の2つの静止画像F42、F44を表示している。図15(b)では、ディスプレイ131には、3枚の静止画像F42,F43,F44と、特徴画像Q42,Q43,Q44と、残枚数と残シーン数とを表示する表示領域RCと、時系列の前側にスクロールするためのスクロールアイコンSC3と、後側にスクロールするためのスクロールアイコンSC4とが表示されている。   FIG. 15B displays two still images F42 and F44 before and after the representative still image F43 as an image selection screen. In FIG. 15B, the display 131 has three still images F42, F43, and F44, feature images Q42, Q43, and Q44, a display area RC that displays the remaining number and the number of remaining scenes, and time series. A scroll icon SC3 for scrolling to the front side and a scroll icon SC4 for scrolling to the rear side are displayed.

これにより、以下のようなトレードオフの問題を解決することができる。すなわち、動画像データから静止画像データを抽出した後において、多数の静止画像の中から所望の静止画像を選択するためには、各静止画像の大きさを小さくして一覧表示を行いたいという要請がある。一方、各静止画像の大きさを小さくすると、各静止画像の特徴的な画像領域(たとえば顔画像)が小さくなってしまい、静止画像の選択が困難になるというトレードオフの問題である。   As a result, the following trade-off problem can be solved. That is, after extracting still image data from moving image data, in order to select a desired still image from a large number of still images, a request to display a list with a reduced size of each still image There is. On the other hand, when the size of each still image is reduced, a characteristic image area (for example, a face image) of each still image becomes smaller, which is a trade-off problem that makes it difficult to select a still image.

ステップS854では、ユーザーは、画像選択処理としてフレーム画像データを選択する。この例では、ユーザーは、ディスプレイ131に表示されている静止画像F42(又は特徴画像Q42)をタッチして静止画像を選択し、画像選択アイコンM2をタッチして確定したものとする。   In step S854, the user selects frame image data as an image selection process. In this example, it is assumed that the user selects a still image by touching the still image F42 (or the feature image Q42) displayed on the display 131, and touches and confirms the image selection icon M2.

ステップS855では、ユーザーは、印刷レイアウト設定処理を実行する。印刷レイアウト設定処理では、ユーザーは、静止画像F42の一部を抽出し、L版又は2L版の印刷サイズの印刷レイアウトを設定する。   In step S855, the user executes print layout setting processing. In the print layout setting process, the user extracts a part of the still image F42 and sets the print layout of the L size or 2L size print size.

図16は、第4実施形態に係る印刷レイアウト設定処理の内容を示すフローチャートである。図17は、第4実施形態に係る印刷レイアウト設定処理における操作表示画面を示す説明図である。図17(a)は、静止画像F42に表示されている人物の顔を拡大して示している。図17の操作表示画面においても、タッチパネルとして機能する操作表示部130において操作(ピンチイン、ピンチアウト、ドラッグ等)することで表示された画像の拡大縮小、移動などを行うことが可能である。   FIG. 16 is a flowchart showing the contents of the print layout setting process according to the fourth embodiment. FIG. 17 is an explanatory diagram showing an operation display screen in the print layout setting process according to the fourth embodiment. FIG. 17A shows an enlarged human face displayed in the still image F42. Also on the operation display screen of FIG. 17, it is possible to perform enlargement / reduction, movement, etc. of the displayed image by operating (pinch-in, pinch-out, drag, etc.) on the operation display unit 130 functioning as a touch panel.

この例では、ディスプレイ131は、静止画像F42が娘Dの顔を表示する特徴画像Q42と、息子Cの顔を表示する抽出画像F42cと、人物登録データ格納領域142に未登録の2人の他人の顔を表示する2つの抽出画像F42a,F42bとを含んでいることを示している。3つの抽出画像F42a,F42b,F42cは、静止画像F42の変更に応じて、特徴量演算部112による顔検出処理で抽出されたものである。   In this example, the display 131 includes a feature image Q42 in which the still image F42 displays the face of the daughter D, an extracted image F42c in which the face of the son C is displayed, and two other persons who are not registered in the person registration data storage area 142. It shows that it includes two extracted images F42a and F42b that display the face. The three extracted images F42a, F42b, and F42c are extracted by the face detection process by the feature amount calculation unit 112 according to the change of the still image F42.

ステップS8551では、ユーザーは、印刷レイアウト設定部として機能し、被写体人物選択処理を実行する。被写体人物選択処理では、ユーザーは、息子Cの顔と娘Dの顔とを参照しつつ、時系列的に前側の静止画像へ変更するためのスクロールアイコンSC5と、後側の静止画像へ変更するスクロールアイコンSC6とをタッチして静止画像をグループ内で変更することができる。この例では、ユーザーは、娘Dの顔と息子Cの顔とを選択し、人物選択アイコンM3をタッチして確定したものとする。3つの抽出画像F42a,F42b,F42cは、静止画像の変更に応じて抽出・変更される。   In step S8551, the user functions as a print layout setting unit and executes subject person selection processing. In the subject person selection process, the user refers to the face of the son C and the face of the daughter D, and changes the scroll icon SC5 for changing to the front still image in time series and the rear still image. The still image can be changed within the group by touching the scroll icon SC6. In this example, it is assumed that the user selects the face of the daughter D and the face of the son C, and touches and confirms the person selection icon M3. The three extracted images F42a, F42b, and F42c are extracted and changed according to the change of the still image.

図17(b)は、静止画像F42に対して印刷レイアウト設定処理が施された静止画像F42Lを拡大して示している。図17(b)は、さらに、2人の他人の顔が印刷レイアウトで設定されている印刷の対象となる領域である印刷対象領域から排除されていることが分かるように抽出画像F42a,F42bを表示している。静止画像F42Lは、娘Dの顔と息子Cの顔と体が選択される一方、2人の他人の顔を排除する印刷レイアウトを採用している。静止画像F42Lには、以下の方法で自動的に印刷レイアウト設定処理が施されている。ユーザーは、レイアウト調整M4をタッチして印刷レイアウトを調整(変更)し、縦横変更M5をタッチしてL版の縦横を変更することができる。   FIG. 17B shows an enlarged still image F42L obtained by performing the print layout setting process on the still image F42. FIG. 17B further shows the extracted images F42a and F42b so that it can be seen that the faces of two other people are excluded from the print target area that is the print target area set in the print layout. it's shown. The still image F42L employs a print layout in which the face of the daughter D, the face of the son C, and the body are selected while excluding the faces of two other people. The still image F42L is automatically subjected to print layout setting processing by the following method. The user can touch the layout adjustment M4 to adjust (change) the print layout, and touch the vertical / horizontal change M5 to change the vertical and horizontal directions of the L version.

ステップS8552では、制御部110は、被写体人数カウント処理を実行する。被写体人数カウント処理では、制御部110は、選択された顔の数を被写体人数としてカウントする。ステップS8553では、制御部110は、被写体人数が1人であるか否かを判断する。被写体人数が1人でない場合には、制御部110は、処理をステップS8554に進め、被写体人数が1人である場合には、制御部110は、処理をステップS8555に進める。   In step S8552, the control unit 110 executes subject number counting processing. In the subject number counting process, the control unit 110 counts the number of selected faces as the number of subjects. In step S8553, control unit 110 determines whether or not the number of subjects is one. If the number of subjects is not one, control unit 110 advances the process to step S8554, and if the number of subjects is one, control unit 110 advances the process to step S8555.

図18は、第4実施形態に係る印刷レイアウト設定処理の一例を示す説明図である。図18は、印刷レイアウト設定処理を分かりやすく説明するために2人の人物H1,H2の顔を表示する静止画像F101を示している。   FIG. 18 is an explanatory diagram illustrating an example of a print layout setting process according to the fourth embodiment. FIG. 18 shows a still image F101 that displays the faces of two persons H1 and H2 in order to easily explain the print layout setting process.

ステップS8554では、制御部110は、被写体人物全員を包含する矩形を設定する。具体的には、制御部110は、2人の人物H1,H2の全員の顔とその周辺を包含するバウンディングボックスBB1として矩形を自動的に設定する。   In step S8554, the control unit 110 sets a rectangle that includes all the subjects. Specifically, the control unit 110 automatically sets a rectangle as a bounding box BB1 that includes the faces of all the two persons H1 and H2 and their surroundings.

図19は、第4実施形態に係る印刷レイアウト設定処理の他の例を示す説明図である。図19は、印刷レイアウト設定処理を分かりやすく説明するために1人の人物H3の顔を表示する静止画像F102,F103を示している。静止画像F102では、人物H3は、顔も視線も撮影者の方向である撮影方向に向けている。静止画像F103では、人物H3は、顔も視線も左側の方向に向けている。   FIG. 19 is an explanatory diagram illustrating another example of the print layout setting process according to the fourth embodiment. FIG. 19 shows still images F102 and F103 displaying the face of one person H3 in order to easily explain the print layout setting process. In the still image F102, the person H3 faces both the face and the line of sight in the shooting direction which is the direction of the photographer. In the still image F103, the person H3 has the face and the line of sight facing leftward.

被写体人数が1人である場合には、制御部110は、被写体の視線方向に基づいて印刷レイアウト設定処理を実行する。ステップS8555では、制御部110は、視線方向推定処理を実行する。視線方向推定処理では、制御部110は、たとえば特開平8−322796で提案されている方法を採用して推定することができる。   When the number of subjects is one, the control unit 110 executes print layout setting processing based on the line-of-sight direction of the subject. In step S8555, the control unit 110 performs a gaze direction estimation process. In the line-of-sight direction estimation process, the control unit 110 can perform estimation using, for example, the method proposed in JP-A-8-322796.

特開平8−322796は、顔画像の解析、すなわち、顔の部分の画像から目の部分の画像を切り出し、目の位置情報を表す特徴量を抽出して、特徴量と標準パターンの比較に基づいて視線方向を推定する方法を提案している。特徴量は、濃淡画像の目の部分の黒目に対応する水平方向、垂直方向それぞれの濃度分布を含んでいる。   JP-A-8-322796 is based on the analysis of a face image, that is, the image of the eye part is cut out from the image of the face part, the feature quantity representing the eye position information is extracted, and the feature quantity is compared with the standard pattern. We have proposed a method for estimating the gaze direction. The feature amount includes density distributions in the horizontal direction and the vertical direction corresponding to the black eyes of the eye portion of the grayscale image.

ステップS8556では、制御部110は、視線方向に空間を配置して印刷レイアウトを設定する。写真撮影においては、一般的に被写体の視線方向や顔の方向に空間が配置されるようにして安定感のある構図が採用される。このように、制御部110は、視線の方向と顔の方向の少なくとも一方の方向である被写体方向に応じて印刷レイアウトを設定し、自動的に安定感のある構図を採用することができる。   In step S8556, the control unit 110 sets a print layout by arranging a space in the line-of-sight direction. In photography, a composition with a sense of stability is generally adopted so that a space is arranged in the direction of the line of sight of the subject or the direction of the face. In this way, the control unit 110 can set a print layout according to the subject direction that is at least one of the line-of-sight direction and the face direction, and can automatically adopt a stable composition.

静止画像F102においては、制御部110は、静止画像F102から人物H3とその周辺を包含するバウンディングボックスBB2として矩形を自動的に設定する。制御部110は、人物H3の顔も視線も撮影者の方向に向けられているので、バウンディングボックスBB2から両脇方向に均等に広げた構図を採用する。   In the still image F102, the control unit 110 automatically sets a rectangle as a bounding box BB2 that includes the person H3 and its periphery from the still image F102. Since the face and line of sight of the person H3 are directed in the direction of the photographer, the control unit 110 adopts a composition that is spread evenly from the bounding box BB2 in both side directions.

一方、静止画像F103においては、制御部110は、静止画像F103から人物H3とその周辺を包含するバウンディングボックスBB3として矩形を自動的に設定する。制御部110は、人物H3の顔も視線も左側の方向に向けられているので、バウンディングボックスBB3から左側に比較的に大きな空間を配置する構図を採用する。   On the other hand, in the still image F103, the control unit 110 automatically sets a rectangle as a bounding box BB3 including the person H3 and its surroundings from the still image F103. Since the face and line of sight of the person H3 are directed to the left side, the control unit 110 employs a composition in which a relatively large space is arranged on the left side from the bounding box BB3.

なお、撮影方向に対する被写体方向の角度が大きいほど、被写体方向の反対側に配置される空間に対する被写体方向の側に配置される空間の比が大きくなるようにしてもよい。また、人物の数が複数である場合において、複数の顔の被写体方向が同一方向に向いている場合には、その同一方向の側に広い空間を配置するようにしてもよい。   It should be noted that the larger the angle of the subject direction relative to the shooting direction, the larger the ratio of the space arranged on the subject direction side to the space arranged on the opposite side of the subject direction. In addition, when there are a plurality of persons and the subject directions of a plurality of faces are in the same direction, a wide space may be arranged on the same direction side.

ステップS8557では、制御部110は、マージン設定処理を実行する。マージン設定処理では、制御部110は、人物をカメラで撮影した場合に想定される一般的なマージンを自動的に配置してフレーム枠Fr1,Fr2,Fr3を設定する。この設定は、初期設定としてのL版(127mm×89mm)のアスペクト比を想定して行われる。   In step S8557, control unit 110 executes a margin setting process. In the margin setting process, the control unit 110 automatically arranges general margins assumed when a person is photographed with a camera and sets the frame frames Fr1, Fr2, and Fr3. This setting is performed assuming an aspect ratio of the L version (127 mm × 89 mm) as an initial setting.

動画像のアスペクト比は、一般的に静止画像のアスペクト比と相違するので、静止画像のアスペクト比への編集の際に動画像の撮影時に意図した構図が維持できないことがある。さらに、動画撮影では、撮影者も被写体も動くことがあり、構図を意識した撮影が一般に困難である。   Since the aspect ratio of a moving image is generally different from the aspect ratio of a still image, it may not be possible to maintain the composition intended when shooting the moving image when editing the aspect ratio of the still image. Furthermore, in video shooting, both the photographer and the subject may move, and it is generally difficult to shoot with the composition in mind.

このような問題に対して、本実施形態では、制御部110は、人物をスチルカメラで撮影した場合に想定される適切な構図を実現し、一般的なマージンを自動的に配置してフレーム枠Fr1,Fr2,Fr3をL版に設定することができる。これにより、動画像の撮影時に意図した構図を維持し、さらには動画像の撮影時には構図を意識しなくても安定感のある好ましい構図の半自動的な設定といった支援を実行して、ユーザー負担を軽減することができる。   In order to deal with such a problem, in the present embodiment, the control unit 110 realizes an appropriate composition that is assumed when a person is photographed with a still camera, and automatically arranges a general margin to form a frame frame. Fr1, Fr2, and Fr3 can be set to the L version. In this way, the intended composition is maintained when shooting moving images, and further, support is provided such as semi-automatic setting of a stable and desirable composition without having to be aware of the composition when shooting moving images, thereby reducing the burden on the user. Can be reduced.

ステップS856(図14参照)では、印刷設定処理を実行する。印刷設定処理では、ユーザーは、印刷枚数や画像処理の内容を設定し、設定完了M6(図17(b)参照)をタッチして印刷設定処理を完了させる。   In step S856 (see FIG. 14), print setting processing is executed. In the print setting process, the user sets the number of prints and the contents of the image process, and touches setting completion M6 (see FIG. 17B) to complete the print setting process.

ステップS857では、制御部110は、印刷可能枚数更新処理を実行する。印刷可能枚数更新処理では、制御部110は、設定が完了した静止画像について印刷処理が実行されるものとして、印刷可能な残枚数を計算する。この例では、1枚の静止画像F42Lの印刷が設定されるので、表示領域RCにおいて印刷可能枚数(残枚数)が16枚から15枚に更新されるとともに、残シーン数が18から17に更新される。   In step S857, the control unit 110 executes a printable sheet number update process. In the printable sheet number update process, the control unit 110 calculates the remaining printable sheet number, assuming that the print process is executed for the still image that has been set. In this example, since printing of one still image F42L is set, the number of printable sheets (remaining number) is updated from 16 to 15 in the display area RC, and the number of remaining scenes is updated from 18 to 17. Is done.

制御部110は、第1の印刷対象画像選択処理として、ステップS851乃至ステップS857の処理を最終グループまで実行する(ステップS858)。この例では、残シーン数は、印刷処理の対象として選択された静止画像データを含むグループよりも後に表示される未処理のグループの数である。   The control unit 110 executes the processing from step S851 to step S857 to the final group as the first print target image selection processing (step S858). In this example, the number of remaining scenes is the number of unprocessed groups displayed after a group including still image data selected as a print processing target.

一方、印刷可能枚数がグループ数以上の場合には、制御部110は、処理をステップS860に進める(図13参照)。ステップS860では、制御部110は、第2の印刷対象画像選択処理を実行する。第2の印刷対象画像選択処理は、代表静止画像を時系列順でグループ毎に表示する点で、平均特徴量が大きい順に代表静止画像を表示する第1の印刷対象画像選択処理と相違する。   On the other hand, when the number of printable sheets is equal to or greater than the number of groups, control unit 110 advances the process to step S860 (see FIG. 13). In step S860, control unit 110 executes a second print target image selection process. The second print target image selection process is different from the first print target image selection process in which the representative still images are displayed in descending order of the average feature amount in that the representative still images are displayed for each group in time series order.

印刷可能枚数がグループ数以上の場合には、グループ毎に少なくとも1枚ずつ印刷出力処理が可能なので、制御部110は、代表静止画像を時系列順でグループ毎に表示することができる。これに対して、印刷可能枚数がグループ数未満の場合には、ユーザーは、印刷出力処理を行うグループの選択が望まれるので、平均特徴量が大きい順に代表静止画像を表示する。   When the number of printable sheets is equal to or greater than the number of groups, at least one print output process can be performed for each group. Therefore, the control unit 110 can display the representative still images for each group in time series order. On the other hand, when the number of printable sheets is less than the number of groups, the user desires to select a group for performing print output processing, and therefore displays representative still images in descending order of the average feature amount.

さらに、制御部110は、操作表示部130の表示領域RCにおいて印刷可能枚数(残枚数)と残シーン数とを表示することができる。これにより、ユーザーは、グループ(シーン)の選択を円滑に行うことができる。ユーザーは、たとえば印刷可能枚数が残シーン数(残グループ数)よりも多いときには、各グループから改めて画像を追加で選択することもできる。   Further, the control unit 110 can display the number of printable sheets (remaining number of sheets) and the number of remaining scenes in the display area RC of the operation display unit 130. Thereby, the user can smoothly select a group (scene). For example, when the number of printable sheets is larger than the number of remaining scenes (number of remaining groups), the user can additionally select an image from each group.

動画像データから静止画像データを抽出する場合には、一般的に静止画像の抽出数を予測することが困難である。たとえば旅先において、コンビニエンスストア等に設置してある画像形成装置を使用して印刷処理を行う場合に、抽出数が予測できないので、支払うべき料金を考慮しつつ印刷対象とする静止画像を選択する負担が大きい。本実施形態は、動画像データから抽出された複数の静止画像データから所望の静止画像データを選択するための負担を軽減させることができる。   When still image data is extracted from moving image data, it is generally difficult to predict the number of still images extracted. For example, when printing using an image forming device installed at a convenience store or the like on a trip, the number of extractions cannot be predicted, so the burden of selecting a still image to be printed while considering the fee to be paid Is big. This embodiment can reduce the burden for selecting desired still image data from a plurality of still image data extracted from moving image data.

ステップS870では、制御部110は、操作処理部(スタートスイッチ)132の押下に応じて画像形成部120を使用して印刷媒体上に画像を形成する。印刷対象となるのは、ステップS856(図14参照)において印刷設定処理が完了した静止画像データである。   In step S870, the control unit 110 forms an image on the print medium using the image forming unit 120 in response to pressing of the operation processing unit (start switch) 132. The print target is still image data for which the print setting process has been completed in step S856 (see FIG. 14).

なお、制御部110は、印刷設定処理の完了に応じて直ちに印刷媒体上に画像を形成するようにしてもよい。しかしながら、上述の実施形態によれば、印刷設定処理の解除を許容することによって静止画像データを選択し直すことができるという利点を有している。   Note that the control unit 110 may immediately form an image on the print medium upon completion of the print setting process. However, according to the above-described embodiment, there is an advantage that still image data can be selected again by permitting cancellation of the print setting process.

このように、第4実施形態に係る静止画像取得処理は、動画像データから抽出された静止画像データの中から被写体の顔の状態を確認しつつシーン(グループ)を選択し、そのグループから望まれる静止画像を円滑に選択することができる。   As described above, the still image acquisition processing according to the fourth embodiment selects a scene (group) from the still image data extracted from the moving image data while confirming the state of the face of the subject, and requests the desired group from the group. The still image to be selected can be selected smoothly.

第4実施形態に係る静止画像取得処理は、さらに、選択された静止画像から被写体の状態を考慮して自動的に適切な構図でレイアウト設定処理を行うこともできる。このように、第4実施形態に係る静止画像取得処理は、動画像データを使用する印刷処理において、ユーザーの負担を軽減しつつ適切な静止画像の印刷出力を実現することができる。   In the still image acquisition process according to the fourth embodiment, the layout setting process can be automatically performed with an appropriate composition in consideration of the state of the subject from the selected still image. As described above, the still image acquisition process according to the fourth embodiment can realize an appropriate still image printout while reducing the burden on the user in the printing process using moving image data.

E.変形例:
本発明は、上記各実施形態だけでなく、以下のような変形例でも実施することができる。
E. Variation:
The present invention can be implemented not only in the above embodiments but also in the following modifications.

上記実施形態では、画像形成装置に本発明が適用されているが、たとえばスマートフォンやパーソナルコンピュータといった画像処理装置として機能する装置に適用することもできる。   In the above embodiment, the present invention is applied to the image forming apparatus. However, the present invention can also be applied to an apparatus that functions as an image processing apparatus such as a smartphone or a personal computer.

100 画像形成装置
110 制御部
111 フレーム画像生成部
112 特徴量演算部
113 フレーム画像抽出部
114 フレームメモリ
115 周期設定部
120 画像形成部
130 操作表示部
140 記憶部
150 通信インターフェース部
200 スマートフォン

DESCRIPTION OF SYMBOLS 100 Image forming apparatus 110 Control part 111 Frame image generation part 112 Feature-value calculating part 113 Frame image extraction part 114 Frame memory 115 Period setting part 120 Image formation part 130 Operation display part 140 Storage part 150 Communication interface part 200 Smartphone

Claims (8)

動画像データから複数の静止画像データを生成する静止画像データ生成部と、
前記静止画像データに表示されている顔を表示する顔画像を解析し、前記解析に基づいて前記顔と前記顔の視線の少なくとも一方の方向である被写体方向を特定し、前記特定された被写体方向の反対側よりも前記被写体方向の側に広い空間を配置する構図を設定する印刷レイアウト設定部と、
を備える画像処理装置。
A still image data generating unit that generates a plurality of still image data from moving image data;
Analyzing a face image that displays the face displayed in the still image data, and identifying a subject direction that is at least one of the face and the line of sight of the face based on the analysis, and the identified subject direction A print layout setting unit for setting a composition for arranging a wider space on the subject direction side than the opposite side;
An image processing apparatus comprising:
請求項1記載の画像処理装置であって、
前記印刷レイアウト設定部は、前記顔が撮影された方向である撮影方向に対する前記被写体方向の角度が大きいほど、前記被写体方向の反対側に配置される空間に対する前記被写体方向の側に配置される空間の比が大きくなるように前記各空間を配置する画像処理装置。
The image processing apparatus according to claim 1,
The print layout setting unit is configured such that the larger the angle of the subject direction with respect to the photographing direction that is the direction in which the face is photographed, the larger the space arranged on the subject direction side with respect to the space arranged on the opposite side of the subject direction. An image processing apparatus that arranges the spaces so that the ratio of the two becomes larger.
請求項1又は2に記載の画像処理装置であって、
前記印刷レイアウト設定部は、前記静止画像データに表示されている顔の数が単一であるか否かを判断し、前記顔の数が単一である場合には前記構図を設定し、前記顔の数が複数である場合には前記複数の顔を囲む構図を設定する画像処理装置。
The image processing apparatus according to claim 1, wherein:
The print layout setting unit determines whether or not the number of faces displayed in the still image data is single, and if the number of faces is single, sets the composition, and An image processing apparatus for setting a composition surrounding the plurality of faces when the number of faces is plural.
請求項3に記載の画像処理装置であって、
前記印刷レイアウト設定部は、前記顔の数が複数である場合において、前記複数の顔の前記被写体方向が同一方向に向いている場合には、前記同一方向の側に広い空間を配置する構図を設定する画像処理装置。
The image processing apparatus according to claim 3,
In the case where the number of the faces is plural and the subject direction of the plural faces is in the same direction, the print layout setting unit is configured to arrange a wide space on the same direction side. The image processing device to be set.
請求項1乃至4のいずれか1項に記載の画像処理装置であって、
前記静止画像データに前記顔が複数表示されている場合には、前記複数の顔のうちの少なくとも1つを選択できるように前記静止画像データを表示するための表示データを生成し、
前記静止画像データ抽出部は、前記選択された顔に基づいて前記構図を設定する画像処理装置。
The image processing apparatus according to any one of claims 1 to 4,
When a plurality of the faces are displayed in the still image data, display data for displaying the still image data is generated so that at least one of the plurality of faces can be selected,
The still image data extraction unit is an image processing device that sets the composition based on the selected face.
画像形成装置であって、
請求項1乃至5のいずれか1項に記載の画像処理装置と、
前記静止画像データに前記顔が複数表示されている場合には、前記複数の顔のうちの少なくとも1つを選択できるように前記静止画像データを表示するための表示データに基づいて前記静止画像データを表示する操作表示部と、
印刷媒体に画像を形成する画像形成部と、
を備える画像形成装置。
An image forming apparatus,
The image processing apparatus according to any one of claims 1 to 5,
When a plurality of the faces are displayed in the still image data, the still image data is displayed based on display data for displaying the still image data so that at least one of the plurality of faces can be selected. An operation display for displaying
An image forming unit that forms an image on a print medium;
An image forming apparatus comprising:
動画像データから複数の静止画像データを生成する静止画像データ生成工程と、
前記静止画像データに表示されている顔を表示する顔画像を解析し、前記解析に基づいて前記顔と前記顔の視線の少なくとも一方の方向である被写体方向を特定し、前記特定された被写体方向の反対側よりも前記被写体方向の側に広い空間を配置する構図を設定する印刷レイアウト設定工程と、
を備える画像処理方法。
A still image data generation step of generating a plurality of still image data from moving image data;
Analyzing a face image that displays the face displayed in the still image data, and identifying a subject direction that is at least one of the face and the line of sight of the face based on the analysis, and the identified subject direction A print layout setting step for setting a composition for arranging a wider space on the subject direction side than the opposite side;
An image processing method comprising:
動画像データから複数の静止画像データを生成する静止画像データ生成部と、及び
前記静止画像データに表示されている顔を表示する顔画像を解析し、前記解析に基づいて前記顔と前記顔の視線の少なくとも一方の方向である被写体方向を特定し、前記特定された被写体方向の反対側よりも前記被写体方向の側に広い空間を配置する構図を設定する印刷レイアウト設定部として画像処理装置を機能させる画像処理プログラム。

A still image data generation unit that generates a plurality of still image data from moving image data; and a face image that displays a face displayed in the still image data; and based on the analysis, the face and the face The image processing apparatus functions as a print layout setting unit that identifies a subject direction that is at least one direction of the line of sight and sets a composition in which a wider space is arranged on the subject direction side than the opposite side of the identified subject direction An image processing program to be executed.

JP2017141388A 2017-07-20 2017-07-20 Image processing apparatus, image processing method, and image processing program Active JP6737247B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017141388A JP6737247B2 (en) 2017-07-20 2017-07-20 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017141388A JP6737247B2 (en) 2017-07-20 2017-07-20 Image processing apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2019022166A true JP2019022166A (en) 2019-02-07
JP6737247B2 JP6737247B2 (en) 2020-08-05

Family

ID=65353158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017141388A Active JP6737247B2 (en) 2017-07-20 2017-07-20 Image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP6737247B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020238882A1 (en) * 2019-05-31 2020-12-03 西北工业大学 Artificial intelligence-assisted printed electronics technology-based self-guided optimization method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006287917A (en) * 2005-03-08 2006-10-19 Fuji Photo Film Co Ltd Image output apparatus, image output method and image output program
JP2007104360A (en) * 2005-10-05 2007-04-19 Fujifilm Corp Apparatus, method and program for laying out image
JP2009177358A (en) * 2008-01-22 2009-08-06 Canon Inc Image processor, image processing method, and program
JP2010103972A (en) * 2008-09-25 2010-05-06 Sanyo Electric Co Ltd Image processing device and electronic appliance
JP2013121097A (en) * 2011-12-08 2013-06-17 Nikon Corp Imaging apparatus, imaging method, image generating apparatus, image generating method and program
JP2016052013A (en) * 2014-08-29 2016-04-11 富士フイルム株式会社 Image processing device, image processing method, program and recording medium

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006287917A (en) * 2005-03-08 2006-10-19 Fuji Photo Film Co Ltd Image output apparatus, image output method and image output program
JP2007104360A (en) * 2005-10-05 2007-04-19 Fujifilm Corp Apparatus, method and program for laying out image
JP2009177358A (en) * 2008-01-22 2009-08-06 Canon Inc Image processor, image processing method, and program
JP2010103972A (en) * 2008-09-25 2010-05-06 Sanyo Electric Co Ltd Image processing device and electronic appliance
JP2013121097A (en) * 2011-12-08 2013-06-17 Nikon Corp Imaging apparatus, imaging method, image generating apparatus, image generating method and program
JP2016052013A (en) * 2014-08-29 2016-04-11 富士フイルム株式会社 Image processing device, image processing method, program and recording medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020238882A1 (en) * 2019-05-31 2020-12-03 西北工业大学 Artificial intelligence-assisted printed electronics technology-based self-guided optimization method
US11882664B2 (en) 2019-05-31 2024-01-23 Northwestern Polytechnical University Artificial intelligence-assisted printed electronics self-guided optimization method

Also Published As

Publication number Publication date
JP6737247B2 (en) 2020-08-05

Similar Documents

Publication Publication Date Title
JP4168940B2 (en) Video display system
CN109285115B (en) Image processing apparatus, image forming apparatus, image processing method, and recording medium
CA3111097C (en) Bounding box doubling as redaction boundary
US9934423B2 (en) Computerized prominent character recognition in videos
US10146992B2 (en) Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type
KR20130120175A (en) Apparatus, method and computer readable recording medium for generating a caricature automatically
US11019251B2 (en) Information processing apparatus, image capturing apparatus, information processing method, and recording medium storing program
JP2011002882A (en) Imaging apparatus, image processing program, and imaging method
JP6737247B2 (en) Image processing apparatus, image processing method, and image processing program
JP6768222B2 (en) Image processing device, image processing method and image processing program
JP6841181B2 (en) Image processing device, image processing method and image processing program
JP6756311B2 (en) Image processing device, image processing method and image processing program
JP6768223B2 (en) Image processing device, image processing method and image processing program
JP6778398B2 (en) Image forming apparatus, image forming method and image forming program
KR101719291B1 (en) Image providing method and image providing device
JP2014229092A (en) Image processing device, image processing method and program therefor
JP7385416B2 (en) Image processing device, image processing system, image processing method, and image processing program
JP2014085845A (en) Moving picture processing device, moving picture processing method, program and integrated circuit
US9159118B2 (en) Image processing apparatus, image processing system, and non-transitory computer-readable medium
JP2016197345A (en) Image analyzer, image analysis method and program
JP6870728B2 (en) Image processing device, image forming device and image processing method
JP2011087105A (en) Image processor and method for controlling the same, program, and medium
JP2018206437A (en) Image processing device and image processing program
JP2017076416A (en) Image processing device and imaging device
JP2018142944A (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200318

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200629

R150 Certificate of patent or registration of utility model

Ref document number: 6737247

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150