JP6292872B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP6292872B2
JP6292872B2 JP2013272050A JP2013272050A JP6292872B2 JP 6292872 B2 JP6292872 B2 JP 6292872B2 JP 2013272050 A JP2013272050 A JP 2013272050A JP 2013272050 A JP2013272050 A JP 2013272050A JP 6292872 B2 JP6292872 B2 JP 6292872B2
Authority
JP
Japan
Prior art keywords
image
image processing
identifier
display control
designated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013272050A
Other languages
Japanese (ja)
Other versions
JP2015126517A (en
Inventor
康嘉 宮▲崎▼
康嘉 宮▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013272050A priority Critical patent/JP6292872B2/en
Publication of JP2015126517A publication Critical patent/JP2015126517A/en
Application granted granted Critical
Publication of JP6292872B2 publication Critical patent/JP6292872B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像処理装置、画像処理方法、プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

従来、画像処理置として、被写体を撮像して得られた画像データを静止画または動画として記録媒体に記録するデジタルカメラが知られている。近年、このようなデジタルカメラにおいては、大量の撮影が可能となったため閲覧性を向上させる技術が求められている。たとえば特許文献1のように、テレビ番組などの動画の中から音量が大きいシーンだけを抽出して再生するような技術が提案されてきている。   2. Description of the Related Art Conventionally, as an image processing apparatus, a digital camera that records image data obtained by imaging a subject on a recording medium as a still image or a moving image is known. In recent years, in such a digital camera, since a large amount of photography has become possible, a technique for improving the viewability is required. For example, as in Patent Document 1, a technique has been proposed in which only a scene with a high volume is extracted from a moving image such as a television program and reproduced.

特開2007−267351号公報JP 2007-267351 A

しかしながら、特許文献1では、ダイジェスト再生に登場する人物や場所を示す情報を表示するようなことはできなかった。   However, in Patent Document 1, it is impossible to display information indicating a person or a place appearing in digest reproduction.

そこで、本発明は、抽出されるシーンに関連する情報を表示することができる画像処理装置を提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an image processing apparatus capable of displaying information related to an extracted scene.

このような目的を達成するために、本発明の画像処理装置は
記録媒体に記録された画像データを再生する再生手段と、指定された特徴画像を含む画像を抽出する抽出手段と、抽出手段により抽出された画像と指定された特徴画像に関連づけられた識別子とを表示部に表示させる表示制御手段とを有し、特徴画像を複数指定することが可能であって、表示制御手段は、指定された特徴画像が所定数未満である場合と、所定数以上である場合とで、識別子の表示タイミングを異ならせることを特徴とする。
In order to achieve such an object, the image processing apparatus of the present invention provides :
Reproducing means for reproducing image data recorded on a recording medium, extracting means for extracting an image including a designated feature image, an image extracted by the extracting means, and an identifier associated with the designated feature image Display control means for displaying on the display unit, and it is possible to specify a plurality of feature images, and the display control means includes a case where the specified feature images are less than a predetermined number and a predetermined number or more. The display timing of the identifier is different depending on the case.

本発明によれば、抽出されるシーンに関連する情報を表示することができる。   According to the present invention, information related to an extracted scene can be displayed.

本実施例の撮像装置の構成を示す図。1 is a diagram illustrating a configuration of an imaging apparatus according to an embodiment. 本実施例のアルバム再生の動作を示す図。The figure which shows the operation | movement of the album reproduction | regeneration of a present Example. 本実施例のアルバム再生の概念図。The conceptual diagram of the album reproduction | regeneration of a present Example. 本実施例のアルバム再生の概念図。The conceptual diagram of the album reproduction | regeneration of a present Example.

以下、図面を参照して本発明の実施例を詳細に説明するが、この発明は以下の実施の形態に限定されない。なお、以下の実施の形態は特許請求の範囲に係る発明を限定するものでなく、また実施の形態で説明されている特徴の組み合わせの全てが発明の解決手段に必須のものとは限らない。   Hereinafter, examples of the present invention will be described in detail with reference to the drawings. However, the present invention is not limited to the following embodiments. The following embodiments do not limit the invention according to the claims, and all combinations of features described in the embodiments are not necessarily essential to the solution means of the invention.

なお、本実施例において説明される各機能ブロックは必ずしも個別のハードウェアである必要はない。すなわち、例えばいくつかの機能ブロックの機能は、1つのハードウェアにより実行されても良い。また、いくつかのハードウェアの連係動作により1つの機能ブロックの機能または、複数の機能ブロックの機能が実行されても良い。また、各機能ブロックの機能は、CPUがメモリ上に展開したコンピュータプログラムにより実行されても良い。   Note that each functional block described in the present embodiment is not necessarily separate hardware. That is, for example, the functions of some functional blocks may be executed by one piece of hardware. In addition, the function of one functional block or the functions of a plurality of functional blocks may be executed by some hardware linked operations. Further, the function of each functional block may be executed by a computer program developed on the memory by the CPU.

(実施例1)
本実施例では、画像処理装置の例として撮像装置を説明するが、複数の動画または静止画またはその両方を再生することができる装置であればどのような装置でも良い。たとえば、携帯電話、スマートフォン、タブレット型情報端末、ノート型情報端末、コンピュータ等であってもよい。また、本実施例において動画ファイル、静止画ファイルを総称して画像ファイルと表現することがある。また、本実施例において、動画データ、静止画データを総称して画像データを表現することもある。
Example 1
In this embodiment, an imaging apparatus will be described as an example of an image processing apparatus. However, any apparatus may be used as long as it can reproduce a plurality of moving images and / or still images. For example, a mobile phone, a smartphone, a tablet information terminal, a notebook information terminal, a computer, or the like may be used. In this embodiment, a moving image file and a still image file are sometimes collectively referred to as an image file. In the present embodiment, moving image data and still image data may be collectively referred to as image data.

本実施例の撮像装置は、記録媒体に記録された動画または静止画またはその両方を再生することができる。本実施例の撮像装置は、指定された人物(または顔)に関連する画像を、記録媒体に記録された複数の画像から抽出して、その画像を順次表示することができる。本実施例では、あらかじめ、指定された人物の顔等の特徴画像とその識別子(名前やニックネーム等)を関連付けた「辞書」に登録されており、その識別子を、抽出された画像を順次表示する際に表示する。さらに、本実施例では、抽出された画像に含まれる人物の数に応じて、識別子を表示するタイミングを異ならせることができる。   The imaging apparatus according to the present embodiment can reproduce a moving image and / or a still image recorded on a recording medium. The imaging apparatus according to the present exemplary embodiment can extract images related to a designated person (or face) from a plurality of images recorded on a recording medium, and sequentially display the images. In this embodiment, a feature image such as a designated person's face and its identifier (name, nickname, etc.) are registered in advance in a “dictionary”, and the extracted image is sequentially displayed. Display when. Furthermore, in the present embodiment, the timing for displaying the identifier can be varied according to the number of persons included in the extracted image.

このような構成とすることで、本実施例の撮像装置は、抽出されるシーンに関連する情報を表示することができる。また、人物(または顔)に関連付けられた識別子の表示するタイミングを異ならせることで、たとえばユーザにとって見易いスライドショーまたは変化に富んだスライドショーを提供するができる。以下、このような撮像装置について説明する。   With such a configuration, the imaging apparatus of the present embodiment can display information related to the extracted scene. Also, by changing the display timing of the identifier associated with the person (or face), for example, a slide show that is easy to see for the user or a slide show that is rich in change can be provided. Hereinafter, such an imaging apparatus will be described.

<全体構成>
まず、図1を用いて、本実施例の撮像装置100の構成を説明する。
<Overall configuration>
First, the configuration of the imaging apparatus 100 of the present embodiment will be described with reference to FIG.

本実施例の撮像装置100は、図1に示すように、CPU101と、RAM102と、ROM103と、操作部104とを有する。また、撮像装置100は、第1撮像部110と、画像処理部111と、第2撮像部112と、集音部120と、音声処理部121とを有する。また、撮像装置100は、表示部140と、表示制御部141と、記録再生部150と、記録媒体151と、姿勢検出部160とを有する。なお、CPUは、Central Processing Unitの略称である。RAMは、Random Access Memoryの略称である。ROMは、Read Only Memoryの略称である。   As illustrated in FIG. 1, the imaging apparatus 100 according to the present exemplary embodiment includes a CPU 101, a RAM 102, a ROM 103, and an operation unit 104. In addition, the imaging apparatus 100 includes a first imaging unit 110, an image processing unit 111, a second imaging unit 112, a sound collection unit 120, and an audio processing unit 121. In addition, the imaging apparatus 100 includes a display unit 140, a display control unit 141, a recording / playback unit 150, a recording medium 151, and an attitude detection unit 160. CPU is an abbreviation for Central Processing Unit. RAM is an abbreviation for Random Access Memory. ROM is an abbreviation for Read Only Memory.

本実施例の撮像装置100において、CPU101は、RAM102をワークメモリとしてROM103に記録された各種プログラムをRAM102に展開し、プログラムに応じて撮像装置100の各ブロックを制御する。操作部104は、例えば、電源ボタン、記録ボタン、ズーム調整ボタン、オートフォーカスボタン、メニュー表示ボタン、モード切替スイッチ、決定ボタン等の各種操作を入力するスイッチ類を有する。また、カーソルキー、ポインティングデバイス、タッチパネル、ダイヤル等のどのようなタイプの操作子であってもよい。操作部104は、ユーザによりこれらのキーやボタン、タッチパネルが操作されるとCPU101に操作信号を送信する。操作部104の各操作部材は、表示部に表示される種々の機能アイコンを選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部に表示される。利用者は、表示部に表示されたメニュー画面と、上下左右の4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。なお、操作部104は、表示部に対する接触を検知可能なタッチパネルであってもよい。タッチパネルは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。   In the imaging apparatus 100 according to the present exemplary embodiment, the CPU 101 develops various programs recorded in the ROM 103 using the RAM 102 as a work memory, and controls each block of the imaging apparatus 100 according to the program. The operation unit 104 includes switches for inputting various operations such as a power button, a record button, a zoom adjustment button, an autofocus button, a menu display button, a mode switch, and a determination button. Further, any type of operation element such as a cursor key, a pointing device, a touch panel, and a dial may be used. The operation unit 104 transmits an operation signal to the CPU 101 when these keys, buttons, and touch panel are operated by the user. Each operation member of the operation unit 104 is appropriately assigned a function for each scene by selecting and operating various function icons displayed on the display unit, and functions as various function buttons. Examples of the function buttons include an end button, a return button, an image advance button, a jump button, a narrowing button, and an attribute change button. For example, when a menu button is pressed, various setting menu screens are displayed on the display unit. The user can make various settings intuitively using the menu screen displayed on the display unit, and the four-way buttons and the SET button. Note that the operation unit 104 may be a touch panel that can detect contact with the display unit. The touch panel may be any of various types of touch panels such as a resistive film method, a capacitance method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, an image recognition method, and an optical sensor method. .

第1撮像部110は、第2撮像部112は、レンズにより取り込まれた被写体の光学像を、絞りにより光量を制御して、CCDセンサやCMOSセンサ等の撮像素子により画像信号に変換する。また第1撮像部110は、第2撮像部112は、得られたアナログ画像信号をデジタル画像信号に変換して一時的にRAM102に記憶する。画像処理部111は、記録時にはRAM102に記憶された画像データを処理し、再生時には、後述の記録媒体151から読みだされた画像データを処理する。画像処理部111は、画像データのホワイトバランス調整、ゲイン調整、色強調処理等様々な処理を行う。画像処理部111は処理した画像データを、表示制御部141に送信したり、記録再生部150や通信部に送信したりする。また、画像処理部111は、H.264/AVCやMotionJPEG2000、H.265等の動画圧縮技術を用いて画像を動画として圧縮したり、JPEGやJPEG2000等の静止画圧縮技術を用いて画像を静止画として圧縮したりすることもできる。圧縮形式はこれらの形式によらず他の方式を用いてもよい。   In the first imaging unit 110, the second imaging unit 112 converts the optical image of the subject captured by the lens into an image signal using an imaging element such as a CCD sensor or a CMOS sensor by controlling the amount of light using a diaphragm. In the first imaging unit 110, the second imaging unit 112 converts the obtained analog image signal into a digital image signal and temporarily stores it in the RAM 102. The image processing unit 111 processes image data stored in the RAM 102 during recording, and processes image data read from a recording medium 151 (to be described later) during reproduction. The image processing unit 111 performs various processes such as white balance adjustment, gain adjustment, and color enhancement processing of image data. The image processing unit 111 transmits the processed image data to the display control unit 141 or to the recording / playback unit 150 or the communication unit. In addition, the image processing unit 111 is an H.264. H.264 / AVC, Motion JPEG2000, H.264, etc. An image can be compressed as a moving image using a moving image compression technique such as H.265, or an image can be compressed as a still image using a still image compression technique such as JPEG or JPEG 2000. As the compression format, other methods may be used regardless of these formats.

なお、本実施例の画像処理部111は、第1撮像部110、第2撮像部112により得られた画像を解析し、画像内に人間や顔に対応する画像が含まれるかを検出したり、表情を検出したりすることもできる。検出方法は、さまざまな方式があるがたとえば、人間や顔の特徴画像とのパターンマッチングを行うことで検出することができる。顔を検出した場合には、サイズ、位置をRAM102に記憶させる。また顔が検出された場合には顔画像のエッジ検出を行い、笑顔レベルを判定する。これらの検出情報は静止画または動画の撮影が行われたときに、対象の画像データを含む画像ファイルのヘッダ等に格納される。   The image processing unit 111 according to the present exemplary embodiment analyzes the images obtained by the first imaging unit 110 and the second imaging unit 112 and detects whether an image corresponding to a person or a face is included in the image. It is also possible to detect facial expressions. There are various detection methods. For example, the detection can be performed by performing pattern matching with a human or facial feature image. When a face is detected, the size and position are stored in the RAM 102. When a face is detected, the edge of the face image is detected and the smile level is determined. These pieces of detection information are stored in a header or the like of an image file including target image data when a still image or a moving image is shot.

音声処理部121は、記録時には、集音部120により集音して得られた音声データを処理し、再生時には、後述の記録媒体151から読みだされた圧縮または非圧縮の音声データを処理する。たとえば、音声データのレベル調整処理、圧縮された音声データの伸張処理、音声データの圧縮処理等を行う。音声処理部121は、処理した音声データを、記録再生部150や通信部に送信したり、再生時にはスピーカに送信したりする。なお、集音部120は、たとえば、撮像装置100のハウジング内に内蔵された複数の無指向性の音声を集音するマイクである。また、音声処理部121では音声圧縮方式として、たとえば、AC3、AAC等の公知の一般的な音声圧縮方式を用いる。   The audio processing unit 121 processes audio data obtained by collecting sound by the sound collecting unit 120 during recording, and processes compressed or uncompressed audio data read from a recording medium 151 described later during reproduction. . For example, audio data level adjustment processing, compressed audio data decompression processing, audio data compression processing, and the like are performed. The audio processing unit 121 transmits the processed audio data to the recording / reproducing unit 150 and the communication unit, or to the speaker during reproduction. Note that the sound collection unit 120 is, for example, a microphone that collects a plurality of omnidirectional sounds built in the housing of the imaging apparatus 100. Also, the audio processing unit 121 uses a known general audio compression method such as AC3, AAC, or the like as the audio compression method.

表示部140は、例えば、液晶表示デバイス、または有機EL表示デバイスなどからなり、表示制御部141の制御により画像を表示する。表示部140は、LEDディスプレイなど、ユーザに画像を提供することができればどのようなものであっても良い。表示制御部141では、画像処理部111により処理された画像データに基づいて、表示部140に画像を表示する。また、表示制御部141は、表示部140に表示するデジタル画像信号に基づく映像信号に対し、マトリクス変換、ブライト調整、コントラスト調整、ガンマ調整、クロマゲイン調整、シャープネス調整等の画像信号処理を行ってもよい。   The display unit 140 includes, for example, a liquid crystal display device or an organic EL display device, and displays an image under the control of the display control unit 141. The display unit 140 may be anything such as an LED display as long as it can provide an image to the user. The display control unit 141 displays an image on the display unit 140 based on the image data processed by the image processing unit 111. Further, the display control unit 141 may perform image signal processing such as matrix conversion, brightness adjustment, contrast adjustment, gamma adjustment, chroma gain adjustment, and sharpness adjustment on the video signal based on the digital image signal displayed on the display unit 140. Good.

記録再生部150は、記録時においては、画像処理部111により処理された画像データや音声データを記録媒体151に記録し、再生時においては、記録媒体151に記録された画像データや音声データを再生する。記録再生部150は、記録時においては、画像データや音声データとともに、撮影日や、圧縮に関する情報、撮像部110の設定等の各種情報を記録媒体151に書き込む。なお、記録再生部150は、画像データや音声データを記録媒体151に記録する際は、たとえばFATやexFAT等のファイルフォーマットに適合した形でファイルとして記録媒体に記録する。また、記録媒体151は、撮像装置に内蔵された記録媒体でも、取外し可能な記録媒体でもよい。例えば、ハードディスク、光ディスク、光磁気ディスク、CD−R、DVD−R、磁気テープ、不揮発性の半導体メモリ、フラッシュメモリ、などのあらゆる方式の記録媒体を含む。取り外し可能な記録媒体を用いる場合には、記録再生部150は、それらの取り外し可能な記録媒体を装着、排出するための機構を含む。   The recording / reproducing unit 150 records the image data and audio data processed by the image processing unit 111 on the recording medium 151 at the time of recording, and the image data and audio data recorded on the recording medium 151 at the time of reproduction. Reproduce. At the time of recording, the recording / reproducing unit 150 writes various types of information such as the shooting date, information related to compression, and settings of the imaging unit 110 to the recording medium 151 together with image data and audio data. The recording / reproducing unit 150 records image data and audio data on the recording medium 151 as a file in a form suitable for a file format such as FAT or exFAT, for example. Further, the recording medium 151 may be a recording medium built in the imaging apparatus or a removable recording medium. For example, the recording medium includes all types of recording media such as a hard disk, an optical disk, a magneto-optical disk, a CD-R, a DVD-R, a magnetic tape, a nonvolatile semiconductor memory, and a flash memory. When using removable recording media, the recording / reproducing unit 150 includes a mechanism for loading and unloading the removable recording media.

姿勢検出部160は、撮像装置100の姿勢を検出するものであって、たとえば、角度センサや加速度センサなどである。本実施例の姿勢検出部160は、撮像装置100の姿勢が、正位置であるか縦位置であるかを検出する。例えば撮像装置100の第1撮像部110の光軸を中心とした回転姿勢角度(0度、90度、180度、270度)を検出することができる。ここで、0度はいわゆる正位置(撮像装置100の上面が上空方向を向いている状態)であり、180度は逆位置(撮像装置100の上面が地面方向を向いている状態)である。90度、270度とはいわゆる縦位置(撮像装置100の左右面のいずれかが地面方向を向いている状態)である。   The posture detection unit 160 detects the posture of the imaging apparatus 100 and is, for example, an angle sensor or an acceleration sensor. The posture detection unit 160 of the present embodiment detects whether the posture of the imaging device 100 is the normal position or the vertical position. For example, a rotation attitude angle (0 degree, 90 degrees, 180 degrees, 270 degrees) about the optical axis of the first imaging unit 110 of the imaging apparatus 100 can be detected. Here, 0 degrees is a so-called normal position (a state in which the upper surface of the imaging apparatus 100 faces the sky direction), and 180 degrees is a reverse position (a state in which the upper surface of the imaging apparatus 100 faces the ground direction). 90 degrees and 270 degrees are so-called vertical positions (a state in which either of the left and right surfaces of the imaging apparatus 100 faces the ground).

なお、本実施例の第1撮像部110(第1の撮像部)、第2撮像部112(第2の撮像部)はそれぞれ、異なる方向の被写体を撮像するものである。具体的には、第2の撮像部112は、撮影者(いわゆるカメラマン)を撮影するためのサブカメラであり、第1撮像部110は、撮影者が撮影しようとしている被撮影者(いわゆる被写体)を撮影するためのメインカメラである。したがって、たとえば、第1撮像部110と、第2撮像部112は、逆方向を撮影するものであるが、必ずしも逆方向でなくともよい。   Note that the first imaging unit 110 (first imaging unit) and the second imaging unit 112 (second imaging unit) of the present embodiment each capture subjects in different directions. Specifically, the second imaging unit 112 is a sub-camera for photographing a photographer (so-called cameraman), and the first imaging unit 110 is a subject (so-called subject) that the photographer intends to photograph. This is the main camera. Therefore, for example, the first image capturing unit 110 and the second image capturing unit 112 capture images in the reverse direction, but may not necessarily be in the reverse direction.

ここで、画像処理部111、音声処理部121、表示制御部141、記録再生部150は、それぞれ、前述の各機能を実行するプログラムを搭載したマイクロコンピュータであってもよい。また、CPU101がROM103に記録された前述の処理を実行する為のプログラムをRAM102に展開して実行するようにしてもよい。   Here, each of the image processing unit 111, the audio processing unit 121, the display control unit 141, and the recording / reproducing unit 150 may be a microcomputer equipped with a program for executing the above-described functions. Further, the program for executing the above-described processing recorded in the ROM 103 by the CPU 101 may be loaded into the RAM 102 and executed.

<撮像装置100の動作>
続いて、本実施例の撮像装置100の動作について説明する。本実施例の撮像装置100は、「静止画撮影モード」、「動画撮影モード」、「再生モード」のほかに、「動画静止画撮影モード」を有する。各モードにおいて、CPU101は、撮像装置100の各ブロックを制御して以下の動作を行わせる。
<Operation of Imaging Device 100>
Subsequently, the operation of the imaging apparatus 100 of the present embodiment will be described. The imaging apparatus 100 according to the present embodiment has a “moving image still image shooting mode” in addition to the “still image shooting mode”, the “moving image shooting mode”, and the “reproduction mode”. In each mode, the CPU 101 controls each block of the imaging apparatus 100 to perform the following operation.

「静止画撮影モード」、「動画撮影モード」では、撮影の指示が入力されるまでの間、第1撮像部110により得られた画像のみまたは、第1撮像部110により得られた画像と第2撮像部112により得られた画像を合成した画像を表示部140に表示させる。すなわち、各撮像部により得られた画像を画像処理部111で処理し、表示部140に表示させるように表示制御部141を制御する。そして、撮影の指示が入力されると、画像処理部111に、各撮像部により得られた画像を動画または静止画として圧縮させ、圧縮した画像を順次記録媒体151に記録するように記録再生部150を制御する。「静止画撮影モード」の場合は撮影の指示に対応するタイミングで各撮像部により得られた画像を1枚または複数枚をたとえばJPEGを用いて圧縮するように画像処理部111を制御する。そして、圧縮された静止画データを記録媒体151に静止画ファイルとして記録するように記録再生部150を制御する。一方「動画撮影モード」においては、撮影の指示に対応するタイミングで各撮像部により得られた画像から順次得られる画像をフレーム画像とする動画をたとえばH.265を用いて圧縮するように画像処理部111を制御する。そして、圧縮された動画データを記録媒体151に動画ファイルとして記録するように記録再生部150を制御する。なお、「動画撮影モード」においては、撮影終了の指示が入力されるまでこの動作を継続する。また、「静止画撮影モード」、「動画撮影モード」において、静止画ファイル、動画ファイルには、各モードで撮影された画像に基づくサムネイル画像(静止画データ)が付加されて記録媒体151に記録される。   In the “still image shooting mode” and “moving image shooting mode”, only the image obtained by the first imaging unit 110 or the image obtained by the first imaging unit 110 and the first image until the shooting instruction is input. 2 The image obtained by combining the images obtained by the imaging unit 112 is displayed on the display unit 140. That is, an image obtained by each imaging unit is processed by the image processing unit 111, and the display control unit 141 is controlled to be displayed on the display unit 140. When a shooting instruction is input, the recording / reproducing unit 111 causes the image processing unit 111 to compress the image obtained by each imaging unit as a moving image or a still image, and sequentially record the compressed image on the recording medium 151. 150 is controlled. In the “still image shooting mode”, the image processing unit 111 is controlled so that one or a plurality of images obtained by each imaging unit are compressed using, for example, JPEG at a timing corresponding to a shooting instruction. Then, the recording / reproducing unit 150 is controlled to record the compressed still image data on the recording medium 151 as a still image file. On the other hand, in the “moving image shooting mode”, a moving image in which images sequentially obtained from images obtained by the respective imaging units at a timing corresponding to a shooting instruction are frame images is used, for example. The image processing unit 111 is controlled to perform compression using H.265. Then, the recording / playback unit 150 is controlled to record the compressed moving image data on the recording medium 151 as a moving image file. In the “moving image shooting mode”, this operation is continued until an instruction to end shooting is input. In the “still image shooting mode” and “moving image shooting mode”, a thumbnail image (still image data) based on the image shot in each mode is added to the still image file and the movie file and recorded on the recording medium 151. Is done.

「動画静止画撮影モード」では、静止画記録の指示が入力されたときに、静止画撮影、静止画記録を行うとともに、静止画記録の指示が入力される直前の4秒間の動画データを記録媒体に記録する。そして、同じ日に、「動画静止画撮影モード」で、複数回の静止画記録の指示が入力された場合には、静止画記録の指示が入力される直前の4秒間の動画データを一つの動画ファイルに追記して記録する。このようにすることで、1日分の静止画撮影直前の動画データを一つの動画ファイルに格納し、閲覧性を向上させることができる。「動画静止画撮影モード」では、CPU101は、撮影の指示が入力されるまでの間、第1撮像部110により得られた画像のみまたは、第1撮像部110により得られた画像と第2撮像部112により得られた画像を合成した画像を表示部140に表示させる。すなわち、各撮像部により得られた画像を画像処理部111で処理し、表示部140に表示させるように表示制御部141を制御する。また、このとき、画像処理部111は、第1撮像部110により得られた画像のみまたは、第1撮像部110により得られた画像と第2撮像部112により得られた画像を合成した画像を順次動画データとして圧縮し、RAM102に一時的に記憶する。CPU101は、RAM102には、最新の4秒分の圧縮済みの動画データが常に保持されるようにRAM102の情報を管理する。たとえば最新の4秒以外の動画データは破棄してもよい。次に、静止画記録の指示が入力されると、指示に対応するタイミングで各撮像部により得られた画像を1枚または複数枚をたとえばJPEGを用いて圧縮するように画像処理部111を制御する。そして静止画として圧縮された静止画データを記録媒体151に記録するように記録再生部150を制御する。一方、静止画記録の指示に応じて、RAM102に記憶されている最新の4秒の圧縮済みの動画データについても記録媒体151に記録するように記録再生部150を制御する。また静止画記録の指示により得られた画像を動画(ストップモーション)としても圧縮するように画像処理部111を制御し、最新の4秒の動画データの後に再生されるように記録媒体151に記録する。これにより、記録再生部150は、記録媒体に記録されている最新の4秒の動画データと同じ動画ファイルに静止画記録の指示により得られた画像の動画データが含まれる。なお、記録される動画データの撮影中の動作に関する情報や、人間の顔の検出された位置、大きさ、笑顔度の情報を対応する静止画ファイルのヘッダに格納してもよい。また、ストップモーション動画を生成したかどうかを示す情報も静止画ファイルのヘッダに格納してもよい。   In “Movie Still Image Shooting Mode”, when a still image recording instruction is input, still image shooting and still image recording are performed, and moving image data for 4 seconds immediately before the still image recording instruction is input is recorded. Record on media. On the same day, when a plurality of still image recording instructions are input in the “moving picture still image shooting mode”, the moving image data for 4 seconds immediately before the input of the still image recording instruction is stored as one. Add to the movie file and record. By doing in this way, the moving image data just before the still image photography for 1 day can be stored in one moving image file, and browsing property can be improved. In the “moving picture still image shooting mode”, the CPU 101 performs only the image obtained by the first imaging unit 110 or the image obtained by the first imaging unit 110 and the second imaging until a shooting instruction is input. An image obtained by combining the images obtained by the unit 112 is displayed on the display unit 140. That is, an image obtained by each imaging unit is processed by the image processing unit 111, and the display control unit 141 is controlled to be displayed on the display unit 140. At this time, the image processing unit 111 combines only the image obtained by the first imaging unit 110 or an image obtained by combining the image obtained by the first imaging unit 110 and the image obtained by the second imaging unit 112. It is sequentially compressed as moving image data and temporarily stored in the RAM 102. The CPU 101 manages information in the RAM 102 so that the latest compressed video data for 4 seconds is always held in the RAM 102. For example, moving image data other than the latest 4 seconds may be discarded. Next, when a still image recording instruction is input, the image processing unit 111 is controlled to compress one or a plurality of images obtained by each imaging unit at a timing corresponding to the instruction using, for example, JPEG. To do. Then, the recording / reproducing unit 150 is controlled so as to record still image data compressed as a still image on the recording medium 151. On the other hand, in response to a still image recording instruction, the recording / reproducing unit 150 is controlled so that the latest 4-second compressed moving image data stored in the RAM 102 is also recorded on the recording medium 151. In addition, the image processing unit 111 is controlled so as to compress the image obtained by the still image recording instruction as a moving image (stop motion), and recorded on the recording medium 151 so as to be reproduced after the latest 4-second moving image data. To do. Thus, the recording / playback unit 150 includes the moving image data of the image obtained by the still image recording instruction in the same moving image file as the latest 4-second moving image data recorded on the recording medium. It should be noted that information regarding an operation during shooting of moving image data to be recorded, and information on the detected position, size, and smile level of a human face may be stored in a corresponding still image file header. Information indicating whether or not a stop motion video has been generated may also be stored in the header of the still image file.

「再生モード」では、記録媒体151に記録されている動画ファイルまたは静止画ファイルのファイルリスト及びサムネイル画像を読み出すように記録再生部150を制御する。そして記録再生部150により再生された各ファイルのサムネイル画像を画像処理部111で伸張させ、伸張させたサムネイル画像を表示部140に表示するように表示制御部141を制御する。そして、CPU101は、ユーザが操作部104を操作することで選択したサムネイル画像に対応する静止画ファイルまたは動画ファイルを画像処理部111に伸張させ、得られた画像を表示部140に表示するように表示制御部141を制御する。   In the “playback mode”, the recording / playback unit 150 is controlled to read the file list and thumbnail images of the moving image file or still image file recorded on the recording medium 151. Then, the display control unit 141 is controlled so that the thumbnail image of each file reproduced by the recording / reproducing unit 150 is expanded by the image processing unit 111 and the expanded thumbnail image is displayed on the display unit 140. Then, the CPU 101 expands the still image file or the moving image file corresponding to the thumbnail image selected by the user operating the operation unit 104 to the image processing unit 111, and displays the obtained image on the display unit 140. The display control unit 141 is controlled.

なお、本実施例の撮像装置100においては、記録時または再生時において、撮影画像または再生画像内に、あらかじめ登録した人物の画像に類似する人物が含まれているかを判定することができる。そのため、撮像装置100は、たとえば、12人分の顔画像等の特徴画像とその人物(または顔)に対応する名前やニックネーム等の識別子を関連付けて登録することができる。登録方法は、人物登録モードで撮影された画像を画像処理部111で特徴量を検出し、ユーザに名前やニックネームを入力させ、CPU101はそれらを関連付けて撮像装置100の不図示の不揮発性メモリに記録する。本実施例では、この関連付けて記録された情報を「辞書」と表現することもある。この「辞書」に登録された人物であるかを判定するには、たとえば、あらかじめ登録した人物の顔等の特徴画像の特徴量に類似する顔画像であるかを判定する方式などがあるがこれ以外の方法を用いてもよい。これにより、撮影時または再生時にあらかじめ登録された人物(または顔)に対応する画像が含まれるかを画像処理部111で判定することができる。記録時においては、どの人物(または顔)に対応する画像が含まれるかを判定すると、CPU101は、判定結果を画像ファイルのヘッダに記録するように記録再生部150を制御する。このようにすることで再生時に登録した人物に対応する画像が含まれるかを画像解析せずにヘッダを確認するだけで判定することができる。   In the imaging apparatus 100 according to the present embodiment, it is possible to determine whether a person similar to a person image registered in advance is included in a captured image or a reproduced image during recording or reproduction. Therefore, the imaging apparatus 100 can register, for example, a feature image such as a face image for 12 people and an identifier such as a name or a nickname corresponding to the person (or face). In the registration method, the image processing unit 111 detects the feature amount of an image shot in the person registration mode, causes the user to input a name and a nickname, and the CPU 101 associates them with each other in a non-illustrated nonvolatile memory of the imaging apparatus 100. Record. In this embodiment, the information recorded in association with this may be expressed as a “dictionary”. In order to determine whether a person is registered in this “dictionary”, for example, there is a method of determining whether the face image is similar to the feature amount of a feature image such as a face of a person registered in advance. Other methods may be used. Thus, the image processing unit 111 can determine whether an image corresponding to a person (or face) registered in advance at the time of shooting or reproduction is included. At the time of recording, when determining which person (or face) image is included, the CPU 101 controls the recording / reproducing unit 150 to record the determination result in the header of the image file. In this way, it is possible to determine whether or not an image corresponding to the person registered at the time of reproduction is included by simply checking the header without performing image analysis.

<アルバム再生>
ここで、本実施例の撮像装置100は、「再生モード」において「アルバム再生」を選択することができる。「アルバム再生」は、記録媒体に記録された複数の画像ファイルから所定数の画像ファイルを抽出して、その画像を順次表示するモードである。本実施例の「アルバム再生」においては、「オープニング」、「本編」、「エンディング」という順番で画像を再生する。本実施例の撮像装置100においては、指定された人物に関連する画像を特定して、その特定された画像の中で評価値の高い画像「本編」として表示する。また、本実施例の「アルバム再生」においては、指定した人物を識別するための識別子を所定のタイミングで表示する。なお、人物(または顔)等の特徴画像は、複数指定が可能であり、表示タイミングは、指定された人物の数に応じて変更される。具体的には、指定された人物の数は4人未満の場合には、「オープニング」で指定された、辞書に登録されている人物の識別子を全員分表示する。一方、指定された人物の数が4人以上の場合には、「本編」において、指定された人物が最初に表示されたタイミングに応じて辞書に登録されている該当する人物の識別子を表示する。なお、識別子とは、辞書登録時にユーザに入力させたテキストデータであり、たとえば人物(または顔)を示す名前やニックネームなどである。
<Play album>
Here, the imaging apparatus 100 according to the present embodiment can select “album playback” in “playback mode”. “Album playback” is a mode in which a predetermined number of image files are extracted from a plurality of image files recorded on a recording medium, and the images are sequentially displayed. In “album playback” in this embodiment, images are played back in the order of “opening”, “main part”, and “ending”. In the imaging apparatus 100 of the present embodiment, an image related to the designated person is specified and displayed as an image “main part” having a high evaluation value in the specified image. In the “album playback” in the present embodiment, an identifier for identifying a designated person is displayed at a predetermined timing. A plurality of feature images such as persons (or faces) can be specified, and the display timing is changed according to the number of specified persons. Specifically, when the number of designated persons is less than 4, the identifiers of the persons designated in the “opening” and registered in the dictionary are displayed for all members. On the other hand, when the number of designated persons is four or more, the identifier of the corresponding person registered in the dictionary is displayed according to the timing when the designated person is first displayed in the “main part”. . The identifier is text data input by the user at the time of dictionary registration, and is, for example, a name or nickname indicating a person (or face).

以下に、「アルバム再生」における撮像装置100の動作について、図2を用いて説明する。図2のフロー図は、CPU101が、撮像装置100の各ブロックを制御することにより実行される処理を示す。   Hereinafter, the operation of the imaging apparatus 100 in “album playback” will be described with reference to FIG. The flowchart in FIG. 2 shows processing executed by the CPU 101 controlling each block of the imaging apparatus 100.

<対象画像特定>
(S201)
まず、「アルバム再生」が指定されると、CPU101は、記録媒体151に記録された静止画ファイルのヘッダに含まれる情報を読み出すよう記録再生部150を制御する。CPU101は、静止画ファイルのヘッダに含まれる情報に基づいて、辞書に登録された人物が含まれているか否かを判定し、含まれている人物を示す画像や識別子を表示部140に表示するように表示制御部141を制御する。
<Target image identification>
(S201)
First, when “album playback” is designated, the CPU 101 controls the recording / playback unit 150 to read information included in the header of the still image file recorded on the recording medium 151. The CPU 101 determines whether or not a person registered in the dictionary is included based on information included in the header of the still image file, and displays an image or identifier indicating the included person on the display unit 140. The display control unit 141 is controlled as described above.

(S202)
次に、CPU101は、ユーザの操作により選択された人物の画像や識別子を特定する。
(S202)
Next, the CPU 101 specifies the image or identifier of the person selected by the user operation.

なお、人物選択の方法はS201、S202の処理に限定されない。たとえば、CPU101により、辞書に登録された人物(または顔)の画像や識別子を表示部140に表示するように表示制御部141を制御して、ユーザに選択させてもよい。また、「アルバム再生」に切り替える直前に再生されていた画像内に含まれている人物(または顔)のうち辞書に登録された人物を自動的に選択するようにしてもよい。   The person selection method is not limited to the processing of S201 and S202. For example, the CPU 101 may control the display control unit 141 so that the image or identifier of a person (or face) registered in the dictionary is displayed on the display unit 140 and allow the user to select it. Further, a person registered in the dictionary may be automatically selected from the persons (or faces) included in the image reproduced immediately before switching to “album reproduction”.

(S203)
次に、CPU101は、「アルバム再生」における画像の総表示時間を設定するために、目標時間の設定画面を表示部140に表示するように表示制御部141を制御し、ユーザに目標時間を設定させる。また、目標とされるシーン数を設定できるようにしてもよい。
(S203)
Next, the CPU 101 controls the display control unit 141 to display the target time setting screen on the display unit 140 in order to set the total display time of the image in “album playback”, and sets the target time to the user. Let Further, the target number of scenes may be set.

(S204)
次に、CPU101は、S202で指定された人物(または顔)を含む画像の評価値を算出する。CPU101は、S202で指定された人物(または顔)を含む静止画ファイルを特定し、特定された静止画ファイルの付加情報を参照して、特定された静止画ファイルの画像の評価値を算出する。付加情報は、静止画ファイルの画像が撮影されたときに得られた情報に基づいて生成されたものである。たとえば、画像処理部111において、検出された顔画像の位置、大きさの情報、笑顔度等を含むが、これ以外の情報を用いても構わない。S204では、顔画像の大きさが大きいほど高い評価値を算出し、顔画像の位置が画像中央に近いほど高い評価値を算出し、笑顔度が高いほど高い評価値を算出する。なお、静止画ファイルの静止画データをこのときに画像処理部111に解析させて、顔画像の位置、大きさ、笑顔度を検出してもよい。また、撮影時に評価値を算出して静止画ファイルの付加情報として記録しておいてもよい。また、合焦情報、YUVヒストグラム、姿勢情報(ジャイロ変動情報)、ズーム情報などを含む撮影情報を使用して評価値を算出しても良い。
(S204)
Next, the CPU 101 calculates an evaluation value of an image including the person (or face) designated in S202. The CPU 101 identifies a still image file including the person (or face) designated in S202, refers to the additional information of the identified still image file, and calculates the evaluation value of the image of the identified still image file. . The additional information is generated based on information obtained when the image of the still image file is captured. For example, the image processing unit 111 includes the detected face image position, size information, smile level, and the like, but other information may be used. In S204, a higher evaluation value is calculated as the size of the face image is larger, a higher evaluation value is calculated as the position of the face image is closer to the center of the image, and a higher evaluation value is calculated as the smile level is higher. The still image data of the still image file may be analyzed by the image processing unit 111 at this time to detect the position, size, and smile level of the face image. Further, an evaluation value may be calculated at the time of shooting and recorded as additional information of the still image file. Further, the evaluation value may be calculated using shooting information including focus information, YUV histogram, posture information (gyro fluctuation information), zoom information, and the like.

(S205)
次に、CPU101は、算出した評価値の高い順に静止画ファイルをソートする。
(S205)
Next, the CPU 101 sorts the still image files in descending order of the calculated evaluation value.

(S206)
次に、CPU101は、算出した評価値の高い順に「アルバム再生」の対象画像として設定する。
(S206)
Next, the CPU 101 sets the target images for “album playback” in descending order of the calculated evaluation values.

ここまでの処理により、「アルバム再生」の対象となる画像が抽出される。以降の処理では、これらの特定された画像に基づいて、「アルバム再生」の「オープニング」、「本編」、「エンディング」を生成する。   Through the processing so far, an image to be subjected to “album playback” is extracted. In the subsequent processing, “opening”, “main part”, and “ending” of “album playback” are generated based on these specified images.

(S207)
まず、CPU101は、S202で指定された人物(または顔)が4人未満であるか否かを判定する。
(S207)
First, the CPU 101 determines whether or not the number of persons (or faces) designated in S202 is less than four.

(S208)
S207で、指定された人物(または顔)が4人未満である場合(S207でYes)、CPU101は、指定された人物(または顔)の各々の含まれている画像を含む静止画ファイルを1枚ずつ選択する。各人物(または顔)毎に対応する静止画ファイルが1枚ずつ選択される。選択する静止画ファイルはたとえば、各々の人物(または顔)の評価値が最も高いものである。そのために、CPU101は、各人物(または顔)毎に、顔の大きさや笑顔度を用いて評価値を算出してもよい。また、各人物(または顔)の含まれる画像を表示部140に表示するように表示制御部141を制御し、ユーザに選択させてもよい。
(S208)
If the number of designated persons (or faces) is less than 4 in S207 (Yes in S207), the CPU 101 sets one still image file including images included in each of the designated persons (or faces). Select one by one. One still image file corresponding to each person (or face) is selected. For example, the still image file to be selected has the highest evaluation value of each person (or face). Therefore, the CPU 101 may calculate an evaluation value for each person (or face) using the face size and the smile level. In addition, the display control unit 141 may be controlled so that an image including each person (or face) is displayed on the display unit 140 and selected by the user.

(S209)
次に、CPU101は、S208で選択された各人物(または顔)毎に対応する静止画ファイルのヘッダに含まれる付加情報から、各人物(または顔)に対応する領域を特定する。そして、静止画ファイルの画像から各人物(または顔)の含まれる領域の画像を切り出すように画像処理部111を制御する。そして、CPU101は、切り出した画像に対して、各人物(または顔)に対応する名前やニックネーム(識別子)を合成した画像を生成するように画像処理部111を制御する。すなわち、各人物(または顔)に対応する名前やニックネーム(識別子)が合成された画像が1枚ずつ生成される。
(S209)
Next, the CPU 101 specifies an area corresponding to each person (or face) from the additional information included in the header of the still image file corresponding to each person (or face) selected in S208. Then, the image processing unit 111 is controlled so as to cut out an image of an area including each person (or face) from the image of the still image file. Then, the CPU 101 controls the image processing unit 111 so as to generate an image in which a name or a nickname (identifier) corresponding to each person (or face) is combined with the clipped image. That is, one image is generated by combining names and nicknames (identifiers) corresponding to each person (or face).

(S210)
次に、CPU101は、S209で生成した各人物の各人物(または顔)に対応する名前やニックネーム(識別子)が合成された画像を順番に再生するようにした「オープニング」画像セットを生成する。
(S210)
Next, the CPU 101 generates an “opening” image set in which images in which names and nicknames (identifiers) corresponding to each person (or face) of each person generated in S209 are combined are reproduced in order.

(S211)
次に、CPU101は、目標再生時間に基づいて抽出する画像の数を決定し、決定された数の画像を評価値の高い順に抽出して、時系列順に表示する「本編」を生成する。本実施例ではあらかじめ設定されている目標再生時間を3分とし、画像1枚当たりの表示時間を4秒とする。この場合、3(分)×60(秒換算)÷4(秒)=45(枚)が抽出対象の画像の数となる。そして、CPU101は、S205で評価値の高い順にソートされた静止画ファイルを評価値の高い順に抽出し、各静止画ファイルの画像を時系列順に再生する「本編」画像セットを生成する。
(S211)
Next, the CPU 101 determines the number of images to be extracted based on the target reproduction time, extracts the determined number of images in descending order of evaluation values, and generates a “main part” that is displayed in chronological order. In this embodiment, the preset target reproduction time is 3 minutes, and the display time per image is 4 seconds. In this case, 3 (minutes) × 60 (second conversion) ÷ 4 (seconds) = 45 (sheets) is the number of images to be extracted. Then, the CPU 101 extracts the still image files sorted in descending order of evaluation values in S205 in descending order of evaluation values, and generates a “main part” image set for reproducing the images of each still image file in time series.

(S220)
その後、CPU101は、「エンディング」画像を選択する。CPU101は、S202で指定された人物(または顔)に対応する画像が最も多く映っている画像を「エンディング」の画像として選択する。
(S220)
Thereafter, the CPU 101 selects an “ending” image. The CPU 101 selects, as an “ending” image, an image in which the most images corresponding to the person (or face) designated in S202 are shown.

(S221)
次に、CPU101は、「オープニング」画像セットの画像を順番に表示し、次に「本編」画像セットの画像を順番に表示し、最後に「エンディング」画像を表示するように、表示制御部141を制御する。
(S221)
Next, the CPU 101 sequentially displays the images of the “opening” image set, displays the images of the “main part” image set in order, and finally displays the “ending” image. To control.

以上のように、選択された人物が4人未満の場合には、「オープニング」画像として、選択された人物(または顔)に対応する人物の名前やニックネーム(識別子)を所定の期間(オープニング期間)に連続的に表示させる「アルバム再生」を行う。このようにして生成された「アルバム再生」画像の概念図を図3に示す。図3に示すようにオープニングにおいては各人物を示す画像とともに名前やニックネーム(識別子)が連続的に表示され、本編においては、選択されたシーンが表示され、エンディングでは、指定された人物が多く含まれる画像を表示する。   As described above, when the number of selected persons is less than four, the name or nickname (identifier) of the person corresponding to the selected person (or face) is displayed as the “opening” image for a predetermined period (opening period). ) “Album playback” is displayed continuously. A conceptual diagram of the “album playback” image generated in this way is shown in FIG. As shown in FIG. 3, in the opening, names and nicknames (identifiers) are continuously displayed along with images showing each person. In the main part, the selected scene is displayed, and the ending includes many designated persons. Display the image.

(S212)
一方、S207で、指定された人物(または顔)が4人未満でない場合(S207でNo)、CPU101は、S202で指定された人物(または顔)に対応する画像が最も多く含まれる画像を選択する。
(S212)
On the other hand, if the designated person (or face) is not less than 4 in S207 (No in S207), the CPU 101 selects the image that contains the most images corresponding to the person (or face) designated in S202. To do.

(S213)
次に、CPU101は、S206で抽出された画像のうち最も古い画像と最も新しい画像を「オープニング」の画像として選択する。そして、CPU101は、最も古い画像と最も新しい画像の撮影(記録)日時を各画像の含まれる静止画ファイルのヘッダから読みだす。そして、その情報に基づいて、再生される画像の撮影された期間を示す情報をS212で抽出した画像に合成した画像を生成するように画像処理部111を制御し、「オープニング」の画像とする。また、後述のS214で抽出された画像の期間を示す情報をS212で抽出した画像に合成した画像を「オープニング」の画像としてもよい。
(S213)
Next, the CPU 101 selects the oldest image and the newest image among the images extracted in S206 as the “opening” image. Then, the CPU 101 reads the shooting (recording) date and time of the oldest image and the newest image from the header of the still image file including each image. Based on the information, the image processing unit 111 is controlled so as to generate an image obtained by combining the information indicating the shooting period of the image to be reproduced with the image extracted in S212, so that an “opening” image is obtained. . In addition, an image obtained by combining the information indicating the period of the image extracted in S214, which will be described later, with the image extracted in S212 may be an “opening” image.

(S214)
次に、CPU101は、目標再生時間に基づいて抽出する画像の数を決定し、決定された数の画像を評価値の高い順に抽出して、時系列順に表示する「本編」を生成する。S211と同様に、45(枚)が抽出対象の画像の数とする。そして、CPU101は、S205で評価値の高い順にソートされた静止画ファイルを評価値の高い順に抽出し、各静止画ファイルの画像を時系列順に再生する「本編」画像セットを生成する。
(S214)
Next, the CPU 101 determines the number of images to be extracted based on the target reproduction time, extracts the determined number of images in descending order of evaluation values, and generates a “main part” that is displayed in chronological order. As in S211, 45 (sheets) is the number of images to be extracted. Then, the CPU 101 extracts the still image files sorted in descending order of evaluation values in S205 in descending order of evaluation values, and generates a “main part” image set for reproducing the images of each still image file in time series.

(S215)
ここで、CPU101は、「本編」画像セットに含まれる画像について、各画像の含まれる静止画ファイルの付加情報に基づいて、S202で指定された各人物(または顔)に対応する画像が初めて表示される画像を特定する。そして、CPU101は、特定された画像に初めて表示された人物(または顔)に対応する名前やニックネーム(識別子)を示す情報を合成した画像を生成するように画像処理部111を制御する。そして、各人物(または顔)に対応する画像が初めて表示される画像に対して、対応する名前やニックネーム(識別子)を合成した画像を「本編」画像セットの合成前の画像と置き換える。なお、初登場の画像に対してのみ名前やニックネームを合成しなくても、2度目に登場した画像に対して名前やニックネームを合成してもよいし、各人物について最も評価値の高い画像に名前やニックネームを合成してもよい。また、識別子は、画像に合成しなくとも、指定された各人物(または顔)に対応する画像が初めて表示されるタイミングに基づくタイミング、すなわちその画像が表示される直前や直後に表示するようにしてもよい。
(S215)
Here, for the images included in the “main part” image set, the CPU 101 displays for the first time an image corresponding to each person (or face) specified in S202 based on the additional information of the still image file included in each image. Identify the image to be played. Then, the CPU 101 controls the image processing unit 111 so as to generate an image in which information indicating a name or a nickname (identifier) corresponding to the person (or face) displayed for the first time on the identified image is generated. Then, for an image in which an image corresponding to each person (or face) is displayed for the first time, an image obtained by combining the corresponding name or nickname (identifier) is replaced with the image before combining in the “main part” image set. It should be noted that the name or nickname may not be synthesized only for the first appearance image, but the name or nickname may be synthesized for the second appearance image. Names and nicknames may be synthesized. In addition, the identifier is displayed at a timing based on the timing at which an image corresponding to each designated person (or face) is displayed for the first time, that is, immediately before or after the image is displayed, without being synthesized with the image. May be.

以降は、前述のS220、S221の処理を行う。   Thereafter, the processes of S220 and S221 described above are performed.

以上のように、選択された人物が4人未満でない場合には、「本編」において初めて指定された人物(または顔)に対応する画像に対して名前やニックネーム(識別子)を表示させる「アルバム再生」を行う。このようにして生成された「アルバム再生」画像の概念図を図4に示す。図4に示すようにオープニングにおいては指定された人物が多く含まれる画像とともに、表示する画像の撮影期間を示す情報を表示する。本編においては、選択されたシーンが表示されるとともに、「本編」において初めて指定された人物(または顔)に対応する画像に対して名前やニックネーム(識別子)を表示する。そして、エンディングにおいては指定された人物が多く含まれる画像を表示する。このように、選択された人物が4人未満でない場合には、「本編」において初めて指定された人物(または顔)に対応する画像に対して名前やニックネーム(識別子)を表示させ、「オープニング」においては、各人物を示す情報を表示しない。   As described above, when the number of selected persons is not less than four, “album playback” that displays names and nicknames (identifiers) on the image corresponding to the person (or face) specified for the first time in the “main part” "I do. FIG. 4 shows a conceptual diagram of the “album playback” image generated in this way. As shown in FIG. 4, in the opening, information indicating a shooting period of an image to be displayed is displayed together with an image including many designated persons. In the main part, the selected scene is displayed, and a name and a nickname (identifier) are displayed for an image corresponding to a person (or face) designated for the first time in the “main part”. In the ending, an image including many designated persons is displayed. As described above, when the number of selected persons is not less than 4, the name or nickname (identifier) is displayed for the image corresponding to the person (or face) specified for the first time in the “main part”, and “opening” is performed. In, information indicating each person is not displayed.

図2に示したように、本実施例の撮像装置は、指定された人物(または顔)の数が所定数未満か、所定数以上かに応じて、指定された指定された人物(または顔)の識別子を表示するタイミングを異ならせた。所定数より少ない場合には、「オープニング」という所定の期間内に連続して指定された指定された人物(または顔)の識別子を表示するようにした。一方、所定数以上の場合には「オープニング」ではなくその後の「本編」において、指定された人物に対応する画像を最初に表示するタイミングで、指定された指定された人物(または顔)の識別子を表示するようにした。このようにすることによって、「アルバム再生」を視聴するユーザにとって見易いスライドショーまたは、変化に富んだスライドショーを提供することができる。   As illustrated in FIG. 2, the imaging apparatus according to the present exemplary embodiment is configured so that the designated person (or face) designated according to whether the number of designated persons (or faces) is less than the predetermined number or more than the predetermined number. ) The identifier display timing was changed. When the number is smaller than the predetermined number, the identifier of the specified person (or face) specified continuously within the predetermined period of “opening” is displayed. On the other hand, when the number is greater than or equal to the predetermined number, the identifier of the designated person (or face) designated at the timing of first displaying an image corresponding to the designated person in the “main part” instead of “opening” Was displayed. By doing in this way, it is possible to provide a slide show that is easy to see for the user who views “album playback” or a slide show that is rich in change.

なお、「アルバム再生」をユーザが確認し、「保存」操作を行った場合は、静止画ファイルすべてについて、伸張された画像を4秒分のフレーム画像とする動画データを生成するように画像処理部111を制御する。そして生成された動画データを時系列順に再生する動画データを生成するように画像処理部111を制御し、生成された一連の動画データを動画ファイルとして記録媒体151に記録するように記録再生部150を制御する。   In addition, when the user confirms “play album” and performs “save” operation, image processing is performed so as to generate moving image data in which all the still image files have the expanded image as a frame image for 4 seconds. The unit 111 is controlled. Then, the image processing unit 111 is controlled to generate moving image data that reproduces the generated moving image data in time series, and the recording / reproducing unit 150 records the generated moving image data as a moving image file on the recording medium 151. To control.

本実施例では、静止画ファイルを用いた「アルバム再生」を例にとって説明したが、動画ファイルを用いた「アルバム再生」を行ってもよい。また、動画ファイルと静止画ファイルの両方を用いた「アルバム再生」を行ってもよい。なお、動画ファイルを用いた「アルバム再生」を行う場合は、動画ファイル内の評価値が高いシーンの4秒を再生するようにシーンの抽出を行ってもよい。また、本実施例の動画静止画撮影モードで撮影された静止画ファイルに基づいて評価を行った場合は、抽出された静止画ファイルに対応するシーンの動画データを静止画ファイルの代わりに「アルバム再生」の対象としてもよい。   In this embodiment, “album playback” using a still image file has been described as an example, but “album playback” using a moving image file may be performed. Further, “album playback” using both a moving image file and a still image file may be performed. When “album playback” using a moving image file is performed, the scene may be extracted so as to reproduce 4 seconds of a scene having a high evaluation value in the moving image file. In addition, when the evaluation is performed based on the still image file shot in the moving image still image shooting mode of the present embodiment, the movie data of the scene corresponding to the extracted still image file is displayed as “album” instead of the still image file. It may be a target of “reproduction”.

また、本実施例の「動画静止画撮影モード」で撮影された動画データと、静止画データ、「静止画撮影モード」で撮影された静止画データを「アルバム再生」の対象とする場合は、たとえば、10個選択するうちの2個または3個を動画データとする。本実施例では「動画静止画撮影モード」で撮影された動画データは対応する静止画ファイルに撮影中の動作に関する情報や、人間の顔の検出された位置、大きさ、笑顔度の情報が格納されている。そこでCPU101は、その情報に基づいて動画データの評価値を算出し、あるクラスタに分類された動画データのうち評価値の高いシーン(静止画記録の指示の直前の4秒にあたる動画でデータ)を抽出する。一方静止画については静止画ファイルのうち評価値の高いものを抽出対象とする。なお、抽出された動画データにストップモーション動画が含まれている場合は、同じ画像である静止画については評価値が高くとも抽出対象としないようにしてもよい。   In addition, when moving image data shot in the “movie still image shooting mode” of this embodiment, still image data, and still image data shot in the “still image shooting mode” are targeted for “album playback”, For example, two or three of the ten selections are moving image data. In this embodiment, moving image data shot in the “moving image still image shooting mode” stores information on the operation during shooting, and information on the detected position, size, and smile level of the human face in the corresponding still image file. Has been. Therefore, the CPU 101 calculates an evaluation value of the moving image data based on the information, and selects a scene having a high evaluation value (data in the moving image corresponding to 4 seconds immediately before the instruction to record a still image) among the moving image data classified into a certain cluster. Extract. On the other hand, regarding still images, those having a high evaluation value among the still image files are extracted. If the extracted moving image data includes a stop motion moving image, the still image that is the same image may not be extracted even if the evaluation value is high.

また、本実施例において、指定された人物(または顔)を示す情報を合成する位置については、画像中の人間の顔の領域に対応する位置に指定された人物(または顔)を示す情報が重ならないように配置を変更する。また、指定された人物(または顔)を示す情報は、表示している画像を透過して見えるようにアルファブレンド等の技術を用いて合成される。   Further, in the present embodiment, with respect to the position where the information indicating the designated person (or face) is synthesized, the information indicating the person (or face) designated at the position corresponding to the human face area in the image is included. Change the layout so that they do not overlap. Information indicating the designated person (or face) is synthesized using a technique such as alpha blending so that the displayed image can be seen through.

なお、評価値のうちどの評価値が高い静止画ファイルを優先するか、優先される評価値を設定できるようにしてもよい。   It should be noted that it may be possible to set a priority evaluation value as to which still image file has a higher evaluation value among the evaluation values.

また、指定された人物(または顔)の生年月日をさらに「辞書」として関連付けて登録しておくことにより、指定された人物(または顔)の識別子を表示する際に、撮影当時の年齢を表示してもよい。すなわち、辞書に登録された生年月日と表示中の画像の撮影日時から年齢を計算して、表示する。また、所定の年齢未満の場合には、月齢まで表示するようにしてもよい。また、所定の年齢以上の場合には、年齢を表示しないようにしてもよい。また、年齢が「アルバム再生」中に変化した場合に、名前と年齢を改めて表示するようにしてもよい。   Also, by registering the date of birth of the specified person (or face) as a “dictionary”, the age at the time of shooting is displayed when displaying the identifier of the specified person (or face). It may be displayed. That is, the age is calculated from the date of birth registered in the dictionary and the shooting date and time of the displayed image, and displayed. Moreover, when it is younger than predetermined age, you may make it display to the moon age. In addition, when it is over a predetermined age, the age may not be displayed. Further, when the age changes during “album playback”, the name and age may be displayed again.

なお、本実施例では、撮像装置を例にとって説明したが、複数の動画または静止画またはその両方を再生することができる装置であればどのような装置でも良い。たとえば、携帯電話、スマートフォン、タブレット型情報端末、ノート型情報端末、コンピュータ等であってもよい。   In this embodiment, the image pickup apparatus has been described as an example. However, any apparatus may be used as long as it can reproduce a plurality of moving images and / or still images. For example, a mobile phone, a smartphone, a tablet information terminal, a notebook information terminal, a computer, or the like may be used.

(他の実施形態)
上述の実施形態は、システム或は装置のコンピュータ(或いはCPU、MPU等)によりソフトウェア的に実現することも可能である。従って、上述の実施形態をコンピュータで実現するために、該コンピュータに供給されるコンピュータプログラム自体も本発明を実現するものである。つまり、上述の実施形態の機能を実現するためのコンピュータプログラム自体も本発明の一つである。
(Other embodiments)
The above-described embodiment can also be realized in software by a computer of a system or apparatus (or CPU, MPU, etc.). Therefore, the computer program itself supplied to the computer in order to implement the above-described embodiment by the computer also realizes the present invention. That is, the computer program itself for realizing the functions of the above-described embodiments is also one aspect of the present invention.

なお、上述の実施形態を実現するためのコンピュータプログラムは、コンピュータで読み取り可能であれば、どのような形態であってもよい。例えば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等で構成することができるが、これらに限るものではない。上述の実施形態を実現するためのコンピュータプログラムは、記憶媒体又は有線/無線通信によりコンピュータに供給される。プログラムを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記憶媒体、MO、CD、DVD等の光/光磁気記憶媒体、不揮発性の半導体メモリなどがある。   The computer program for realizing the above-described embodiment may be in any form as long as it can be read by a computer. For example, it can be composed of object code, a program executed by an interpreter, script data supplied to the OS, but is not limited thereto. A computer program for realizing the above-described embodiment is supplied to a computer via a storage medium or wired / wireless communication. Examples of the storage medium for supplying the program include a magnetic storage medium such as a flexible disk, a hard disk, and a magnetic tape, an optical / magneto-optical storage medium such as an MO, CD, and DVD, and a nonvolatile semiconductor memory.

有線/無線通信を用いたコンピュータプログラムの供給方法としては、コンピュータネットワーク上のサーバを利用する方法がある。この場合、本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムファイル)をサーバに記憶しておく。プログラムファイルとしては、実行形式のものであっても、ソースコードであっても良い。そして、このサーバにアクセスしたクライアントコンピュータに、プログラムファイルをダウンロードすることによって供給する。この場合、プログラムファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバに分散して配置することも可能である。つまり、上述の実施形態を実現するためのプログラムファイルをクライアントコンピュータに提供するサーバ装置も本発明の一つである。   As a computer program supply method using wired / wireless communication, there is a method of using a server on a computer network. In this case, a data file (program file) that can be a computer program forming the present invention is stored in the server. The program file may be an executable format or a source code. Then, the program file is supplied by downloading to a client computer that has accessed the server. In this case, the program file can be divided into a plurality of segment files, and the segment files can be distributed and arranged on different servers. That is, a server apparatus that provides a client computer with a program file for realizing the above-described embodiment is also one aspect of the present invention.

また、上述の実施形態を実現するためのコンピュータプログラムを暗号化して格納した記憶媒体を配布し、所定の条件を満たしたユーザに、暗号化を解く鍵情報を供給し、ユーザの有するコンピュータへのインストールを許可してもよい。鍵情報は、例えばインターネットを介してホームページからダウンロードさせることによって供給することができる。また、上述の実施形態を実現するためのコンピュータプログラムは、すでにコンピュータ上で稼働するOSの機能を利用するものであってもよい。さらに、上述の実施形態を実現するためのコンピュータプログラムは、その一部をコンピュータに装着される拡張ボード等のファームウェアで構成してもよいし、拡張ボード等が備えるCPUで実行するようにしてもよい。   In addition, a storage medium in which the computer program for realizing the above-described embodiment is encrypted and distributed is distributed, and key information for decrypting is supplied to a user who satisfies a predetermined condition, and the user's computer Installation may be allowed. The key information can be supplied by being downloaded from a homepage via the Internet, for example. Further, the computer program for realizing the above-described embodiment may use an OS function already running on the computer. Further, a part of the computer program for realizing the above-described embodiment may be configured by firmware such as an expansion board attached to the computer, or may be executed by a CPU provided in the expansion board. Good.

Claims (15)

記録媒体に記録された画像データを再生する再生手段と、
指定された特徴画像を含む画像を抽出する抽出手段と、
前記抽出手段により抽出された画像と前記指定された特徴画像に関連づけられた識別子とを表示部に表示させる表示制御手段とを有し、
前記特徴画像を複数指定することが可能であって、
前記表示制御手段は、前記指定された特徴画像が所定数未満である場合と、所定数以上である場合とで、前記識別子の表示タイミングを異ならせることを特徴とする画像処理装置。
Reproducing means for reproducing image data recorded on the recording medium;
Extraction means for extracting an image containing the specified feature image,
Have a display control means for displaying an identifier associated with the feature image which is the designated extracted image by said extraction means on a display unit,
It is possible to specify a plurality of the feature images,
The image processing apparatus , wherein the display control unit varies the display timing of the identifier depending on whether the designated feature image is less than a predetermined number or more than a predetermined number .
前記表示制御手段は、前記指定された特徴画像が所定数未満である場合は、前記識別子を連続して表示することを特徴とする請求項に記載の画像処理装置。 The display control means may control, when the designated feature image is less than the predetermined number, the image processing apparatus according to claim 1, characterized in that continuously displaying the identifier. 前記表示制御手段は、前記指定された特徴画像が所定数未満である場合は、前記識別子を最初の所定の期間に表示することを特徴とする請求項1または2に記載の画像処理装置。 The display control means may control, when the designated feature image is less than the predetermined number, the image processing apparatus according to claim 1 or 2, characterized in that displaying the identifier for the first predetermined time period. 前記表示制御手段は、前記指定された特徴画像が所定数以上である場合は、最初の所定の期間に表示しないことを特徴とする請求項1ないし3のいずれか1項に記載の画像処理装置。 The display control means may control, when the designated feature image is equal to or more than a predetermined number, image processing according to any one of claims 1 characterized in that it does not appear in the first predetermined period 3 apparatus. 前記表示制御手段は、前記指定された特徴画像が所定数以上である場合は、前記識別子を前記指定された特徴画像が最初の所定の期間に表示されるタイミングに基づくタイミングで前記識別子を表示することを特徴とする請求項1ないし4のいずれか1項に記載の画像処理装置。 The display control means may control, when the designated feature image is equal to or more than a predetermined number, the identifier at the timing based on the timing of feature images of the identifier is the designation is displayed in the first predetermined period of time The image processing apparatus according to claim 1 , wherein the image processing apparatus displays the image. 記特徴画像は、ユーザの操作に応じて指定されることを特徴とする請求項1ないし5のいずれか1項に記載の画像処理装置。 Before Kitoku symptom image, the image processing apparatus according to any one of claims 1, characterized in that it is designated 5 in response to the user's operation. 記特徴画像は、表示されている画像に基づいて指定されることを特徴とする請求項1ないし6のいずれか1項に記載の画像処理装置。 Before Kitoku symptom image, the image processing apparatus according to any one of claims 1 to 6, characterized in that it is specified on the basis of the image being displayed. 記録媒体に記録された画像データを再生する再生ステップと、
指定された特徴画像を含む画像を抽出する抽出ステップと、
前記抽出ステップで抽出された画像と前記特徴画像に関連づけられた識別子とを表示部に表示させる表示制御ステップとを有し、
前記特徴画像は複数指定されることが可能であって、
前記表示制御ステップにおいて、前記指定された特徴画像が所定数未満である場合と、所定数以上である場合とで、前記識別子の表示タイミングを異ならせることを特徴とする画像処理方法。
A reproduction step of reproducing the image data recorded on the recording medium;
An extraction step of extracting an image containing the specified feature image,
Have a display control step of displaying the identifier associated with the extracted image and the previous Kitoku symptoms image by the extraction step on a display unit,
A plurality of the feature images can be designated,
In the display control step, the display timing of the identifier is different depending on whether the designated feature image is less than a predetermined number or more than a predetermined number .
前記表示制御ステップは、前記指定された特徴画像が所定数未満である場合は、前記識別子を連続して表示することを特徴とする請求項に記載の画像処理方法。 Wherein the display control step, if said specified feature image is less than the predetermined number, the image processing method according to claim 8, characterized in that continuously displaying the identifier. 前記表示制御ステップは、前記指定された特徴画像が所定数未満である場合は、前記識別子を最初の所定の期間に表示することを特徴とする請求項8または9に記載の画像処理方法。 Wherein the display control step, if said specified feature image is less than the predetermined number, the image processing method according to claim 8 or 9, characterized in that displaying the identifier for the first predetermined time period. 前記表示制御ステップにおいて、前記指定された特徴画像が所定数以上である場合は、最初の所定の期間に表示しないことを特徴とする請求項8ないし10のいずれか1項に記載の画像処理方法。 In the display control step, if said specified feature image is equal to or more than a predetermined number, image processing according to any one of claims 8 characterized in that it does not appear in the first predetermined period of time 10 Method. 前記表示制御ステップにおいて、前記指定された特徴画像が所定数以上である場合は、前記識別子を前記指定された特徴画像が最初の所定の期間に表示されるタイミングに基づくタイミングで前記識別子を表示することを特徴とする請求項8ないし11のいずれか1項に記載の画像処理方法。 In the display control step, if said specified feature image is equal to or more than a predetermined number, the identifier at the timing based on the timing of feature images of the identifier is the designation is displayed in the first predetermined period of time The image processing method according to claim 8, wherein the image processing method is displayed. 記特徴画像は、ユーザの操作に応じて指定されることを特徴とする請求項8ないし12のいずれか1項に記載の画像処理方法。 Before Kitoku symptom image, image processing method according to any one of claims 8 to 12, characterized in that it is specified according to a user operation. 記特徴画像は、表示されている画像に基づいて指定されることを特徴とする請求項8ないし13のいずれか1項に記載の画像処理装置。 Before Kitoku symptom image, the image processing apparatus according to any one of claims 8 to 13, characterized in that it is specified on the basis of the image being displayed. コンピュータに請求項8ないし14のいずれか1項に記載の画像処理方法を実行させるためのプログラム。 The program for making a computer perform the image processing method of any one of Claims 8 thru | or 14 .
JP2013272050A 2013-12-27 2013-12-27 Image processing apparatus, image processing method, and program Active JP6292872B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013272050A JP6292872B2 (en) 2013-12-27 2013-12-27 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013272050A JP6292872B2 (en) 2013-12-27 2013-12-27 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2015126517A JP2015126517A (en) 2015-07-06
JP6292872B2 true JP6292872B2 (en) 2018-03-14

Family

ID=53536890

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013272050A Active JP6292872B2 (en) 2013-12-27 2013-12-27 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6292872B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10658006B2 (en) 2015-11-18 2020-05-19 Casio Computer Co., Ltd. Image processing apparatus that selects images according to total playback time of image data, image selection method, and computer-readable medium
JP6341184B2 (en) * 2015-11-18 2018-06-13 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
JP6362634B2 (en) * 2016-02-05 2018-07-25 株式会社バンダイナムコエンターテインメント Image generation system, game device, and program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3035391B2 (en) * 1991-09-27 2000-04-24 京セラ株式会社 Electronic still camera
JP2000354227A (en) * 1999-06-10 2000-12-19 Nikon Gijutsu Kobo:Kk Television receiver capable of storing digital still image
JP4230870B2 (en) * 2003-09-25 2009-02-25 富士フイルム株式会社 Movie recording apparatus, movie recording method, and program
US7822233B2 (en) * 2003-11-14 2010-10-26 Fujifilm Corporation Method and apparatus for organizing digital media based on face recognition
JP4896838B2 (en) * 2007-08-31 2012-03-14 カシオ計算機株式会社 Imaging apparatus, image detection apparatus, and program
JP2010252011A (en) * 2009-04-15 2010-11-04 Nikon Corp Imaging device
JP2011119936A (en) * 2009-12-02 2011-06-16 Panasonic Corp Photographing device and reproducing method

Also Published As

Publication number Publication date
JP2015126517A (en) 2015-07-06

Similar Documents

Publication Publication Date Title
JP5877895B2 (en) Video summary including a given person
JP5857122B2 (en) Video summary including features of interest
WO2011149648A2 (en) Determining key video snippets using selection criteria to form a video summary
EP2573759A2 (en) Display apparatus and method
KR20120068078A (en) Image photographing apparatus and method for connecting audio data to image data thereof
US20110292229A1 (en) Ranking key video frames using camera fixation
KR20120081516A (en) Digital photographing apparatus and control method thereof
JP6292872B2 (en) Image processing apparatus, image processing method, and program
KR20090131220A (en) Imaging apparatus and method of controlling the same
KR20130031176A (en) Display apparatus and method
JP6355333B2 (en) Imaging apparatus, image processing apparatus, image processing method, and program
JP2011119936A (en) Photographing device and reproducing method
JP6249771B2 (en) Image processing apparatus, image processing method, and program
KR101748576B1 (en) Apparatus and method for segmenting video data in mobile communication teminal
JP6296791B2 (en) Image processing apparatus, image processing method, and program
JP5368614B2 (en) Image search apparatus and image search method
JP5665380B2 (en) Image processing apparatus, image processing apparatus control method, program, and recording medium
JP6643081B2 (en) Album moving image generating apparatus, album moving image generating method, and program
JP5050115B2 (en) Electronic device, image display method, and content reproduction program
JP2012191503A (en) Image recorder, image reproducer and image recording/reproduction system
JP2015130627A (en) Image reproducing apparatus and image reproducing apparatus control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180213

R151 Written notification of patent or utility model registration

Ref document number: 6292872

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151