JP6292872B2 - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP6292872B2 JP6292872B2 JP2013272050A JP2013272050A JP6292872B2 JP 6292872 B2 JP6292872 B2 JP 6292872B2 JP 2013272050 A JP2013272050 A JP 2013272050A JP 2013272050 A JP2013272050 A JP 2013272050A JP 6292872 B2 JP6292872 B2 JP 6292872B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- identifier
- display control
- designated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Description
本発明は、画像処理装置、画像処理方法、プログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.
従来、画像処理置として、被写体を撮像して得られた画像データを静止画または動画として記録媒体に記録するデジタルカメラが知られている。近年、このようなデジタルカメラにおいては、大量の撮影が可能となったため閲覧性を向上させる技術が求められている。たとえば特許文献1のように、テレビ番組などの動画の中から音量が大きいシーンだけを抽出して再生するような技術が提案されてきている。
2. Description of the Related Art Conventionally, as an image processing apparatus, a digital camera that records image data obtained by imaging a subject on a recording medium as a still image or a moving image is known. In recent years, in such a digital camera, since a large amount of photography has become possible, a technique for improving the viewability is required. For example, as in
しかしながら、特許文献1では、ダイジェスト再生に登場する人物や場所を示す情報を表示するようなことはできなかった。
However, in
そこで、本発明は、抽出されるシーンに関連する情報を表示することができる画像処理装置を提供することを目的とする。 SUMMARY An advantage of some aspects of the invention is that it provides an image processing apparatus capable of displaying information related to an extracted scene.
このような目的を達成するために、本発明の画像処理装置は、
記録媒体に記録された画像データを再生する再生手段と、指定された特徴画像を含む画像を抽出する抽出手段と、抽出手段により抽出された画像と指定された特徴画像に関連づけられた識別子とを表示部に表示させる表示制御手段とを有し、特徴画像を複数指定することが可能であって、表示制御手段は、指定された特徴画像が所定数未満である場合と、所定数以上である場合とで、識別子の表示タイミングを異ならせることを特徴とする。
In order to achieve such an object, the image processing apparatus of the present invention provides :
Reproducing means for reproducing image data recorded on a recording medium, extracting means for extracting an image including a designated feature image, an image extracted by the extracting means, and an identifier associated with the designated feature image Display control means for displaying on the display unit, and it is possible to specify a plurality of feature images, and the display control means includes a case where the specified feature images are less than a predetermined number and a predetermined number or more. The display timing of the identifier is different depending on the case.
本発明によれば、抽出されるシーンに関連する情報を表示することができる。 According to the present invention, information related to an extracted scene can be displayed.
以下、図面を参照して本発明の実施例を詳細に説明するが、この発明は以下の実施の形態に限定されない。なお、以下の実施の形態は特許請求の範囲に係る発明を限定するものでなく、また実施の形態で説明されている特徴の組み合わせの全てが発明の解決手段に必須のものとは限らない。 Hereinafter, examples of the present invention will be described in detail with reference to the drawings. However, the present invention is not limited to the following embodiments. The following embodiments do not limit the invention according to the claims, and all combinations of features described in the embodiments are not necessarily essential to the solution means of the invention.
なお、本実施例において説明される各機能ブロックは必ずしも個別のハードウェアである必要はない。すなわち、例えばいくつかの機能ブロックの機能は、1つのハードウェアにより実行されても良い。また、いくつかのハードウェアの連係動作により1つの機能ブロックの機能または、複数の機能ブロックの機能が実行されても良い。また、各機能ブロックの機能は、CPUがメモリ上に展開したコンピュータプログラムにより実行されても良い。 Note that each functional block described in the present embodiment is not necessarily separate hardware. That is, for example, the functions of some functional blocks may be executed by one piece of hardware. In addition, the function of one functional block or the functions of a plurality of functional blocks may be executed by some hardware linked operations. Further, the function of each functional block may be executed by a computer program developed on the memory by the CPU.
(実施例1)
本実施例では、画像処理装置の例として撮像装置を説明するが、複数の動画または静止画またはその両方を再生することができる装置であればどのような装置でも良い。たとえば、携帯電話、スマートフォン、タブレット型情報端末、ノート型情報端末、コンピュータ等であってもよい。また、本実施例において動画ファイル、静止画ファイルを総称して画像ファイルと表現することがある。また、本実施例において、動画データ、静止画データを総称して画像データを表現することもある。
Example 1
In this embodiment, an imaging apparatus will be described as an example of an image processing apparatus. However, any apparatus may be used as long as it can reproduce a plurality of moving images and / or still images. For example, a mobile phone, a smartphone, a tablet information terminal, a notebook information terminal, a computer, or the like may be used. In this embodiment, a moving image file and a still image file are sometimes collectively referred to as an image file. In the present embodiment, moving image data and still image data may be collectively referred to as image data.
本実施例の撮像装置は、記録媒体に記録された動画または静止画またはその両方を再生することができる。本実施例の撮像装置は、指定された人物(または顔)に関連する画像を、記録媒体に記録された複数の画像から抽出して、その画像を順次表示することができる。本実施例では、あらかじめ、指定された人物の顔等の特徴画像とその識別子(名前やニックネーム等)を関連付けた「辞書」に登録されており、その識別子を、抽出された画像を順次表示する際に表示する。さらに、本実施例では、抽出された画像に含まれる人物の数に応じて、識別子を表示するタイミングを異ならせることができる。 The imaging apparatus according to the present embodiment can reproduce a moving image and / or a still image recorded on a recording medium. The imaging apparatus according to the present exemplary embodiment can extract images related to a designated person (or face) from a plurality of images recorded on a recording medium, and sequentially display the images. In this embodiment, a feature image such as a designated person's face and its identifier (name, nickname, etc.) are registered in advance in a “dictionary”, and the extracted image is sequentially displayed. Display when. Furthermore, in the present embodiment, the timing for displaying the identifier can be varied according to the number of persons included in the extracted image.
このような構成とすることで、本実施例の撮像装置は、抽出されるシーンに関連する情報を表示することができる。また、人物(または顔)に関連付けられた識別子の表示するタイミングを異ならせることで、たとえばユーザにとって見易いスライドショーまたは変化に富んだスライドショーを提供するができる。以下、このような撮像装置について説明する。 With such a configuration, the imaging apparatus of the present embodiment can display information related to the extracted scene. Also, by changing the display timing of the identifier associated with the person (or face), for example, a slide show that is easy to see for the user or a slide show that is rich in change can be provided. Hereinafter, such an imaging apparatus will be described.
<全体構成>
まず、図1を用いて、本実施例の撮像装置100の構成を説明する。
<Overall configuration>
First, the configuration of the
本実施例の撮像装置100は、図1に示すように、CPU101と、RAM102と、ROM103と、操作部104とを有する。また、撮像装置100は、第1撮像部110と、画像処理部111と、第2撮像部112と、集音部120と、音声処理部121とを有する。また、撮像装置100は、表示部140と、表示制御部141と、記録再生部150と、記録媒体151と、姿勢検出部160とを有する。なお、CPUは、Central Processing Unitの略称である。RAMは、Random Access Memoryの略称である。ROMは、Read Only Memoryの略称である。
As illustrated in FIG. 1, the
本実施例の撮像装置100において、CPU101は、RAM102をワークメモリとしてROM103に記録された各種プログラムをRAM102に展開し、プログラムに応じて撮像装置100の各ブロックを制御する。操作部104は、例えば、電源ボタン、記録ボタン、ズーム調整ボタン、オートフォーカスボタン、メニュー表示ボタン、モード切替スイッチ、決定ボタン等の各種操作を入力するスイッチ類を有する。また、カーソルキー、ポインティングデバイス、タッチパネル、ダイヤル等のどのようなタイプの操作子であってもよい。操作部104は、ユーザによりこれらのキーやボタン、タッチパネルが操作されるとCPU101に操作信号を送信する。操作部104の各操作部材は、表示部に表示される種々の機能アイコンを選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部に表示される。利用者は、表示部に表示されたメニュー画面と、上下左右の4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。なお、操作部104は、表示部に対する接触を検知可能なタッチパネルであってもよい。タッチパネルは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。
In the
第1撮像部110は、第2撮像部112は、レンズにより取り込まれた被写体の光学像を、絞りにより光量を制御して、CCDセンサやCMOSセンサ等の撮像素子により画像信号に変換する。また第1撮像部110は、第2撮像部112は、得られたアナログ画像信号をデジタル画像信号に変換して一時的にRAM102に記憶する。画像処理部111は、記録時にはRAM102に記憶された画像データを処理し、再生時には、後述の記録媒体151から読みだされた画像データを処理する。画像処理部111は、画像データのホワイトバランス調整、ゲイン調整、色強調処理等様々な処理を行う。画像処理部111は処理した画像データを、表示制御部141に送信したり、記録再生部150や通信部に送信したりする。また、画像処理部111は、H.264/AVCやMotionJPEG2000、H.265等の動画圧縮技術を用いて画像を動画として圧縮したり、JPEGやJPEG2000等の静止画圧縮技術を用いて画像を静止画として圧縮したりすることもできる。圧縮形式はこれらの形式によらず他の方式を用いてもよい。
In the first imaging unit 110, the
なお、本実施例の画像処理部111は、第1撮像部110、第2撮像部112により得られた画像を解析し、画像内に人間や顔に対応する画像が含まれるかを検出したり、表情を検出したりすることもできる。検出方法は、さまざまな方式があるがたとえば、人間や顔の特徴画像とのパターンマッチングを行うことで検出することができる。顔を検出した場合には、サイズ、位置をRAM102に記憶させる。また顔が検出された場合には顔画像のエッジ検出を行い、笑顔レベルを判定する。これらの検出情報は静止画または動画の撮影が行われたときに、対象の画像データを含む画像ファイルのヘッダ等に格納される。
The
音声処理部121は、記録時には、集音部120により集音して得られた音声データを処理し、再生時には、後述の記録媒体151から読みだされた圧縮または非圧縮の音声データを処理する。たとえば、音声データのレベル調整処理、圧縮された音声データの伸張処理、音声データの圧縮処理等を行う。音声処理部121は、処理した音声データを、記録再生部150や通信部に送信したり、再生時にはスピーカに送信したりする。なお、集音部120は、たとえば、撮像装置100のハウジング内に内蔵された複数の無指向性の音声を集音するマイクである。また、音声処理部121では音声圧縮方式として、たとえば、AC3、AAC等の公知の一般的な音声圧縮方式を用いる。
The
表示部140は、例えば、液晶表示デバイス、または有機EL表示デバイスなどからなり、表示制御部141の制御により画像を表示する。表示部140は、LEDディスプレイなど、ユーザに画像を提供することができればどのようなものであっても良い。表示制御部141では、画像処理部111により処理された画像データに基づいて、表示部140に画像を表示する。また、表示制御部141は、表示部140に表示するデジタル画像信号に基づく映像信号に対し、マトリクス変換、ブライト調整、コントラスト調整、ガンマ調整、クロマゲイン調整、シャープネス調整等の画像信号処理を行ってもよい。
The
記録再生部150は、記録時においては、画像処理部111により処理された画像データや音声データを記録媒体151に記録し、再生時においては、記録媒体151に記録された画像データや音声データを再生する。記録再生部150は、記録時においては、画像データや音声データとともに、撮影日や、圧縮に関する情報、撮像部110の設定等の各種情報を記録媒体151に書き込む。なお、記録再生部150は、画像データや音声データを記録媒体151に記録する際は、たとえばFATやexFAT等のファイルフォーマットに適合した形でファイルとして記録媒体に記録する。また、記録媒体151は、撮像装置に内蔵された記録媒体でも、取外し可能な記録媒体でもよい。例えば、ハードディスク、光ディスク、光磁気ディスク、CD−R、DVD−R、磁気テープ、不揮発性の半導体メモリ、フラッシュメモリ、などのあらゆる方式の記録媒体を含む。取り外し可能な記録媒体を用いる場合には、記録再生部150は、それらの取り外し可能な記録媒体を装着、排出するための機構を含む。
The recording / reproducing
姿勢検出部160は、撮像装置100の姿勢を検出するものであって、たとえば、角度センサや加速度センサなどである。本実施例の姿勢検出部160は、撮像装置100の姿勢が、正位置であるか縦位置であるかを検出する。例えば撮像装置100の第1撮像部110の光軸を中心とした回転姿勢角度(0度、90度、180度、270度)を検出することができる。ここで、0度はいわゆる正位置(撮像装置100の上面が上空方向を向いている状態)であり、180度は逆位置(撮像装置100の上面が地面方向を向いている状態)である。90度、270度とはいわゆる縦位置(撮像装置100の左右面のいずれかが地面方向を向いている状態)である。
The
なお、本実施例の第1撮像部110(第1の撮像部)、第2撮像部112(第2の撮像部)はそれぞれ、異なる方向の被写体を撮像するものである。具体的には、第2の撮像部112は、撮影者(いわゆるカメラマン)を撮影するためのサブカメラであり、第1撮像部110は、撮影者が撮影しようとしている被撮影者(いわゆる被写体)を撮影するためのメインカメラである。したがって、たとえば、第1撮像部110と、第2撮像部112は、逆方向を撮影するものであるが、必ずしも逆方向でなくともよい。
Note that the first imaging unit 110 (first imaging unit) and the second imaging unit 112 (second imaging unit) of the present embodiment each capture subjects in different directions. Specifically, the
ここで、画像処理部111、音声処理部121、表示制御部141、記録再生部150は、それぞれ、前述の各機能を実行するプログラムを搭載したマイクロコンピュータであってもよい。また、CPU101がROM103に記録された前述の処理を実行する為のプログラムをRAM102に展開して実行するようにしてもよい。
Here, each of the
<撮像装置100の動作>
続いて、本実施例の撮像装置100の動作について説明する。本実施例の撮像装置100は、「静止画撮影モード」、「動画撮影モード」、「再生モード」のほかに、「動画静止画撮影モード」を有する。各モードにおいて、CPU101は、撮像装置100の各ブロックを制御して以下の動作を行わせる。
<Operation of
Subsequently, the operation of the
「静止画撮影モード」、「動画撮影モード」では、撮影の指示が入力されるまでの間、第1撮像部110により得られた画像のみまたは、第1撮像部110により得られた画像と第2撮像部112により得られた画像を合成した画像を表示部140に表示させる。すなわち、各撮像部により得られた画像を画像処理部111で処理し、表示部140に表示させるように表示制御部141を制御する。そして、撮影の指示が入力されると、画像処理部111に、各撮像部により得られた画像を動画または静止画として圧縮させ、圧縮した画像を順次記録媒体151に記録するように記録再生部150を制御する。「静止画撮影モード」の場合は撮影の指示に対応するタイミングで各撮像部により得られた画像を1枚または複数枚をたとえばJPEGを用いて圧縮するように画像処理部111を制御する。そして、圧縮された静止画データを記録媒体151に静止画ファイルとして記録するように記録再生部150を制御する。一方「動画撮影モード」においては、撮影の指示に対応するタイミングで各撮像部により得られた画像から順次得られる画像をフレーム画像とする動画をたとえばH.265を用いて圧縮するように画像処理部111を制御する。そして、圧縮された動画データを記録媒体151に動画ファイルとして記録するように記録再生部150を制御する。なお、「動画撮影モード」においては、撮影終了の指示が入力されるまでこの動作を継続する。また、「静止画撮影モード」、「動画撮影モード」において、静止画ファイル、動画ファイルには、各モードで撮影された画像に基づくサムネイル画像(静止画データ)が付加されて記録媒体151に記録される。
In the “still image shooting mode” and “moving image shooting mode”, only the image obtained by the first imaging unit 110 or the image obtained by the first imaging unit 110 and the first image until the shooting instruction is input. 2 The image obtained by combining the images obtained by the
「動画静止画撮影モード」では、静止画記録の指示が入力されたときに、静止画撮影、静止画記録を行うとともに、静止画記録の指示が入力される直前の4秒間の動画データを記録媒体に記録する。そして、同じ日に、「動画静止画撮影モード」で、複数回の静止画記録の指示が入力された場合には、静止画記録の指示が入力される直前の4秒間の動画データを一つの動画ファイルに追記して記録する。このようにすることで、1日分の静止画撮影直前の動画データを一つの動画ファイルに格納し、閲覧性を向上させることができる。「動画静止画撮影モード」では、CPU101は、撮影の指示が入力されるまでの間、第1撮像部110により得られた画像のみまたは、第1撮像部110により得られた画像と第2撮像部112により得られた画像を合成した画像を表示部140に表示させる。すなわち、各撮像部により得られた画像を画像処理部111で処理し、表示部140に表示させるように表示制御部141を制御する。また、このとき、画像処理部111は、第1撮像部110により得られた画像のみまたは、第1撮像部110により得られた画像と第2撮像部112により得られた画像を合成した画像を順次動画データとして圧縮し、RAM102に一時的に記憶する。CPU101は、RAM102には、最新の4秒分の圧縮済みの動画データが常に保持されるようにRAM102の情報を管理する。たとえば最新の4秒以外の動画データは破棄してもよい。次に、静止画記録の指示が入力されると、指示に対応するタイミングで各撮像部により得られた画像を1枚または複数枚をたとえばJPEGを用いて圧縮するように画像処理部111を制御する。そして静止画として圧縮された静止画データを記録媒体151に記録するように記録再生部150を制御する。一方、静止画記録の指示に応じて、RAM102に記憶されている最新の4秒の圧縮済みの動画データについても記録媒体151に記録するように記録再生部150を制御する。また静止画記録の指示により得られた画像を動画(ストップモーション)としても圧縮するように画像処理部111を制御し、最新の4秒の動画データの後に再生されるように記録媒体151に記録する。これにより、記録再生部150は、記録媒体に記録されている最新の4秒の動画データと同じ動画ファイルに静止画記録の指示により得られた画像の動画データが含まれる。なお、記録される動画データの撮影中の動作に関する情報や、人間の顔の検出された位置、大きさ、笑顔度の情報を対応する静止画ファイルのヘッダに格納してもよい。また、ストップモーション動画を生成したかどうかを示す情報も静止画ファイルのヘッダに格納してもよい。
In “Movie Still Image Shooting Mode”, when a still image recording instruction is input, still image shooting and still image recording are performed, and moving image data for 4 seconds immediately before the still image recording instruction is input is recorded. Record on media. On the same day, when a plurality of still image recording instructions are input in the “moving picture still image shooting mode”, the moving image data for 4 seconds immediately before the input of the still image recording instruction is stored as one. Add to the movie file and record. By doing in this way, the moving image data just before the still image photography for 1 day can be stored in one moving image file, and browsing property can be improved. In the “moving picture still image shooting mode”, the
「再生モード」では、記録媒体151に記録されている動画ファイルまたは静止画ファイルのファイルリスト及びサムネイル画像を読み出すように記録再生部150を制御する。そして記録再生部150により再生された各ファイルのサムネイル画像を画像処理部111で伸張させ、伸張させたサムネイル画像を表示部140に表示するように表示制御部141を制御する。そして、CPU101は、ユーザが操作部104を操作することで選択したサムネイル画像に対応する静止画ファイルまたは動画ファイルを画像処理部111に伸張させ、得られた画像を表示部140に表示するように表示制御部141を制御する。
In the “playback mode”, the recording /
なお、本実施例の撮像装置100においては、記録時または再生時において、撮影画像または再生画像内に、あらかじめ登録した人物の画像に類似する人物が含まれているかを判定することができる。そのため、撮像装置100は、たとえば、12人分の顔画像等の特徴画像とその人物(または顔)に対応する名前やニックネーム等の識別子を関連付けて登録することができる。登録方法は、人物登録モードで撮影された画像を画像処理部111で特徴量を検出し、ユーザに名前やニックネームを入力させ、CPU101はそれらを関連付けて撮像装置100の不図示の不揮発性メモリに記録する。本実施例では、この関連付けて記録された情報を「辞書」と表現することもある。この「辞書」に登録された人物であるかを判定するには、たとえば、あらかじめ登録した人物の顔等の特徴画像の特徴量に類似する顔画像であるかを判定する方式などがあるがこれ以外の方法を用いてもよい。これにより、撮影時または再生時にあらかじめ登録された人物(または顔)に対応する画像が含まれるかを画像処理部111で判定することができる。記録時においては、どの人物(または顔)に対応する画像が含まれるかを判定すると、CPU101は、判定結果を画像ファイルのヘッダに記録するように記録再生部150を制御する。このようにすることで再生時に登録した人物に対応する画像が含まれるかを画像解析せずにヘッダを確認するだけで判定することができる。
In the
<アルバム再生>
ここで、本実施例の撮像装置100は、「再生モード」において「アルバム再生」を選択することができる。「アルバム再生」は、記録媒体に記録された複数の画像ファイルから所定数の画像ファイルを抽出して、その画像を順次表示するモードである。本実施例の「アルバム再生」においては、「オープニング」、「本編」、「エンディング」という順番で画像を再生する。本実施例の撮像装置100においては、指定された人物に関連する画像を特定して、その特定された画像の中で評価値の高い画像「本編」として表示する。また、本実施例の「アルバム再生」においては、指定した人物を識別するための識別子を所定のタイミングで表示する。なお、人物(または顔)等の特徴画像は、複数指定が可能であり、表示タイミングは、指定された人物の数に応じて変更される。具体的には、指定された人物の数は4人未満の場合には、「オープニング」で指定された、辞書に登録されている人物の識別子を全員分表示する。一方、指定された人物の数が4人以上の場合には、「本編」において、指定された人物が最初に表示されたタイミングに応じて辞書に登録されている該当する人物の識別子を表示する。なお、識別子とは、辞書登録時にユーザに入力させたテキストデータであり、たとえば人物(または顔)を示す名前やニックネームなどである。
<Play album>
Here, the
以下に、「アルバム再生」における撮像装置100の動作について、図2を用いて説明する。図2のフロー図は、CPU101が、撮像装置100の各ブロックを制御することにより実行される処理を示す。
Hereinafter, the operation of the
<対象画像特定>
(S201)
まず、「アルバム再生」が指定されると、CPU101は、記録媒体151に記録された静止画ファイルのヘッダに含まれる情報を読み出すよう記録再生部150を制御する。CPU101は、静止画ファイルのヘッダに含まれる情報に基づいて、辞書に登録された人物が含まれているか否かを判定し、含まれている人物を示す画像や識別子を表示部140に表示するように表示制御部141を制御する。
<Target image identification>
(S201)
First, when “album playback” is designated, the
(S202)
次に、CPU101は、ユーザの操作により選択された人物の画像や識別子を特定する。
(S202)
Next, the
なお、人物選択の方法はS201、S202の処理に限定されない。たとえば、CPU101により、辞書に登録された人物(または顔)の画像や識別子を表示部140に表示するように表示制御部141を制御して、ユーザに選択させてもよい。また、「アルバム再生」に切り替える直前に再生されていた画像内に含まれている人物(または顔)のうち辞書に登録された人物を自動的に選択するようにしてもよい。
The person selection method is not limited to the processing of S201 and S202. For example, the
(S203)
次に、CPU101は、「アルバム再生」における画像の総表示時間を設定するために、目標時間の設定画面を表示部140に表示するように表示制御部141を制御し、ユーザに目標時間を設定させる。また、目標とされるシーン数を設定できるようにしてもよい。
(S203)
Next, the
(S204)
次に、CPU101は、S202で指定された人物(または顔)を含む画像の評価値を算出する。CPU101は、S202で指定された人物(または顔)を含む静止画ファイルを特定し、特定された静止画ファイルの付加情報を参照して、特定された静止画ファイルの画像の評価値を算出する。付加情報は、静止画ファイルの画像が撮影されたときに得られた情報に基づいて生成されたものである。たとえば、画像処理部111において、検出された顔画像の位置、大きさの情報、笑顔度等を含むが、これ以外の情報を用いても構わない。S204では、顔画像の大きさが大きいほど高い評価値を算出し、顔画像の位置が画像中央に近いほど高い評価値を算出し、笑顔度が高いほど高い評価値を算出する。なお、静止画ファイルの静止画データをこのときに画像処理部111に解析させて、顔画像の位置、大きさ、笑顔度を検出してもよい。また、撮影時に評価値を算出して静止画ファイルの付加情報として記録しておいてもよい。また、合焦情報、YUVヒストグラム、姿勢情報(ジャイロ変動情報)、ズーム情報などを含む撮影情報を使用して評価値を算出しても良い。
(S204)
Next, the
(S205)
次に、CPU101は、算出した評価値の高い順に静止画ファイルをソートする。
(S205)
Next, the
(S206)
次に、CPU101は、算出した評価値の高い順に「アルバム再生」の対象画像として設定する。
(S206)
Next, the
ここまでの処理により、「アルバム再生」の対象となる画像が抽出される。以降の処理では、これらの特定された画像に基づいて、「アルバム再生」の「オープニング」、「本編」、「エンディング」を生成する。 Through the processing so far, an image to be subjected to “album playback” is extracted. In the subsequent processing, “opening”, “main part”, and “ending” of “album playback” are generated based on these specified images.
(S207)
まず、CPU101は、S202で指定された人物(または顔)が4人未満であるか否かを判定する。
(S207)
First, the
(S208)
S207で、指定された人物(または顔)が4人未満である場合(S207でYes)、CPU101は、指定された人物(または顔)の各々の含まれている画像を含む静止画ファイルを1枚ずつ選択する。各人物(または顔)毎に対応する静止画ファイルが1枚ずつ選択される。選択する静止画ファイルはたとえば、各々の人物(または顔)の評価値が最も高いものである。そのために、CPU101は、各人物(または顔)毎に、顔の大きさや笑顔度を用いて評価値を算出してもよい。また、各人物(または顔)の含まれる画像を表示部140に表示するように表示制御部141を制御し、ユーザに選択させてもよい。
(S208)
If the number of designated persons (or faces) is less than 4 in S207 (Yes in S207), the
(S209)
次に、CPU101は、S208で選択された各人物(または顔)毎に対応する静止画ファイルのヘッダに含まれる付加情報から、各人物(または顔)に対応する領域を特定する。そして、静止画ファイルの画像から各人物(または顔)の含まれる領域の画像を切り出すように画像処理部111を制御する。そして、CPU101は、切り出した画像に対して、各人物(または顔)に対応する名前やニックネーム(識別子)を合成した画像を生成するように画像処理部111を制御する。すなわち、各人物(または顔)に対応する名前やニックネーム(識別子)が合成された画像が1枚ずつ生成される。
(S209)
Next, the
(S210)
次に、CPU101は、S209で生成した各人物の各人物(または顔)に対応する名前やニックネーム(識別子)が合成された画像を順番に再生するようにした「オープニング」画像セットを生成する。
(S210)
Next, the
(S211)
次に、CPU101は、目標再生時間に基づいて抽出する画像の数を決定し、決定された数の画像を評価値の高い順に抽出して、時系列順に表示する「本編」を生成する。本実施例ではあらかじめ設定されている目標再生時間を3分とし、画像1枚当たりの表示時間を4秒とする。この場合、3(分)×60(秒換算)÷4(秒)=45(枚)が抽出対象の画像の数となる。そして、CPU101は、S205で評価値の高い順にソートされた静止画ファイルを評価値の高い順に抽出し、各静止画ファイルの画像を時系列順に再生する「本編」画像セットを生成する。
(S211)
Next, the
(S220)
その後、CPU101は、「エンディング」画像を選択する。CPU101は、S202で指定された人物(または顔)に対応する画像が最も多く映っている画像を「エンディング」の画像として選択する。
(S220)
Thereafter, the
(S221)
次に、CPU101は、「オープニング」画像セットの画像を順番に表示し、次に「本編」画像セットの画像を順番に表示し、最後に「エンディング」画像を表示するように、表示制御部141を制御する。
(S221)
Next, the
以上のように、選択された人物が4人未満の場合には、「オープニング」画像として、選択された人物(または顔)に対応する人物の名前やニックネーム(識別子)を所定の期間(オープニング期間)に連続的に表示させる「アルバム再生」を行う。このようにして生成された「アルバム再生」画像の概念図を図3に示す。図3に示すようにオープニングにおいては各人物を示す画像とともに名前やニックネーム(識別子)が連続的に表示され、本編においては、選択されたシーンが表示され、エンディングでは、指定された人物が多く含まれる画像を表示する。 As described above, when the number of selected persons is less than four, the name or nickname (identifier) of the person corresponding to the selected person (or face) is displayed as the “opening” image for a predetermined period (opening period). ) “Album playback” is displayed continuously. A conceptual diagram of the “album playback” image generated in this way is shown in FIG. As shown in FIG. 3, in the opening, names and nicknames (identifiers) are continuously displayed along with images showing each person. In the main part, the selected scene is displayed, and the ending includes many designated persons. Display the image.
(S212)
一方、S207で、指定された人物(または顔)が4人未満でない場合(S207でNo)、CPU101は、S202で指定された人物(または顔)に対応する画像が最も多く含まれる画像を選択する。
(S212)
On the other hand, if the designated person (or face) is not less than 4 in S207 (No in S207), the
(S213)
次に、CPU101は、S206で抽出された画像のうち最も古い画像と最も新しい画像を「オープニング」の画像として選択する。そして、CPU101は、最も古い画像と最も新しい画像の撮影(記録)日時を各画像の含まれる静止画ファイルのヘッダから読みだす。そして、その情報に基づいて、再生される画像の撮影された期間を示す情報をS212で抽出した画像に合成した画像を生成するように画像処理部111を制御し、「オープニング」の画像とする。また、後述のS214で抽出された画像の期間を示す情報をS212で抽出した画像に合成した画像を「オープニング」の画像としてもよい。
(S213)
Next, the
(S214)
次に、CPU101は、目標再生時間に基づいて抽出する画像の数を決定し、決定された数の画像を評価値の高い順に抽出して、時系列順に表示する「本編」を生成する。S211と同様に、45(枚)が抽出対象の画像の数とする。そして、CPU101は、S205で評価値の高い順にソートされた静止画ファイルを評価値の高い順に抽出し、各静止画ファイルの画像を時系列順に再生する「本編」画像セットを生成する。
(S214)
Next, the
(S215)
ここで、CPU101は、「本編」画像セットに含まれる画像について、各画像の含まれる静止画ファイルの付加情報に基づいて、S202で指定された各人物(または顔)に対応する画像が初めて表示される画像を特定する。そして、CPU101は、特定された画像に初めて表示された人物(または顔)に対応する名前やニックネーム(識別子)を示す情報を合成した画像を生成するように画像処理部111を制御する。そして、各人物(または顔)に対応する画像が初めて表示される画像に対して、対応する名前やニックネーム(識別子)を合成した画像を「本編」画像セットの合成前の画像と置き換える。なお、初登場の画像に対してのみ名前やニックネームを合成しなくても、2度目に登場した画像に対して名前やニックネームを合成してもよいし、各人物について最も評価値の高い画像に名前やニックネームを合成してもよい。また、識別子は、画像に合成しなくとも、指定された各人物(または顔)に対応する画像が初めて表示されるタイミングに基づくタイミング、すなわちその画像が表示される直前や直後に表示するようにしてもよい。
(S215)
Here, for the images included in the “main part” image set, the
以降は、前述のS220、S221の処理を行う。 Thereafter, the processes of S220 and S221 described above are performed.
以上のように、選択された人物が4人未満でない場合には、「本編」において初めて指定された人物(または顔)に対応する画像に対して名前やニックネーム(識別子)を表示させる「アルバム再生」を行う。このようにして生成された「アルバム再生」画像の概念図を図4に示す。図4に示すようにオープニングにおいては指定された人物が多く含まれる画像とともに、表示する画像の撮影期間を示す情報を表示する。本編においては、選択されたシーンが表示されるとともに、「本編」において初めて指定された人物(または顔)に対応する画像に対して名前やニックネーム(識別子)を表示する。そして、エンディングにおいては指定された人物が多く含まれる画像を表示する。このように、選択された人物が4人未満でない場合には、「本編」において初めて指定された人物(または顔)に対応する画像に対して名前やニックネーム(識別子)を表示させ、「オープニング」においては、各人物を示す情報を表示しない。 As described above, when the number of selected persons is not less than four, “album playback” that displays names and nicknames (identifiers) on the image corresponding to the person (or face) specified for the first time in the “main part” "I do. FIG. 4 shows a conceptual diagram of the “album playback” image generated in this way. As shown in FIG. 4, in the opening, information indicating a shooting period of an image to be displayed is displayed together with an image including many designated persons. In the main part, the selected scene is displayed, and a name and a nickname (identifier) are displayed for an image corresponding to a person (or face) designated for the first time in the “main part”. In the ending, an image including many designated persons is displayed. As described above, when the number of selected persons is not less than 4, the name or nickname (identifier) is displayed for the image corresponding to the person (or face) specified for the first time in the “main part”, and “opening” is performed. In, information indicating each person is not displayed.
図2に示したように、本実施例の撮像装置は、指定された人物(または顔)の数が所定数未満か、所定数以上かに応じて、指定された指定された人物(または顔)の識別子を表示するタイミングを異ならせた。所定数より少ない場合には、「オープニング」という所定の期間内に連続して指定された指定された人物(または顔)の識別子を表示するようにした。一方、所定数以上の場合には「オープニング」ではなくその後の「本編」において、指定された人物に対応する画像を最初に表示するタイミングで、指定された指定された人物(または顔)の識別子を表示するようにした。このようにすることによって、「アルバム再生」を視聴するユーザにとって見易いスライドショーまたは、変化に富んだスライドショーを提供することができる。 As illustrated in FIG. 2, the imaging apparatus according to the present exemplary embodiment is configured so that the designated person (or face) designated according to whether the number of designated persons (or faces) is less than the predetermined number or more than the predetermined number. ) The identifier display timing was changed. When the number is smaller than the predetermined number, the identifier of the specified person (or face) specified continuously within the predetermined period of “opening” is displayed. On the other hand, when the number is greater than or equal to the predetermined number, the identifier of the designated person (or face) designated at the timing of first displaying an image corresponding to the designated person in the “main part” instead of “opening” Was displayed. By doing in this way, it is possible to provide a slide show that is easy to see for the user who views “album playback” or a slide show that is rich in change.
なお、「アルバム再生」をユーザが確認し、「保存」操作を行った場合は、静止画ファイルすべてについて、伸張された画像を4秒分のフレーム画像とする動画データを生成するように画像処理部111を制御する。そして生成された動画データを時系列順に再生する動画データを生成するように画像処理部111を制御し、生成された一連の動画データを動画ファイルとして記録媒体151に記録するように記録再生部150を制御する。
In addition, when the user confirms “play album” and performs “save” operation, image processing is performed so as to generate moving image data in which all the still image files have the expanded image as a frame image for 4 seconds. The
本実施例では、静止画ファイルを用いた「アルバム再生」を例にとって説明したが、動画ファイルを用いた「アルバム再生」を行ってもよい。また、動画ファイルと静止画ファイルの両方を用いた「アルバム再生」を行ってもよい。なお、動画ファイルを用いた「アルバム再生」を行う場合は、動画ファイル内の評価値が高いシーンの4秒を再生するようにシーンの抽出を行ってもよい。また、本実施例の動画静止画撮影モードで撮影された静止画ファイルに基づいて評価を行った場合は、抽出された静止画ファイルに対応するシーンの動画データを静止画ファイルの代わりに「アルバム再生」の対象としてもよい。 In this embodiment, “album playback” using a still image file has been described as an example, but “album playback” using a moving image file may be performed. Further, “album playback” using both a moving image file and a still image file may be performed. When “album playback” using a moving image file is performed, the scene may be extracted so as to reproduce 4 seconds of a scene having a high evaluation value in the moving image file. In addition, when the evaluation is performed based on the still image file shot in the moving image still image shooting mode of the present embodiment, the movie data of the scene corresponding to the extracted still image file is displayed as “album” instead of the still image file. It may be a target of “reproduction”.
また、本実施例の「動画静止画撮影モード」で撮影された動画データと、静止画データ、「静止画撮影モード」で撮影された静止画データを「アルバム再生」の対象とする場合は、たとえば、10個選択するうちの2個または3個を動画データとする。本実施例では「動画静止画撮影モード」で撮影された動画データは対応する静止画ファイルに撮影中の動作に関する情報や、人間の顔の検出された位置、大きさ、笑顔度の情報が格納されている。そこでCPU101は、その情報に基づいて動画データの評価値を算出し、あるクラスタに分類された動画データのうち評価値の高いシーン(静止画記録の指示の直前の4秒にあたる動画でデータ)を抽出する。一方静止画については静止画ファイルのうち評価値の高いものを抽出対象とする。なお、抽出された動画データにストップモーション動画が含まれている場合は、同じ画像である静止画については評価値が高くとも抽出対象としないようにしてもよい。
In addition, when moving image data shot in the “movie still image shooting mode” of this embodiment, still image data, and still image data shot in the “still image shooting mode” are targeted for “album playback”, For example, two or three of the ten selections are moving image data. In this embodiment, moving image data shot in the “moving image still image shooting mode” stores information on the operation during shooting, and information on the detected position, size, and smile level of the human face in the corresponding still image file. Has been. Therefore, the
また、本実施例において、指定された人物(または顔)を示す情報を合成する位置については、画像中の人間の顔の領域に対応する位置に指定された人物(または顔)を示す情報が重ならないように配置を変更する。また、指定された人物(または顔)を示す情報は、表示している画像を透過して見えるようにアルファブレンド等の技術を用いて合成される。 Further, in the present embodiment, with respect to the position where the information indicating the designated person (or face) is synthesized, the information indicating the person (or face) designated at the position corresponding to the human face area in the image is included. Change the layout so that they do not overlap. Information indicating the designated person (or face) is synthesized using a technique such as alpha blending so that the displayed image can be seen through.
なお、評価値のうちどの評価値が高い静止画ファイルを優先するか、優先される評価値を設定できるようにしてもよい。 It should be noted that it may be possible to set a priority evaluation value as to which still image file has a higher evaluation value among the evaluation values.
また、指定された人物(または顔)の生年月日をさらに「辞書」として関連付けて登録しておくことにより、指定された人物(または顔)の識別子を表示する際に、撮影当時の年齢を表示してもよい。すなわち、辞書に登録された生年月日と表示中の画像の撮影日時から年齢を計算して、表示する。また、所定の年齢未満の場合には、月齢まで表示するようにしてもよい。また、所定の年齢以上の場合には、年齢を表示しないようにしてもよい。また、年齢が「アルバム再生」中に変化した場合に、名前と年齢を改めて表示するようにしてもよい。 Also, by registering the date of birth of the specified person (or face) as a “dictionary”, the age at the time of shooting is displayed when displaying the identifier of the specified person (or face). It may be displayed. That is, the age is calculated from the date of birth registered in the dictionary and the shooting date and time of the displayed image, and displayed. Moreover, when it is younger than predetermined age, you may make it display to the moon age. In addition, when it is over a predetermined age, the age may not be displayed. Further, when the age changes during “album playback”, the name and age may be displayed again.
なお、本実施例では、撮像装置を例にとって説明したが、複数の動画または静止画またはその両方を再生することができる装置であればどのような装置でも良い。たとえば、携帯電話、スマートフォン、タブレット型情報端末、ノート型情報端末、コンピュータ等であってもよい。 In this embodiment, the image pickup apparatus has been described as an example. However, any apparatus may be used as long as it can reproduce a plurality of moving images and / or still images. For example, a mobile phone, a smartphone, a tablet information terminal, a notebook information terminal, a computer, or the like may be used.
(他の実施形態)
上述の実施形態は、システム或は装置のコンピュータ(或いはCPU、MPU等)によりソフトウェア的に実現することも可能である。従って、上述の実施形態をコンピュータで実現するために、該コンピュータに供給されるコンピュータプログラム自体も本発明を実現するものである。つまり、上述の実施形態の機能を実現するためのコンピュータプログラム自体も本発明の一つである。
(Other embodiments)
The above-described embodiment can also be realized in software by a computer of a system or apparatus (or CPU, MPU, etc.). Therefore, the computer program itself supplied to the computer in order to implement the above-described embodiment by the computer also realizes the present invention. That is, the computer program itself for realizing the functions of the above-described embodiments is also one aspect of the present invention.
なお、上述の実施形態を実現するためのコンピュータプログラムは、コンピュータで読み取り可能であれば、どのような形態であってもよい。例えば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等で構成することができるが、これらに限るものではない。上述の実施形態を実現するためのコンピュータプログラムは、記憶媒体又は有線/無線通信によりコンピュータに供給される。プログラムを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記憶媒体、MO、CD、DVD等の光/光磁気記憶媒体、不揮発性の半導体メモリなどがある。 The computer program for realizing the above-described embodiment may be in any form as long as it can be read by a computer. For example, it can be composed of object code, a program executed by an interpreter, script data supplied to the OS, but is not limited thereto. A computer program for realizing the above-described embodiment is supplied to a computer via a storage medium or wired / wireless communication. Examples of the storage medium for supplying the program include a magnetic storage medium such as a flexible disk, a hard disk, and a magnetic tape, an optical / magneto-optical storage medium such as an MO, CD, and DVD, and a nonvolatile semiconductor memory.
有線/無線通信を用いたコンピュータプログラムの供給方法としては、コンピュータネットワーク上のサーバを利用する方法がある。この場合、本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムファイル)をサーバに記憶しておく。プログラムファイルとしては、実行形式のものであっても、ソースコードであっても良い。そして、このサーバにアクセスしたクライアントコンピュータに、プログラムファイルをダウンロードすることによって供給する。この場合、プログラムファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバに分散して配置することも可能である。つまり、上述の実施形態を実現するためのプログラムファイルをクライアントコンピュータに提供するサーバ装置も本発明の一つである。 As a computer program supply method using wired / wireless communication, there is a method of using a server on a computer network. In this case, a data file (program file) that can be a computer program forming the present invention is stored in the server. The program file may be an executable format or a source code. Then, the program file is supplied by downloading to a client computer that has accessed the server. In this case, the program file can be divided into a plurality of segment files, and the segment files can be distributed and arranged on different servers. That is, a server apparatus that provides a client computer with a program file for realizing the above-described embodiment is also one aspect of the present invention.
また、上述の実施形態を実現するためのコンピュータプログラムを暗号化して格納した記憶媒体を配布し、所定の条件を満たしたユーザに、暗号化を解く鍵情報を供給し、ユーザの有するコンピュータへのインストールを許可してもよい。鍵情報は、例えばインターネットを介してホームページからダウンロードさせることによって供給することができる。また、上述の実施形態を実現するためのコンピュータプログラムは、すでにコンピュータ上で稼働するOSの機能を利用するものであってもよい。さらに、上述の実施形態を実現するためのコンピュータプログラムは、その一部をコンピュータに装着される拡張ボード等のファームウェアで構成してもよいし、拡張ボード等が備えるCPUで実行するようにしてもよい。 In addition, a storage medium in which the computer program for realizing the above-described embodiment is encrypted and distributed is distributed, and key information for decrypting is supplied to a user who satisfies a predetermined condition, and the user's computer Installation may be allowed. The key information can be supplied by being downloaded from a homepage via the Internet, for example. Further, the computer program for realizing the above-described embodiment may use an OS function already running on the computer. Further, a part of the computer program for realizing the above-described embodiment may be configured by firmware such as an expansion board attached to the computer, or may be executed by a CPU provided in the expansion board. Good.
Claims (15)
指定された特徴画像を含む画像を抽出する抽出手段と、
前記抽出手段により抽出された画像と前記指定された特徴画像に関連づけられた識別子とを表示部に表示させる表示制御手段とを有し、
前記特徴画像を複数指定することが可能であって、
前記表示制御手段は、前記指定された特徴画像が所定数未満である場合と、所定数以上である場合とで、前記識別子の表示タイミングを異ならせることを特徴とする画像処理装置。 Reproducing means for reproducing image data recorded on the recording medium;
Extraction means for extracting an image containing the specified feature image,
Have a display control means for displaying an identifier associated with the feature image which is the designated extracted image by said extraction means on a display unit,
It is possible to specify a plurality of the feature images,
The image processing apparatus , wherein the display control unit varies the display timing of the identifier depending on whether the designated feature image is less than a predetermined number or more than a predetermined number .
指定された特徴画像を含む画像を抽出する抽出ステップと、
前記抽出ステップで抽出された画像と前記特徴画像に関連づけられた識別子とを表示部に表示させる表示制御ステップとを有し、
前記特徴画像は複数指定されることが可能であって、
前記表示制御ステップにおいて、前記指定された特徴画像が所定数未満である場合と、所定数以上である場合とで、前記識別子の表示タイミングを異ならせることを特徴とする画像処理方法。 A reproduction step of reproducing the image data recorded on the recording medium;
An extraction step of extracting an image containing the specified feature image,
Have a display control step of displaying the identifier associated with the extracted image and the previous Kitoku symptoms image by the extraction step on a display unit,
A plurality of the feature images can be designated,
In the display control step, the display timing of the identifier is different depending on whether the designated feature image is less than a predetermined number or more than a predetermined number .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013272050A JP6292872B2 (en) | 2013-12-27 | 2013-12-27 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013272050A JP6292872B2 (en) | 2013-12-27 | 2013-12-27 | Image processing apparatus, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015126517A JP2015126517A (en) | 2015-07-06 |
JP6292872B2 true JP6292872B2 (en) | 2018-03-14 |
Family
ID=53536890
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013272050A Active JP6292872B2 (en) | 2013-12-27 | 2013-12-27 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6292872B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10658006B2 (en) | 2015-11-18 | 2020-05-19 | Casio Computer Co., Ltd. | Image processing apparatus that selects images according to total playback time of image data, image selection method, and computer-readable medium |
JP6341184B2 (en) * | 2015-11-18 | 2018-06-13 | カシオ計算機株式会社 | Image processing apparatus, image processing method, and program |
JP6362634B2 (en) * | 2016-02-05 | 2018-07-25 | 株式会社バンダイナムコエンターテインメント | Image generation system, game device, and program |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3035391B2 (en) * | 1991-09-27 | 2000-04-24 | 京セラ株式会社 | Electronic still camera |
JP2000354227A (en) * | 1999-06-10 | 2000-12-19 | Nikon Gijutsu Kobo:Kk | Television receiver capable of storing digital still image |
JP4230870B2 (en) * | 2003-09-25 | 2009-02-25 | 富士フイルム株式会社 | Movie recording apparatus, movie recording method, and program |
US7822233B2 (en) * | 2003-11-14 | 2010-10-26 | Fujifilm Corporation | Method and apparatus for organizing digital media based on face recognition |
JP4896838B2 (en) * | 2007-08-31 | 2012-03-14 | カシオ計算機株式会社 | Imaging apparatus, image detection apparatus, and program |
JP2010252011A (en) * | 2009-04-15 | 2010-11-04 | Nikon Corp | Imaging device |
JP2011119936A (en) * | 2009-12-02 | 2011-06-16 | Panasonic Corp | Photographing device and reproducing method |
-
2013
- 2013-12-27 JP JP2013272050A patent/JP6292872B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015126517A (en) | 2015-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5877895B2 (en) | Video summary including a given person | |
JP5857122B2 (en) | Video summary including features of interest | |
WO2011149648A2 (en) | Determining key video snippets using selection criteria to form a video summary | |
EP2573759A2 (en) | Display apparatus and method | |
KR20120068078A (en) | Image photographing apparatus and method for connecting audio data to image data thereof | |
US20110292229A1 (en) | Ranking key video frames using camera fixation | |
KR20120081516A (en) | Digital photographing apparatus and control method thereof | |
JP6292872B2 (en) | Image processing apparatus, image processing method, and program | |
KR20090131220A (en) | Imaging apparatus and method of controlling the same | |
KR20130031176A (en) | Display apparatus and method | |
JP6355333B2 (en) | Imaging apparatus, image processing apparatus, image processing method, and program | |
JP2011119936A (en) | Photographing device and reproducing method | |
JP6249771B2 (en) | Image processing apparatus, image processing method, and program | |
KR101748576B1 (en) | Apparatus and method for segmenting video data in mobile communication teminal | |
JP6296791B2 (en) | Image processing apparatus, image processing method, and program | |
JP5368614B2 (en) | Image search apparatus and image search method | |
JP5665380B2 (en) | Image processing apparatus, image processing apparatus control method, program, and recording medium | |
JP6643081B2 (en) | Album moving image generating apparatus, album moving image generating method, and program | |
JP5050115B2 (en) | Electronic device, image display method, and content reproduction program | |
JP2012191503A (en) | Image recorder, image reproducer and image recording/reproduction system | |
JP2015130627A (en) | Image reproducing apparatus and image reproducing apparatus control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161226 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170928 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171031 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180213 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6292872 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |