JP5665380B2 - Image processing apparatus, image processing apparatus control method, program, and recording medium - Google Patents

Image processing apparatus, image processing apparatus control method, program, and recording medium Download PDF

Info

Publication number
JP5665380B2
JP5665380B2 JP2010135993A JP2010135993A JP5665380B2 JP 5665380 B2 JP5665380 B2 JP 5665380B2 JP 2010135993 A JP2010135993 A JP 2010135993A JP 2010135993 A JP2010135993 A JP 2010135993A JP 5665380 B2 JP5665380 B2 JP 5665380B2
Authority
JP
Japan
Prior art keywords
representative frame
frame
moving image
image data
representative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010135993A
Other languages
Japanese (ja)
Other versions
JP2012004713A5 (en
JP2012004713A (en
Inventor
樋口 大輔
大輔 樋口
武範 小布施
武範 小布施
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010135993A priority Critical patent/JP5665380B2/en
Publication of JP2012004713A publication Critical patent/JP2012004713A/en
Publication of JP2012004713A5 publication Critical patent/JP2012004713A5/ja
Application granted granted Critical
Publication of JP5665380B2 publication Critical patent/JP5665380B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)

Description

本発明は、記録されたデータから画像を出力する画像処理装置、画像処理装置の制御方法、プログラム、及び記録媒体に関する。   The present invention relates to an image processing apparatus that outputs an image from recorded data, a control method for the image processing apparatus, a program, and a recording medium.

従来、ビデオカメラや動画再生装置等には、撮影した動画データを一覧表示する際に、各々の動画データに対してサムネイルと呼ばれる動画の代表画像を表示する機能を備えるものがある。ユーザは、サムネイルを見ることによって、複数の動画データを再生することなく、各々の動画データの内容を把握することができる。   2. Description of the Related Art Conventionally, some video cameras, moving image playback apparatuses, and the like have a function of displaying a moving image representative image called a thumbnail for each moving image data when displaying a list of the captured moving image data. By viewing the thumbnail, the user can grasp the contents of each moving image data without reproducing a plurality of moving image data.

従来のサムネイル作成方法としては、動画データの最初の1フレームをサムネイルとする方法が一般的に用いられている。動画データの最初の1フレームをサムネイルとすることで、サムネイルを決定する際の処理が非常に簡単になる。   As a conventional thumbnail creation method, a method of using the first frame of moving image data as a thumbnail is generally used. By using the first frame of the moving image data as a thumbnail, the processing for determining the thumbnail becomes very simple.

しかしながら、同じシーンから始まり内容の異なる動画を複数撮影した場合、上記サムネイル作成方法を用いると、類似したサムネイルとなってしまい、再生する際に識別しにくい。このような問題に関しては、例えば、複数の動画データに対して、類似したサムネイルの作成を抑制する方法が提案されている(特許文献1参照)。特許文献1では、複数の動画データに対してそれぞれ特徴の異なるフレームを抽出しサムネイルとすることで、同様のシーンから始まる複数の動画も識別しやすくなる。   However, when a plurality of moving images starting from the same scene and having different contents are taken, using the thumbnail creation method described above results in similar thumbnails that are difficult to identify during playback. With regard to such a problem, for example, a method for suppressing the creation of similar thumbnails for a plurality of moving image data has been proposed (see Patent Document 1). In Patent Document 1, by extracting frames having different characteristics from a plurality of moving image data and using them as thumbnails, a plurality of moving images starting from similar scenes can be easily identified.

特開2007−006129号公報JP 2007-006129 A

しかしながら、上記従来例では、複数の動画データに対して類似したサムネイルの作成を抑制するという条件を用いているため、全く内容が同じ動画に対しても異なるサムネイルを作成してしまい、動画の内容をうまく表しているとは言えない。   However, in the above conventional example, the condition that the creation of similar thumbnails is suppressed for a plurality of video data is used, so that different thumbnails are created even for videos with exactly the same content, It cannot be said that it represents well.

また、前述したように、動画データの最初の1フレームをサムネイルとする方法も、同じシーンから始まり内容の異なる動画データに対して同じサムネイルを作成してしまうので、動画の内容を識別することが困難である。   In addition, as described above, the method of using the first frame of moving image data as a thumbnail also creates the same thumbnail for moving image data that starts from the same scene and has different contents, so that the contents of the moving image can be identified. Have difficulty.

本発明は、上記問題に鑑みて成されたものであり、動画の最初の1フレームからサムネイルを作成する場合に起こる内容識別の困難さを軽減することができ、動画の内容を忠実に表現したわかりやすいサムネイルを作成できる技術を提供することを目的とする。 The present invention has been made in view of the above problems, and can reduce the difficulty of content identification that occurs when a thumbnail is created from the first frame of a moving image, and faithfully represents the content of the moving image. The purpose is to provide a technology that enables easy-to-understand thumbnails to be created.

上記目的を達成するために、本発明は、動画データから第1の条件に基づいて第1の代表フレームを抽出する第1の代表フレーム抽出手段と、前記動画データから、前記第1の条件とは異なる第2の条件に基づいて第2の代表フレームを抽出する第2の代表フレーム抽出手段と、前記抽出された第1の代表フレームと第2の代表フレームをサムネイルとして前記動画データに関連付けて保存する制御手段と、前記動画データから人物の顔を認識する顔認識手段とを有し、前記第2の代表フレーム抽出手段は、前記動画データのうち、前記顔認識手段で顔が認識されたフレームを前記第2の代表フレームとして抽出し、前記第1の代表フレーム抽出手段は、前記動画データのうち、前記顔認識手段で顔が認識されていないフレームを前記第1の代表フレームとして抽出し、前記制御手段は、前記第1の代表フレームと前記第2の代表フレームとを合成した画像を前記サムネイルとして前記動画データに関連づけて保存することを特徴とする。 To achieve the above object, the present invention provides a first representative frame extracting means for extracting a first representative frame from moving image data based on a first condition, and the first condition from the moving image data. A second representative frame extracting means for extracting a second representative frame based on a different second condition, and associating the extracted first representative frame and second representative frame as thumbnails with the moving image data Control means for storing; and face recognition means for recognizing a person's face from the video data; and the second representative frame extraction means recognizes a face of the video data by the face recognition means. A frame is extracted as the second representative frame, and the first representative frame extracting means extracts a frame whose face is not recognized by the face recognition means from the moving image data. Extracted as a table frame, wherein the control means is characterized by storing the image obtained by synthesizing the said first representative frame second representative frame in association with the moving image data as the thumbnail.

本発明によれば動画の最初の1フレームからサムネイルを作成する場合に起こる内容識別の困難さを軽減することができる。また動画の内容を忠実に表現したわかりやすいサムネイルを作成することができる。 According to the present invention, it is possible to reduce the difficulty of content identification that occurs when a thumbnail is created from the first frame of a moving image. In addition , it is possible to create an easy-to-understand thumbnail that faithfully represents the content of the moving image.

本発明の実施形態に係る画像処理装置の一例であるビデオカメラの概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of a video camera that is an example of an image processing apparatus according to an embodiment of the present invention. 第1の実施形態におけるサムネイル作成処理のフローチャートである。It is a flowchart of the thumbnail creation processing in the first embodiment. (a)は図2のステップS130における第1の代表フレーム抽出処理の詳細を示すフローチャート、(b)は図2のステップS140における第2の代表フレーム抽出処理の詳細を示すフローチャートである。(A) is a flowchart showing details of the first representative frame extraction process in step S130 of FIG. 2, and (b) is a flowchart showing details of the second representative frame extraction process in step S140 of FIG. 図2のステップS150におけるサムネイルを作成する処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the process which produces the thumbnail in step S150 of FIG. 第1の実施形態における、動画データをモニタに一覧表示したときのサムネイルの一例を示す図である。It is a figure which shows an example of the thumbnail when moving image data is displayed as a list on the monitor in the first embodiment. 第2の実施形態における2つの代表フレームからサムネイルを作成する処理の一例を示すフローチャートである。12 is a flowchart illustrating an example of processing for creating a thumbnail from two representative frames in the second embodiment. (a)は第1の代表フレーム、(b)は第2の代表フレーム、(c)は第1の代表フレームと第2の代表フレームを合成して作成されたサムネイルを示す図である。(A) is a 1st representative frame, (b) is a 2nd representative frame, (c) is a figure which shows the thumbnail produced by synthesize | combining a 1st representative frame and a 2nd representative frame. 第2の実施形態における、動画データをモニタに一覧表示したときのサムネイルの一例を示す図である。It is a figure which shows an example of the thumbnail when moving image data is displayed as a list on the monitor in the second embodiment.

以下、本発明の実施の形態を図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の実施形態に係る画像処理装置の一例であるビデオカメラの概略構成を示すブロック図である。   FIG. 1 is a block diagram showing a schematic configuration of a video camera which is an example of an image processing apparatus according to an embodiment of the present invention.

図1において、101はレンズ、102はレンズ101で集められた光を電荷に変換するCCDやCMOSなどの撮像素子である。103は撮像素子102で生成された電荷を所定のフォーマットの映像信号に変換する信号処理回路である。104はレンズ101の制御を行うレンズ制御回路である。105はビデオカメラのシステム全体を制御するCPUである。112はRAMであり、CPU105の作業領域となる。113はROMであり、ビデオカメラを制御する上で必要なプログラムを有している。   In FIG. 1, reference numeral 101 denotes a lens, and reference numeral 102 denotes an image sensor such as a CCD or CMOS that converts light collected by the lens 101 into electric charges. Reference numeral 103 denotes a signal processing circuit that converts the charge generated by the image sensor 102 into a video signal of a predetermined format. A lens control circuit 104 controls the lens 101. A CPU 105 controls the entire video camera system. Reference numeral 112 denotes a RAM which serves as a work area for the CPU 105. Reference numeral 113 denotes a ROM having a program necessary for controlling the video camera.

106は、DVD、ハードディスク、不揮発性メモリなどの記録メディアである。107はCPU105と記録メディア106との間のデータの入出力を制御する記録メディア制御回路である。108は、撮影中の映像や再生された映像が出力(表示)されるモニタである。109は記録メディア106から読み出された動画データを映像としてモニタ108に表示するための再生回路である。110は、モニタ上にメニューや撮影情報を表示させるためのOSD(On Screen Display)回路である。111はユーザがビデオカメラを操作するための操作スイッチである。114はリアルタイムクロックであり、日付情報と時刻情報をCPU105に伝達する。115は外部入出力部であり、撮影した映像を外部のモニタやレコーダに出力したり、他のビデオカメラやプレーヤから映像を入力したりできる。   Reference numeral 106 denotes a recording medium such as a DVD, a hard disk, or a nonvolatile memory. Reference numeral 107 denotes a recording medium control circuit that controls input / output of data between the CPU 105 and the recording medium 106. Reference numeral 108 denotes a monitor that outputs (displays) an image being shot and a reproduced image. Reference numeral 109 denotes a reproduction circuit for displaying the moving image data read from the recording medium 106 on the monitor 108 as an image. Reference numeral 110 denotes an OSD (On Screen Display) circuit for displaying menus and shooting information on a monitor. Reference numeral 111 denotes an operation switch for the user to operate the video camera. Reference numeral 114 denotes a real-time clock that transmits date information and time information to the CPU 105. Reference numeral 115 denotes an external input / output unit, which can output captured images to an external monitor or recorder, or input images from another video camera or player.

本実施形態では、CPU105は、撮影された被写体の中から人物の顔を認識する公知の顔認識機能を備えるものとする。   In the present embodiment, the CPU 105 is assumed to have a known face recognition function for recognizing a person's face from the photographed subject.

[第1の実施形態]
第1の実施形態では、ビデオカメラで撮影時に記録された動画データから、主要人物のフレームと風景のフレームの2枚をサムネイルとする例を述べる。
[First Embodiment]
In the first embodiment, an example will be described in which two frames of a main person frame and a landscape frame are used as thumbnails from moving image data recorded at the time of shooting with a video camera.

まず、主要人物のフレーム及び風景のフレームの抽出方法について簡単に説明する。   First, a method for extracting a main person frame and a landscape frame will be briefly described.

主要人物の代表フレームを作成する際、顔認識機能を用いて撮影された被写体の中で、顔認識された時間が最も長い顔を主顔と判定し、この主顔を含むフレームのうち、最も正面を向いているフレームを主要人物の代表フレームとして抽出する。すなわち、これらを、後述する第1の条件と区別して、の条件とする。例えば、CPU105が、顔認識を行った際に、その顔の検出時間と以前認識した顔の検出時間とを比較し、検出時間の長いものを主顔としてRAM112に記録する。新しい顔が認識された場合、CPU105は、以前記録された主顔と新しく認識した顔の検出時間とを比較し、新しく認識した顔の検出時間の方が長くなった場合は、新しい顔を主顔としてRAM112に新たに記録する。最終的に、動画中で最も検出時間の長かった顔のあるフレームを主顔としてRAM112に記録させ、その記録されたフレームの中から顔の向きが最も正面を向いているフレームを代表フレームとして抽出する。なお、本実施形態では、認識した顔の検出時間を主顔の判定基準としたが、これに限定されず、検出回数であってもよい。また、ユーザにより選択された人物の顔であってもよい。 When creating a representative frame of the main person, the face with the longest face recognition time is determined as the main face among the subjects photographed using the face recognition function, and the frame including the main face is the most A frame facing the front is extracted as a representative frame of the main person. That is, these are distinguished from the first condition described later as the second condition. For example, when the CPU 105 performs face recognition, the face detection time is compared with the previously recognized face detection time, and the face with the long detection time is recorded in the RAM 112 as the main face. When a new face is recognized, the CPU 105 compares the previously recorded main face with the newly recognized face detection time. If the newly recognized face detection time becomes longer, the CPU 105 selects the new face as the main face. A new face is recorded in the RAM 112. Finally, the frame with the face with the longest detection time in the moving image is recorded in the RAM 112 as the main face, and the frame with the face facing most front is extracted from the recorded frames as the representative frame. To do. In the present embodiment, the detection time of the recognized face is used as the main face determination criterion. However, the present invention is not limited to this, and the number of times of detection may be used. Moreover, the face of the person selected by the user may be sufficient.

風景の代表フレームを作成する際、撮影された被写体の中で最も画角が広いフレームを、風景の代表フレームとする。すなわち、これらを第の条件とする。具体的には、CPU105は、ズームの倍率と、AFで算出した被写体までの距離から算出された値により画角の広さを判定する。例えば、ズームが1倍で、被写体までの距離が1のときに、画角が(A,B)である場合、ズームがC倍で被写体までの距離がDという条件で画角の広さを算出すると、画角は(A/C×D,B/C×D)となる。そして、CPU105は、各フレームに対して画角の広さを算出し、その算出値をRAM112に記録する。顔認識されていないフレームがある場合は、顔認識されていないフレームの中で最も画角の広いものを風景の代表フレームとして抽出する。顔認識されていないフレームがない場合は、すべてのフレームの中で最も画角の広いものを風景の代表フレームとして抽出する。 When creating a landscape representative frame, a frame having the widest angle of view among photographed subjects is used as the landscape representative frame. That is, these are the first conditions. Specifically, the CPU 105 determines the width of the angle of view based on a value calculated from the zoom magnification and the distance to the subject calculated by AF. For example, when the zoom is 1x and the distance to the subject is 1, and the angle of view is (A, B), the angle of view is increased under the condition that the zoom is Cx and the distance to the subject is D. When calculated, the angle of view is (A / C × D, B / C × D). Then, the CPU 105 calculates the angle of view for each frame and records the calculated value in the RAM 112. When there is a frame whose face is not recognized, a frame with the widest angle of view is extracted as a representative frame of the landscape among the frames whose face is not recognized. If there is no frame whose face is not recognized, the frame with the widest angle of view is extracted as the representative frame of the landscape.

上述したように、第1の実施形態では、顔認識時間の最も長かった主顔がどの顔であるのかと、主顔のうち最も正面を向いているフレームがどのフレームであるのかという撮影情報により主要人物の代表フレームを決定する。また、どのフレームが最も画角が広いかという撮影情報により、風景の代表フレームを決定する。   As described above, in the first embodiment, based on the shooting information indicating which face is the main face having the longest face recognition time and which frame is the most facing frame among the main faces. Determine the representative frame of the main person. Also, the representative frame of the landscape is determined based on the shooting information indicating which frame has the widest angle of view.

次に、第1の実施形態におけるサムネイル作成処理を図2を用いて説明する。このサムネイル作成処理は、CPU105がROM113に格納されたプログラムをRAM112に展開して実行することにより実現される。   Next, the thumbnail creation process in the first embodiment will be described with reference to FIG. This thumbnail creation process is realized by the CPU 105 developing and executing a program stored in the ROM 113 on the RAM 112.

図2のフローは、操作スイッチ111によってビデオカメラの電源がONになったときに開始する。   The flow in FIG. 2 starts when the power of the video camera is turned on by the operation switch 111.

まず、ステップS100では、CPU105が、動画の録画が開始したか否かを判定する。録画が開始した場合はステップS110へ進み、そうでない場合はステップS100へ戻る。   First, in step S100, the CPU 105 determines whether or not video recording has started. If the recording has started, the process proceeds to step S110, and if not, the process returns to step S100.

ステップS110では、CPU105は、撮影された動画データを記録メディア106に記録すると共に、主要人物と風景の特定に必要となる、画角の広さ、主顔、顔の向きが最も正面を向いているフレームの3つの撮影情報をRAM112に記録する。すなわち、ステップS110では、上述した主要人物のフレーム及び風景のフレームの抽出方法により撮影情報が取得されてRAM112に記録される。そして、ステップS120に進む。   In step S110, the CPU 105 records the captured moving image data on the recording medium 106, and the field of view, the main face, and the face direction that are necessary to identify the main person and the landscape are facing the front. Three pieces of shooting information of the current frame are recorded in the RAM 112. That is, in step S110, shooting information is acquired and recorded in the RAM 112 by the main person frame and landscape frame extraction method described above. Then, the process proceeds to step S120.

ステップS120では、CPU105は、録画が終了したか否かを判定する。録画が終了した場合はステップS130へ進み、録画が終了していない場合はステップS110に戻る。   In step S120, the CPU 105 determines whether the recording is finished. When the recording is finished, the process proceeds to step S130, and when the recording is not finished, the process returns to step S110.

ステップS130では、CPU105は、第1の代表フレームの抽出処理を実行し、ステップS140へ進む。ステップS130は、第1の代表フレーム抽出手段の一例である。第1の代表フレームの抽出処理の詳細については後述する。   In step S130, the CPU 105 executes a first representative frame extraction process, and proceeds to step S140. Step S130 is an example of a first representative frame extraction unit. Details of the extraction process of the first representative frame will be described later.

ステップS140では、CPU105は、第2の代表フレームの抽出処理を実行し、ステップS150へ進む。ステップS140は、第2の代表フレーム抽出手段の一例である。第2の代表フレームの抽出処理の詳細については後述する。   In step S140, the CPU 105 executes a second representative frame extraction process, and proceeds to step S150. Step S140 is an example of second representative frame extraction means. Details of the second representative frame extraction process will be described later.

ステップS150では、CPU105は、第1の代表フレーム、第2の代表フレームからサムネイルを作成する処理を実行し、本処理を終了する。ステップS150の詳細については後述する。   In step S150, the CPU 105 executes a process of creating a thumbnail from the first representative frame and the second representative frame, and ends this process. Details of step S150 will be described later.

次に、ステップS130における第1の代表フレーム抽出処理、ステップS140における第2の代表フレーム抽出処理、及びステップS150におけるサムネイルを作成する処理の詳細について説明する。   Next, the details of the first representative frame extraction process in step S130, the second representative frame extraction process in step S140, and the thumbnail creation process in step S150 will be described.

図3(a)は、図2のステップS130における第1の代表フレーム抽出処理の詳細を示すフローチャートである。なお、第1の実施形態では、第1の代表フレーム抽出処理が風景を抽出するものとする。   FIG. 3A is a flowchart showing details of the first representative frame extraction process in step S130 of FIG. In the first embodiment, it is assumed that the first representative frame extraction process extracts a landscape.

図3(a)において、ステップS131では、CPU105は、撮影情報における主顔の情報を参照し、記録された動画データから顔認識されていないフレームがあるか否かを判定する。すなわち、CPU105は第1の判定手段として機能する。この結果、顔認識されていないフレームがあると判定した場合はステップS132へ進み、顔認識されていないフレームがないと判定した場合はステップS133へ進む。   In FIG. 3A, in step S131, the CPU 105 refers to the main face information in the shooting information and determines whether there is a frame whose face is not recognized from the recorded moving image data. That is, the CPU 105 functions as a first determination unit. As a result, when it is determined that there is a frame whose face is not recognized, the process proceeds to step S132, and when it is determined that there is no frame whose face is not recognized, the process proceeds to step S133.

ステップS132では、CPU105は、顔認識されていないフレームのみを第1の代表フレーム候補とし、ステップS134へ進む。   In step S132, the CPU 105 sets only a frame whose face is not recognized as the first representative frame candidate, and proceeds to step S134.

ステップS133では、CPU105は、全フレームを第1の代表フレーム候補とし、ステップS134へ進む。   In step S133, the CPU 105 sets all the frames as first representative frame candidates, and proceeds to step S134.

ステップS134では、CPU105は、撮影情報における画角の広さの情報を参照し、第1の代表フレーム候補の中で最も画角の広いものを第1の代表フレームとし、リターンする。画角の広さはRAM112に記録されたデータから判断する。   In step S134, the CPU 105 refers to the information on the angle of view in the shooting information, sets the first representative frame candidate having the widest view angle as the first representative frame, and returns. The width of the angle of view is determined from the data recorded in the RAM 112.

図3(b)は、図2のステップS140における第2の代表フレーム抽出処理の詳細を示すフローチャートである。なお、第1の実施形態では、第2の代表フレーム抽出処理が代表的な人物の顔を抽出するものとする。   FIG. 3B is a flowchart showing details of the second representative frame extraction process in step S140 of FIG. In the first embodiment, it is assumed that the second representative frame extraction process extracts a representative person's face.

ステップS141では、CPU105は、撮影情報を参照し、記録された動画データから顔認識されたフレームがあるか否かを判定する。この結果、顔認識されたフレームがあると判定した場合はステップS142へ進み、顔認識されたフレームがないと判定した場合は、リターンする。   In step S141, the CPU 105 refers to the shooting information and determines whether there is a frame whose face is recognized from the recorded moving image data. As a result, if it is determined that there is a face-recognized frame, the process proceeds to step S142. If it is determined that there is no face-recognized frame, the process returns.

ステップS142では、CPU105は、最も長く認識した顔を含んだフレームを第2の代表フレーム候補とし、ステップS143へ進む。第2の代表フレーム候補は、RAM112に主顔として記録された顔を含むフレームである。   In step S142, the CPU 105 sets the frame including the face recognized the longest as the second representative frame candidate, and proceeds to step S143. The second representative frame candidate is a frame including a face recorded as a main face in the RAM 112.

ステップS143では、CPU105は、第2の代表フレーム候補の中で、顔が最も正面を向いているものを第2の代表フレームとし、リターンする。第2の代表フレームは、RAM112に正面向きに近い顔フレームとして記録されたフレームである。   In step S143, the CPU 105 sets the second representative frame candidate having the face most facing the front as the second representative frame, and returns. The second representative frame is a frame recorded as a face frame close to the front in the RAM 112.

図4は、図2のステップS150におけるサムネイルを作成する処理の詳細を示すフローチャートである。   FIG. 4 is a flowchart showing details of the process of creating a thumbnail in step S150 of FIG.

ステップS151では、CPU105は、第1の代表フレーム及び第2の代表フレームが2つとも抽出されたか否かを判定し、2つとも抽出されたと判定した場合はステップS152へ進み、2つとも抽出されなかったと判定した場合はステップS153へ進む。2つ抽出されない場合とは、録画中に顔認識されたフレームが一つも無く、第1の代表フレームのみが抽出されるような場合である。   In step S151, the CPU 105 determines whether or not both the first representative frame and the second representative frame have been extracted. If it is determined that both are extracted, the process proceeds to step S152 and both are extracted. If it is determined that it has not been performed, the process proceeds to step S153. The case where two are not extracted is a case where there is no frame whose face is recognized during recording and only the first representative frame is extracted.

ステップS152では、CPU105は、抽出された2つの代表フレームをサムネイルとして保存する。   In step S152, the CPU 105 stores the extracted two representative frames as thumbnails.

ステップS153では、CPU105は、代表フレームが1つ抽出されたか否かを判定し、抽出されたと判定した場合はステップS154へ進む。代表フレームが1つ抽出された場合とは、図3(a)の第1の代表フレームの抽出処理及び図3(b)の第2の代表フレームの抽出処理のいずれか一方のみから代表フレームが抽出された場合である。   In step S153, the CPU 105 determines whether one representative frame has been extracted. If it is determined that one representative frame has been extracted, the process proceeds to step S154. The case where one representative frame is extracted means that the representative frame is obtained from only one of the first representative frame extraction process in FIG. 3A and the second representative frame extraction process in FIG. This is the case when extracted.

ステップS153の判定において、代表フレーム1つも抽出されなかったと判定した場合はステップS155へ進む。代表フレームが1つも抽出されなかった場合とは、例えば、外部入出力部115から入力された動画データを本ビデオカメラに記録するときに、必要な撮影情報を参照できず、代表フレームが一つも抽出されない場合である。   If it is determined in step S153 that no representative frame has been extracted, the process proceeds to step S155. The case where no representative frame is extracted means that, for example, when recording moving image data input from the external input / output unit 115 to the present video camera, it is not possible to refer to necessary shooting information, and there is no representative frame. This is the case when it is not extracted.

ステップS154では、CPU105は、動画の最初のフレームと抽出されたフレームをサムネイルとして保存する。   In step S154, the CPU 105 stores the first frame of the moving image and the extracted frame as thumbnails.

ステップS155では、CPU105は、動画の最初のフレームと動画の中盤のフレームをサムネイルとして保存する。動画の中盤のフレームとは、撮影開始から終了までの間で時間的にちょうど真中にあたるフレームとする。   In step S155, the CPU 105 stores the first frame of the moving image and the middle frame of the moving image as thumbnails. The middle frame of the movie is a frame that is exactly in the middle from the start to the end of shooting.

ステップS152、S154、S155で作成されたサムネイルは、CPU105により、動画データに関連付けて記録メディア106に記録される。動画データをモニタ108に一覧表示する場合は、図5に示すように動画データ1つに対して、2つのサムネイルを横に並べて表示する。図示例では、サムネイル1が第1の代表フレーム、サムネイル2が第2の代表フレームとなる。また、動画データ1〜4の表示部分には、動画データのファイル名が表示される。   The thumbnails created in steps S152, S154, and S155 are recorded on the recording medium 106 by the CPU 105 in association with the moving image data. When the moving image data is displayed in a list on the monitor 108, two thumbnails are displayed side by side with respect to one moving image data as shown in FIG. In the illustrated example, thumbnail 1 is the first representative frame and thumbnail 2 is the second representative frame. Further, the file name of the moving image data is displayed in the display portion of the moving image data 1 to 4.

以上のように、第1の実施形態によれば、動画データ中の主要人物の代表フレームと風景の代表フレームの2つの代表フレームからサムネイルを作成することで、動画の内容を忠実に表現したわかりやすいサムネイルを作成することができる。特に、主被写体となる可能性の高い主要人物のフレームをサムネイル作成のための代表フレームの1つとして用いることで、誰を撮影した動画であるかを明示できる。そして、主要人物の代表フレームを抽出した条件とは異なる条件で風景の代表フレームを決定するので、同一人物を撮影した場合でも、風景を頼りに撮影場所の違いを識別でき、個々の動画データの識別が容易になる。   As described above, according to the first embodiment, a thumbnail is created from two representative frames of a main person and a landscape representative frame in the moving image data, so that the contents of the moving image are faithfully expressed. You can create thumbnails. In particular, by using a frame of a main person who is highly likely to be a main subject as one of the representative frames for creating a thumbnail, it is possible to clearly indicate who is the moving image. And since the representative frame of the landscape is determined under conditions different from the conditions for extracting the representative frame of the main person, even when the same person is shot, the difference in shooting location can be identified based on the landscape, and each video data Identification becomes easy.

なお、第1の実施形態では、画角情報と顔認識情報を基に、風景と主顔を代表フレームとして抽出したが、他の抽出手法を用いて代表フレームを抽出してもよい。例えば、輝度の高さ、音の大きさ、といったような任意の条件でフレームを抽出してもよい。輝度の高さは、屋外なのか屋内なのかを判別する際などに利用でき、音の大きさは盛り上がっているのかどうかを判別する際などに利用できると考えられる。   In the first embodiment, the landscape and the main face are extracted as the representative frames based on the angle of view information and the face recognition information. However, the representative frames may be extracted using other extraction methods. For example, the frames may be extracted under arbitrary conditions such as high brightness and loudness. It can be considered that the high brightness can be used when determining whether the sound is outdoor or indoor, and that the sound can be used when determining whether or not the loudness of the sound is rising.

また、第1の実施形態では、図5に示すように、第1の代表フレームと第2の代表フレームを横に並べて表示したが、表示方法はこれに限定しない。例えば、縦に2つ並べたり、異なる大きさで2つ並べたりしてもよい。   In the first embodiment, as shown in FIG. 5, the first representative frame and the second representative frame are displayed side by side, but the display method is not limited to this. For example, two may be arranged vertically, or two may be arranged in different sizes.

[第2の実施形態]
第2の実施形態では、第1の実施形態と同様に、ビデオカメラで撮影した動画の中で、主要人物のフレームと風景のフレームの2枚を抽出するが、2枚並べて表示するのではなく、2枚を合成してサムネイルを作成する例を述べる。第2の実施形態におけるサムネイル作成処理及び代表フレーム抽出処理については、第1の実施形態で説明した図2のフローチャート及び図3のフローチャートと同様の処理なので、それらの説明を省略する。
[Second Embodiment]
In the second embodiment, as in the first embodiment, two frames of the main person frame and the landscape frame are extracted from the video shot by the video camera, but they are not displayed side by side. An example of creating a thumbnail by combining two images will be described. Since the thumbnail creation process and the representative frame extraction process in the second embodiment are the same as those in the flowchart of FIG. 2 and the flowchart of FIG. 3 described in the first embodiment, description thereof will be omitted.

以下、第2の実施形態における図2のステップS150での処理である第1及び第2の代表フレームからサムネイルを作成する処理について図6を用いて述べる。なお、このサムネイル作成における各処理は、CPU105がROM113に格納されたプログラムをRAM112に展開して実行することにより実現される。   Hereinafter, processing for creating a thumbnail from the first and second representative frames, which is processing in step S150 of FIG. 2 in the second embodiment, will be described with reference to FIG. Note that each processing in the thumbnail creation is realized by the CPU 105 developing and executing a program stored in the ROM 113 on the RAM 112.

図6は、第2の実施形態における2つの代表フレームからサムネイルを作成する処理の一例を示すフローチャートである。なお、図6のステップS151、S153は、第1の実施形態で説明した図4のステップS151、S153と同様の処理なのでそれらの説明を省略する。   FIG. 6 is a flowchart illustrating an example of a process for creating a thumbnail from two representative frames in the second embodiment. Note that steps S151 and S153 in FIG. 6 are the same as steps S151 and S153 in FIG. 4 described in the first embodiment, and thus the description thereof is omitted.

図6のステップS252では、CPU105は、抽出された2つの代表フレームを合成し、サムネイルとして保存する。代表フレームの合成方法については、図7に示す代表フレームの例を用いて、具体的に説明する。   In step S252 of FIG. 6, the CPU 105 combines the extracted two representative frames and saves them as thumbnails. The method for synthesizing the representative frame will be specifically described using the example of the representative frame shown in FIG.

図7(a)に第1の代表フレーム、図7(b)に第2の代表フレームを示す。図7(c)には、第1の代表フレームと第2の代表フレームを合成して作成されたサムネイルを示す。   FIG. 7A shows a first representative frame, and FIG. 7B shows a second representative frame. FIG. 7C shows a thumbnail created by combining the first representative frame and the second representative frame.

まず、CPU105は、第2の代表フレームにおいて、顔認識した部分を切り取る。次に、CPU105は、切り取った顔の部分を拡大もしくは縮小し、第1の代表フレーム(風景の代表フレームの全体範囲を用いると良い)の右上に図7(c)に示したように合成する。そして、合成した画像をサムネイルとして保存する。   First, the CPU 105 cuts out the face recognized portion in the second representative frame. Next, the CPU 105 enlarges or reduces the cut face portion, and composes it as shown in FIG. 7C on the upper right of the first representative frame (the entire range of the representative frame of the landscape may be used). . Then, the synthesized image is saved as a thumbnail.

ステップS254では、CPU105は、抽出された1つの代表フレームをサムネイルとして保存する。   In step S254, the CPU 105 saves the extracted representative frame as a thumbnail.

ステップS255では、CPU105は、動画の最初のフレームをサムネイルとして保存する。   In step S255, the CPU 105 stores the first frame of the moving image as a thumbnail.

ステップS252、S254、S255で作成されたサムネイルは、動画データに関連付けて記録メディア106に記録される。   The thumbnails created in steps S252, S254, and S255 are recorded on the recording medium 106 in association with the moving image data.

図8は、動画データをモニタ108に一覧表示したときのサムネイル表示例を示す図である。   FIG. 8 is a diagram showing an example of thumbnail display when moving image data is displayed as a list on the monitor 108.

図8において、動画データ1、2、4、6、7は撮影中に顔認識されたフレームがあったものであり、2つの代表フレームを合成したサムネイルが表示されている。動画データ3,5,8は撮影中に顔認識されたフレームがなかったものであり、1つの代表フレームがサムネイルとして表示されている。   In FIG. 8, moving image data 1, 2, 4, 6, and 7 are frames in which a face is recognized during shooting, and thumbnails obtained by combining two representative frames are displayed. The moving image data 3, 5, and 8 have no frames whose faces are recognized during shooting, and one representative frame is displayed as a thumbnail.

以上のように、第2の実施形態によれば、動画データ中の主要人物の代表フレームと風景の代表フレームを合成してサムネイルを作成することで、限られた表示範囲において、動画内容のわかりやすいサムネイルを作成することができる。風景は一部が隠れても内容把握の妨げにはならず、顔は顔だけ切り取っても誰かわかるので周りが無くても問題はないため、主要人物と風景の画像を合成することで、限られた領域を有効に使うことができる。   As described above, according to the second embodiment, by creating a thumbnail by synthesizing the representative frame of the main person in the moving image data and the representative frame of the landscape, it is easy to understand the moving image content in a limited display range. You can create thumbnails. Even if a part of the landscape is hidden, it does not interfere with grasping the contents, and even if the face is cut out, someone can understand and there is no problem even if there is no surroundings. The specified area can be used effectively.

なお、第2の実施形態では、2つの代表フレームを合成して図7(c)のように出力したが、合成する方法についてはこれに限定しない。例えば、切り抜いた主顔を右上ではなく左下に合成してもよく、2つの代表フレームを任意の大きさに拡大もしくは縮小して合成してもよい。   In the second embodiment, two representative frames are combined and output as shown in FIG. 7C, but the combining method is not limited to this. For example, the clipped main face may be combined with the lower left instead of the upper right, or the two representative frames may be combined with enlargement or reduction to an arbitrary size.

以上説明したように、本発明によれば、異なる2つの条件によって抽出した2つの代表フレームを用いることで内容のわかりやすいサムネイルを作成することが可能となる。また、動画データ中の主要な人物をサムネイルとすることで、誰を撮影した動画であるかを明示できる。さらに、主要な人物だけでなく、代表的なフレームもサムネイルとするので、同一人物を撮影した場合でも、個々の動画データの識別が容易になる。そして、2つの代表フレームを合成したものをサムネイルとすることで、限られた表示範囲において、より内容のわかりやすいサムネイルを作成することが可能となる。   As described above, according to the present invention, it is possible to create a thumbnail whose contents are easily understood by using two representative frames extracted under two different conditions. In addition, by using the main person in the moving image data as a thumbnail, it is possible to clearly indicate who the moving image was captured. Furthermore, since not only main persons but also representative frames are thumbnails, individual moving image data can be easily identified even when the same person is photographed. Then, by combining the two representative frames as a thumbnail, it becomes possible to create a thumbnail that is easier to understand in a limited display range.

なお、CPU105の制御は1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。   Note that the control of the CPU 105 may be performed by a single piece of hardware, or the entire apparatus may be controlled by a plurality of pieces of hardware sharing the processing.

また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。   Although the present invention has been described in detail based on the preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms without departing from the gist of the present invention are also included in the present invention. included. Furthermore, each embodiment mentioned above shows only one embodiment of this invention, and it is also possible to combine each embodiment suitably.

また、上述した実施形態においては、本発明をデジタルカメラに適用した場合を例にして説明したが、これはこの例に限定されない。すなわち、本発明はPCやPDA、携帯電話端末や携帯型の動画再生装置、プリンタ装置に設けられたディスプレイなど、複数の画像を同時に表示するように制御可能な表示制御装置であれば適用可能である。   Further, in the above-described embodiment, the case where the present invention is applied to a digital camera has been described as an example, but this is not limited to this example. That is, the present invention can be applied to any display control device that can be controlled to display a plurality of images simultaneously, such as a PC, a PDA, a mobile phone terminal, a portable video playback device, or a display provided in a printer device. is there.

本発明は、上記実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記録媒体は本発明を構成することになる。   The present invention supplies software (programs) for realizing the functions of the above-described embodiments to a system or apparatus via a network or various recording media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program code. To be executed. In this case, the program and the recording medium storing the program constitute the present invention.

105 CPU
106 記録メディア
107 記録メディア制御回路
108 モニタ
109 再生回路
110 OSD回路
111 操作スイッチ
112 RAM
113 ROM
115 外部入出力部
105 CPU
106 Recording medium 107 Recording medium control circuit 108 Monitor 109 Playback circuit 110 OSD circuit 111 Operation switch 112 RAM
113 ROM
115 External input / output unit

Claims (14)

動画データから第1の条件に基づいて第1の代表フレームを抽出する第1の代表フレーム抽出手段と、
前記動画データから、前記第1の条件とは異なる第2の条件に基づいて第2の代表フレームを抽出する第2の代表フレーム抽出手段と、
前記抽出された第1の代表フレームと第2の代表フレームをサムネイルとして前記動画データに関連付けて保存する制御手段と、
前記動画データから人物の顔を認識する顔認識手段とを有し、
前記第2の代表フレーム抽出手段は、前記動画データのうち、前記顔認識手段で顔が認識されたフレームを前記第2の代表フレームとして抽出し、
前記第1の代表フレーム抽出手段は、前記動画データのうち、前記顔認識手段で顔が認識されていないフレームを前記第1の代表フレームとして抽出し、
前記制御手段は、前記第1の代表フレームと前記第2の代表フレームとを合成した画像を前記サムネイルとして前記動画データに関連づけて保存する
ことを特徴とする画像処理装置。
First representative frame extracting means for extracting a first representative frame from moving image data based on a first condition;
Second representative frame extracting means for extracting a second representative frame from the moving image data based on a second condition different from the first condition;
Control means for storing the extracted first representative frame and second representative frame as thumbnails in association with the moving image data;
A face recognition means for recognizing a person's face from the video data;
The second representative frame extracting means extracts, as the second representative frame, a frame in which the face is recognized by the face recognition means from the moving image data.
The first representative frame extracting means extracts a frame whose face is not recognized by the face recognition means as the first representative frame from the moving image data,
The image processing apparatus, wherein the control unit stores an image obtained by combining the first representative frame and the second representative frame in association with the moving image data as the thumbnail.
前記第2の代表フレーム抽出手段は、前記動画データのうち、前記顔認識手段により最も長く認識された人物の顔を含むフレームを前記第2の代表フレームとして抽出することを特徴とする請求項1に記載の画像処理装置。   2. The second representative frame extracting unit extracts a frame including a human face recognized by the face recognizing unit for the longest time from the moving image data as the second representative frame. An image processing apparatus according to 1. 前記第2の代表フレーム抽出手段は、前記動画データのうちの前記顔認識手段により最も長く認識された人物の顔を含むフレームのうち、該人物の顔の向きが最も正面を向いているフレームを前記第2の代表フレームとして抽出することを特徴とする請求項2に記載の画像処理装置。   The second representative frame extracting means selects a frame in which the face direction of the person is most facing among the frames including the face of the person recognized the longest by the face recognition means in the moving image data. The image processing apparatus according to claim 2, wherein the image is extracted as the second representative frame. 前記第2の代表フレーム抽出手段は、前記動画データにおいて前記顔認識手段により認識された人物の顔うち、ユーザーにより選択された人物の顔を含むフレームを前記第2の代表フレームとして抽出することを特徴とする請求項1に記載の画像処理装置。   The second representative frame extracting means extracts, as the second representative frame, a frame including the face of the person selected by the user among the faces of the person recognized by the face recognition means in the moving image data. The image processing apparatus according to claim 1, wherein: 前記顔認識手段による認識の結果に関する情報を記録手段に記録し、
前記第2の代表フレーム抽出手段は、前記記録手段に記録された前記認識の結果に関する情報を参照して前記第2の代表フレームを抽出することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
Information on the result of recognition by the face recognition means is recorded in the recording means;
5. The second representative frame extraction unit according to claim 1, wherein the second representative frame extraction unit extracts the second representative frame with reference to information on the recognition result recorded in the recording unit. The image processing apparatus according to item.
前記第1の代表フレーム抽出手段は、前記動画データの撮影時の画角の情報に基づいて前記第1の代表フレームを抽出することを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。   6. The first representative frame extracting unit according to claim 1, wherein the first representative frame extracting unit extracts the first representative frame based on information on an angle of view when the moving image data is captured. Image processing apparatus. 前記第1の代表フレーム抽出手段は、前記動画データに含まれる前記第1の代表フレームの候補となるフレームのうち、最も撮影時の画角が広いフレームを前記第1の代表フレームとして抽出することを特徴とする請求項6に記載の画像処理装置。   The first representative frame extracting means extracts, as the first representative frame, a frame having the widest angle of view at the time of shooting among frames that are candidates for the first representative frame included in the moving image data. The image processing apparatus according to claim 6. 前記動画データの撮影時の画角に関する情報を記録手段に記録し、
前記第1の代表フレーム抽出手段は、前記記録手段に記録された前記画角に関する情報を参照して前記第1の代表フレームを抽出することを特徴とする請求項6または7に記載の画像処理装置。
Information on the angle of view at the time of shooting the moving image data is recorded in the recording means,
The image processing according to claim 6 or 7, wherein the first representative frame extraction unit extracts the first representative frame with reference to information on the angle of view recorded in the recording unit. apparatus.
前記第1の代表フレーム抽出手段および前記第2の代表フレーム抽出手段のうち一方は、輝度の高さ、音の大きさのうち、他方の代表フレーム抽出手段とは異なる条件に基づいて前記第1の代表フレームまたは前記第2の代表フレームを抽出することを特徴とする請求項1乃至8の何れか1項に記載の画像処理装置。   One of the first representative frame extracting unit and the second representative frame extracting unit is configured to select the first representative frame extracting unit based on a condition different from that of the other representative frame extracting unit among the luminance level and the loudness. The image processing apparatus according to claim 1, wherein the representative frame or the second representative frame is extracted. 前記制御手段は、前記第2の代表フレームの一部範囲を切り出したものを前記第1の代表フレームに重畳した画像を前記サムネイルとして前記動画データに関連づけて保存するように制御することを特徴とする請求項1に記載の画像処理装置。   The control means performs control so as to store an image obtained by clipping a partial range of the second representative frame and superimposed on the first representative frame as the thumbnail in association with the moving image data. The image processing apparatus according to claim 1. 前記第1の条件に合致するフレームが無く前記第1の代表フレームが抽出されなかった場合、または前記第2の条件に合致するフレームが無く前記第2の代表フレームが抽出されなかった場合は、前記制御手段は、第1の代表フレームと第2の代表フレームのうち抽出された一方と、前記動画データの先頭フレームとをサムネイルとして前記動画データに関連づけて保存することを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。   When there is no frame that matches the first condition and the first representative frame is not extracted, or when there is no frame that matches the second condition and the second representative frame is not extracted, 2. The control unit according to claim 1, wherein one of the first representative frame and the second representative frame extracted and the first frame of the moving image data are stored in association with the moving image data as thumbnails. The image processing apparatus according to any one of 1 to 10. 動画データから第1の条件に基づいて第1の代表フレームを抽出する第1の代表フレーム抽出ステップと、
前記動画データから、前記第1の条件とは異なる第2の条件に基づいて第2の代表フレームを抽出する第2の代表フレーム抽出ステップと、
前記抽出された第1の代表フレームと第2の代表フレームをサムネイルとして前記動画データに関連付けて保存する制御ステップと、
前記動画データから人物の顔を認識する顔認識ステップとを有し、
前記第2の代表フレーム抽出ステップは、前記動画データのうち、前記顔認識ステップで顔が認識されたフレームを前記第2の代表フレームとして抽出し、
前記第1の代表フレーム抽出ステップは、前記動画データのうち、前記顔認識ステップで顔が認識されていないフレームを前記第1の代表フレームとして抽出し、
前記制御ステップは、前記第1の代表フレームと前記第2の代表フレームとを合成した画像を前記サムネイルとして前記動画データに関連づけて保存する
ことを特徴とする画像処理装置の制御方法。
A first representative frame extraction step of extracting a first representative frame from the moving image data based on a first condition;
A second representative frame extracting step of extracting a second representative frame from the moving image data based on a second condition different from the first condition;
A control step of storing the extracted first representative frame and second representative frame as thumbnails in association with the moving image data;
A face recognition step for recognizing a person's face from the video data,
It said second representative frame extraction step, among the moving image data, extracts a frame in which the face is recognized by the face recognition step as said second representative frame,
The first representative frame extraction step extracts, from the moving image data, a frame whose face is not recognized in the face recognition step as the first representative frame,
The control step stores the image obtained by combining the first representative frame and the second representative frame in association with the moving image data as the thumbnail.
コンピュータを、請求項1乃至11のいずれか1項に記載された画像処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the image processing apparatus as described in any one of Claims 1 thru | or 11. コンピュータを、請求項1乃至11のいずれか1項に記載された画像処理装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing a program for causing a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 11.
JP2010135993A 2010-06-15 2010-06-15 Image processing apparatus, image processing apparatus control method, program, and recording medium Expired - Fee Related JP5665380B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010135993A JP5665380B2 (en) 2010-06-15 2010-06-15 Image processing apparatus, image processing apparatus control method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010135993A JP5665380B2 (en) 2010-06-15 2010-06-15 Image processing apparatus, image processing apparatus control method, program, and recording medium

Publications (3)

Publication Number Publication Date
JP2012004713A JP2012004713A (en) 2012-01-05
JP2012004713A5 JP2012004713A5 (en) 2013-07-25
JP5665380B2 true JP5665380B2 (en) 2015-02-04

Family

ID=45536235

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010135993A Expired - Fee Related JP5665380B2 (en) 2010-06-15 2010-06-15 Image processing apparatus, image processing apparatus control method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP5665380B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5828117B2 (en) * 2012-03-28 2015-12-02 パナソニックIpマネジメント株式会社 Image processing apparatus and computer program

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001167110A (en) * 1999-12-08 2001-06-22 Matsushita Electric Ind Co Ltd Picture retrieving method and its device
JP4536940B2 (en) * 2001-01-26 2010-09-01 キヤノン株式会社 Image processing apparatus, image processing method, storage medium, and computer program
JP4559964B2 (en) * 2005-12-26 2010-10-13 株式会社日立国際電気 Image processing program
JP4637045B2 (en) * 2006-03-27 2011-02-23 三洋電機株式会社 Imaging device
JP2008199330A (en) * 2007-02-14 2008-08-28 Canon Inc Moving image management apparatus
JP2009267682A (en) * 2008-04-24 2009-11-12 Nikon Corp Representative image determination device and camera
JP2009200827A (en) * 2008-02-21 2009-09-03 Toshiba Corp Electronic device and image display method
JP5106271B2 (en) * 2008-06-27 2012-12-26 キヤノン株式会社 Image processing apparatus, image processing method, and computer program
JP2010016729A (en) * 2008-07-07 2010-01-21 Hitachi Ltd Imaging apparatus
JP5141447B2 (en) * 2008-08-28 2013-02-13 株式会社ニコン Image display device and image display program
JP4623201B2 (en) * 2008-10-27 2011-02-02 ソニー株式会社 Image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP2012004713A (en) 2012-01-05

Similar Documents

Publication Publication Date Title
JP4775306B2 (en) Image processing apparatus, imaging apparatus, image display control method, and computer program
JP4760892B2 (en) Display control apparatus, display control method, and program
US20140153900A1 (en) Video processing apparatus and method
JP2006129453A (en) Image reproduction apparatus and image reproduction program
JP5677011B2 (en) Video playback apparatus and control method thereof
JP2013239797A (en) Image processing device
JP2011030089A (en) Image processing apparatus and program
JP2008199330A (en) Moving image management apparatus
JP2009290318A (en) Image capturing apparatus and zooming adjustment method
JP6355333B2 (en) Imaging apparatus, image processing apparatus, image processing method, and program
JP5665380B2 (en) Image processing apparatus, image processing apparatus control method, program, and recording medium
JP2013121097A (en) Imaging apparatus, imaging method, image generating apparatus, image generating method and program
JP2011119936A (en) Photographing device and reproducing method
JP6332864B2 (en) Image processing apparatus, image processing method, and program
JP2010097449A (en) Image composition device, image composition method and image composition program
JP5479149B2 (en) Image generation device
JP6512208B2 (en) Image processing apparatus, image processing method and program
JP5167964B2 (en) Display control apparatus, display control method, and program
JP6625598B2 (en) Image generation apparatus, image generation method, image generation program, and image generation system
JP2011119934A (en) Image shooting device and image shooting method
JP2010171849A (en) Image reproducing apparatus and electronic camera
JP4842232B2 (en) Imaging apparatus and image reproduction apparatus
JP5147737B2 (en) Imaging device
JP2021002803A (en) Image processing apparatus, control method therefor, and program
JP6249771B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130606

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140415

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141209

R151 Written notification of patent or utility model registration

Ref document number: 5665380

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees