JP2012249211A - Image file generating device, image file generating program and image file generating method - Google Patents

Image file generating device, image file generating program and image file generating method Download PDF

Info

Publication number
JP2012249211A
JP2012249211A JP2011121201A JP2011121201A JP2012249211A JP 2012249211 A JP2012249211 A JP 2012249211A JP 2011121201 A JP2011121201 A JP 2011121201A JP 2011121201 A JP2011121201 A JP 2011121201A JP 2012249211 A JP2012249211 A JP 2012249211A
Authority
JP
Japan
Prior art keywords
frame data
areas
image file
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011121201A
Other languages
Japanese (ja)
Other versions
JP2012249211A5 (en
Inventor
Yoshiki Ikui
孝樹 生井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2011121201A priority Critical patent/JP2012249211A/en
Publication of JP2012249211A publication Critical patent/JP2012249211A/en
Publication of JP2012249211A5 publication Critical patent/JP2012249211A5/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To extract the frame data suitable for displaying in slide show form from video data and to file the frame data thus extracted.SOLUTION: Frame data is extracted from video data every predetermined time ΔT, by repeating the loop from step S104 to step S108. If the discrepancy rate of the frame data thus extracted and the frame data extracted just before goes above a predetermined value, the frame data extracted in the (n+1)th is stored in a folder creation area. Consequently, plural pieces of frame data extracted from the video data every predetermined time ΔT and different from an image extracted just before are stored in the folder creation area of RAM. After completing the processing from step S104 to step S107 for the full length of the video data, an image file including plural pieces of frame data of comic pictures described later is generated through file generating processing (step S109).

Description

本発明は、画像ファイル生成装置、画像ファイル生成プログラム及び画像ファイル生成方法に関し、特に動画データから画像ファイルを生成する技術に関する。   The present invention relates to an image file generation device, an image file generation program, and an image file generation method, and more particularly to a technique for generating an image file from moving image data.

近年、デジタルカメラの普及により、写真は、デジタル画像データとして保存することが一般的となっている。従来のフィルムカメラによる撮影の場合、プリントを伴うことが多かったが、画像データの場合、撮影したデジタルカメラで閲覧したり、画像データを取り込んだパーソナルコンピュータなどで閲覧したりすることができるため、写真の楽しみ方にも変化が生じている。   In recent years, with the widespread use of digital cameras, it has become common to store photographs as digital image data. In the case of shooting with a conventional film camera, it was often accompanied by printing, but in the case of image data, it can be browsed with a digital camera that has shot, or it can be browsed with a personal computer that captures image data, etc. There are also changes in the way photos are enjoyed.

このような状況において、画像データでも従来のプリント写真と同様の楽しみ方ができるようにするため、所謂デジタルフォトフレームが実現され普及している(例えば、特許文献1)。   In such a situation, so-called digital photo frames are realized and popularized so that image data can be enjoyed in the same way as a conventional print photograph (for example, Patent Document 1).

デジタルフォトフレームでは、デジタル方式の特性を活かし、従来のプリント写真を掲出するフォトフレームではできなかった複数の写真をスライドショー形式で表示するなどの多様な表示態様を実現することができるとともに、画像処理を加えることで、例えば、元の写真をベースとしつつも趣の異なる画調の画像(例えば絵画調など)を生成して表示することができるようにした発明が提案されている(例えば、特許文献2)。   Digital photo frames can realize various display modes such as displaying multiple photos in a slideshow format that could not be done with photo frames that display conventional print photos by taking advantage of the characteristics of digital methods, and image processing For example, an invention has been proposed in which an image having a different tone (for example, a painting tone) can be generated and displayed based on an original photograph (for example, a patent) Reference 2).

特開2009−141678号公報JP 2009-141678 A 特開平8−44867号公報JP-A-8-44867

しかしながら、デジタルフォトフレームにおいてスライドショー形式で表示される画像は、静止画撮影された画像である。したがって、より多くの異なる画像をスライドショー形式で表示するためには、多くの静止画撮影を行わなければならず、事前準備が煩雑となる。   However, the image displayed in the slide show format in the digital photo frame is an image obtained by taking a still image. Therefore, in order to display a larger number of different images in the slide show format, a large number of still images must be taken, and preparations are complicated.

そこで、時間的に連続する複数のフレームデータで構成される動画データを用い、この動画データを構成する個々のフレームデータをスライドショー形式で表示させることが考えられる。このようにすれば、例えば1回の動画撮影で多くのフレームデータを取得することができるので、簡単な事前準備によって多くの異なる画像をスライドショー形式で表示することができる。   Therefore, it is conceivable to use moving image data composed of a plurality of temporally continuous frame data, and display individual frame data constituting the moving image data in a slide show format. In this way, for example, a large amount of frame data can be acquired by shooting a single moving image, so that many different images can be displayed in a slide show format with a simple advance preparation.

しかしながら、動画撮影された複数のフレームデータにあっては、時間的に連続する複数のフレームデータ間に相違がなく、同一のフレームデータが連続する場合や、僅かに相違するフレームデータが連続する場合が多い。したがって、動画データを構成する個々のフレームデータをスライドショー形式で表示させると、同一あるいは僅かに相違するに過ぎない画像が順次表示される。このため、ユーザにおいて早期に画像の観賞を飽きてしまうという問題が生ずる。   However, in the case of a plurality of frame data captured by moving images, there is no difference between a plurality of temporally continuous frame data, and the same frame data is continuous or a slightly different frame data is continuous. There are many. Therefore, when the individual frame data constituting the moving image data is displayed in the slide show format, images that are the same or only slightly different are sequentially displayed. For this reason, there arises a problem that the user gets tired of viewing the image at an early stage.

本発明は、かかる従来の課題に鑑みてなされたものであり、動画データからスライドショー形式での表示に適切なフレームデータを抽出してファイル化することのできる画像ファイル生成装置、画像ファイル生成プログラム及び画像ファイル生成方法を提供することを目的とする。   The present invention has been made in view of such conventional problems, and an image file generation apparatus, an image file generation program, and an image file generation program capable of extracting frame data suitable for display in a slide show format from moving image data and creating a file An object is to provide an image file generation method.

前記課題を解決するため、本発明に係る画像ファイル生成装置にあっては、複数のフレームデータのうち、n番目に選択された前記フレームデータの複数のエリアと、n+1番目に選択された前記フレームデータの複数のエリアと、を比較し、前記複数のエリアにおける所定の割合以上が異なる場合、前記n+1番目に選択された前記フレームデータを抽出することを特徴とする。   In order to solve the above problems, in the image file generation device according to the present invention, among a plurality of frame data, a plurality of areas of the nth selected frame data and the n + 1th selected frame A plurality of areas of data are compared with each other, and when a predetermined ratio or more in the plurality of areas differs, the n + 1-th selected frame data is extracted.

また、本発明に係る本発明に係る画像ファイル生成プログラムにあっては、画像ファイル生成装置が有するコンピュータを、複数のフレームデータのうち、n番目に選択された前記フレームデータの複数のエリアと、n+1番目に選択された前記フレームデータの複数のエリアと、を比較し、前記複数のエリアにおける所定の割合以上が異なる場合、前記n+1番目に選択された前記フレームデータを抽出する手段として機能させることを特徴とする。   Further, in the image file generation program according to the present invention according to the present invention, the computer included in the image file generation device includes a plurality of areas of the frame data selected n-th among a plurality of frame data, and Compared with a plurality of areas of the n + 1-th selected frame data, and when a predetermined ratio or more in the plurality of areas is different, function as means for extracting the n + 1-th selected frame data It is characterized by.

また、本発明に係る本発明に係る画像ファイル生成方法にあっては、複数のフレームデータのうち、n番目に選択された前記フレームデータの複数のエリアと、n+1番目に選択された前記フレームデータの複数のエリアと、を比較し、前記複数のエリアにおける所定の割合以上が異なる場合、前記n+1番目に選択された前記フレームデータを抽出することを特徴とする。   In the image file generation method according to the present invention according to the present invention, among a plurality of frame data, a plurality of areas of the nth selected frame data and the n + 1th selected frame data And the n + 1-th selected frame data is extracted when a predetermined ratio or more in the plurality of areas is different.

本発明によれば、動画撮影を行うという簡単な事前準備により、動画データからスライドショー形式での表示に適切な相違性のあるフレームデータを抽出してファイル化することができる。よって、簡単な事前準備によりユーザのスライドショー観賞に対する興趣性を向上させることができる。   According to the present invention, frame data having a difference suitable for display in a slide show format can be extracted from moving image data and filed by simple preparation for moving image shooting. Therefore, the interest property with respect to a user's slide show appreciation can be improved by simple prior preparation.

本発明の実施形態に係る画像表示装置の回路構成、及びシステム構成を示すブロック図である。1 is a block diagram illustrating a circuit configuration and a system configuration of an image display apparatus according to an embodiment of the present invention. メモリカードの記憶状態を示す図である。It is a figure which shows the memory | storage state of a memory card. 本実施の形態のメインルーチンを示すフローチャートである。It is a flowchart which shows the main routine of this Embodiment. 動画データの模式図である。It is a schematic diagram of moving image data. フレームデータの比較方法を示す図である。It is a figure which shows the comparison method of frame data. 漫画絵変換インターラプトルーチンを示すフローチャートである。It is a flowchart which shows a comic picture conversion interrupt routine. 吹き出しが合成された漫画絵の一例を示す図である。It is a figure which shows an example of the comic picture with which the speech balloon was synthesize | combined.

以下、本発明の実施形態について説明する。図1は、本実施の形態に係る画像ファイル生成装置を内蔵する画像表示装置1、及びこれを含む画調変換システムの電気的構成を示したブロック図である。画像表示装置1は、CPU(Central Processing Unit)11と、CPU11に接続されたROM(Read Only Memory)12、RAM(Random Access memory)13、内部メモリ14を備える。ROM12には、CPU11に後述するフローチャートに示す動作を行わせるためのプログラム等が記憶されている。   Hereinafter, embodiments of the present invention will be described. FIG. 1 is a block diagram showing an electrical configuration of an image display device 1 incorporating an image file generation device according to the present embodiment and an image tone conversion system including the image display device 1. The image display device 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12 connected to the CPU 11, a RAM (Random Access memory) 13, and an internal memory 14. The ROM 12 stores a program or the like for causing the CPU 11 to perform an operation shown in a flowchart described later.

内部メモリ14は、ハードディスク又はフラッシュメモリによる大容量不揮発性メモリであり、後述するフローに示す処理により作成された新たな画像ファイルが保存可能となっている。表示制御部16は、CPU11により制御されてRAM13のバッファエリアに格納される画像データに基づいて液晶等からなる表示パネル3を駆動することにより、画像や各種メニューを表示パネル3に表示させる。   The internal memory 14 is a large-capacity nonvolatile memory such as a hard disk or a flash memory, and can store a new image file created by the processing shown in the flow described later. The display control unit 16 controls the CPU 11 to display the image and various menus on the display panel 3 by driving the display panel 3 made of liquid crystal or the like based on the image data stored in the buffer area of the RAM 13.

キー入力制御部17はCPU11の制御に基づいてタッチパネル5のタッチ検出信号と、キー入力部21の操作信号を入力するものである。タッチパネル5は、表示パネル3に積層されており、タッチ位置を検出してタッチ位置を示すタッチ位置検出信号を発生する。また、本実施の形態において、キー入力部21には、電源スイッチ、モード選択SW(スイッチ)、動画像選択SW、及びその他のスイッチが設けられている。   The key input control unit 17 inputs a touch detection signal of the touch panel 5 and an operation signal of the key input unit 21 based on the control of the CPU 11. The touch panel 5 is stacked on the display panel 3, and detects a touch position and generates a touch position detection signal indicating the touch position. In the present embodiment, the key input unit 21 is provided with a power switch, a mode selection SW (switch), a moving image selection SW, and other switches.

メモリカードインターフェース18は、メモリカードスロットに着脱自在に装着された各種のメモリカード60と、CPU11との間におけるデータの入出力を制御する入出力インターフェースである。メモリカード60には、例えば音声付き動画撮影機能を備えたデジタルカメラでの撮影によって動画データが記録されている。したがって、メモリカード60に記録されている動画データは、時間的に連続する所定のフレームレートからなる複数のフレームデータと、音声を表す音声データとで構成されている。動画データは、24fps〜30fps(Frame Per Second)程度で滑らかな動きを表現できる。このように、1秒間に例えば24〜30枚の静止画像を連続表示することで動きのある画像を表現しているが、この1枚1枚の静止画像をフレームと呼び、フレームは動画データを構成する最小単位である。従って、連続して並べた静止画像を次々に入れ替えて表示することで動画が表現される。   The memory card interface 18 is an input / output interface that controls data input / output between the CPU 11 and various memory cards 60 that are detachably mounted in the memory card slot. For example, moving image data is recorded on the memory card 60 by shooting with a digital camera having a moving image shooting function with sound. Therefore, the moving image data recorded on the memory card 60 is composed of a plurality of frame data having a predetermined frame rate that is temporally continuous and audio data representing audio. The moving image data can express a smooth motion at about 24 fps to 30 fps (Frame Per Second). As described above, for example, 24 to 30 still images are continuously displayed per second to express a moving image. Each still image is called a frame. It is the smallest unit to compose. Therefore, a moving image is expressed by displaying the continuously arranged still images one after another.

GPS制御部20は、GPSアンテナ7で受信した情報を元に位置情報を取得する。これにより、画像表示装置1の現在位置を知ることもできる。人感センサ19はCPU11に接続され、近くに人がいるかどうかを検知するものである。したがって、近くに人がいない状態が所定時間以上続くと自動的に電源を切って節電を図る(オートパワーオフ)。   The GPS control unit 20 acquires position information based on information received by the GPS antenna 7. Thereby, the current position of the image display apparatus 1 can also be known. The human sensor 19 is connected to the CPU 11 and detects whether a person is nearby. Therefore, when a person is not in the vicinity for a predetermined time or longer, the power is automatically turned off to save power (auto power off).

通信制御部30は、電話回線31若しくは無線LAN32を経由して画像やメールの送受信を含む通信制御を行う。アドレス帳33は、メール送受信に使用するものであり、実際は内部メモリ14内に設けられる。   The communication control unit 30 performs communication control including image and mail transmission / reception via the telephone line 31 or the wireless LAN 32. The address book 33 is used for mail transmission / reception, and is actually provided in the internal memory 14.

バックアップサーバ40は、ネットワーク90を介して接続され、自動的に若しくは手動指示により内部メモリ14に記録されたデータのバックアップを行う。コンテンツサーバ50は、多数のコンテンツや画像を有しており、ネットワーク90を介して画像表示装置1へデータを配信することができる。   The backup server 40 is connected via the network 90 and backs up data recorded in the internal memory 14 automatically or by a manual instruction. The content server 50 has a large number of contents and images, and can distribute data to the image display device 1 via the network 90.

撮像装置70は、所謂デジタルカメラであり、撮像素子やこれを制御する撮像制御部、及び画像送信部等を備える。そして、撮像制御部により撮像素子を駆動してカラーからなる被写体の画像を所定の周期(フレームレート)で取り込む制御を行い、取り込んだライブビュー画像を外部に送信する送信手段を備える。この撮像装置70は、ネットワーク90を介して電話回線31あるいは無線LAN32で画像表示装置1の通信制御部30に接続されている。したがって、画像表示装置1のCPU11は、撮像装置70により撮像されて、前記送信手段により転送されたライブビュー画像を逐次取り込むことが可能である。   The imaging device 70 is a so-called digital camera, and includes an imaging device, an imaging control unit that controls the imaging device, an image transmission unit, and the like. In addition, the image capturing device includes a transmission unit that drives the image sensor to capture an image of a color subject at a predetermined period (frame rate) and transmits the captured live view image to the outside. The imaging device 70 is connected to the communication control unit 30 of the image display device 1 via a network 90 via a telephone line 31 or a wireless LAN 32. Therefore, the CPU 11 of the image display device 1 can sequentially capture the live view images captured by the imaging device 70 and transferred by the transmission unit.

このとき、撮像装置70が、ユーザが有している画像表示装置1の場所とは異なる遠隔地に配置されていることにより、ユーザは遠隔地の景色を画像表示装置1の表示パネル3で観賞することができる。   At this time, since the imaging device 70 is arranged at a remote location different from the location of the image display device 1 that the user has, the user can view the scenery of the remote location on the display panel 3 of the image display device 1. can do.

また、電源制御部80は、電源プラグ81を介してAC電源を取り入れ、直流に変換して各部に電力を供給する。前述したオートパワーオフの制御も行う。RAM13は、CPU11が必要に応じて種々のデータを一時的に記憶する作業用のメモリであり、後述するフローに示すバッファエリアを備える。   Further, the power control unit 80 takes in AC power through the power plug 81, converts it into direct current, and supplies power to each unit. The auto power-off control described above is also performed. The RAM 13 is a working memory in which the CPU 11 temporarily stores various data as necessary, and includes a buffer area shown in a flow to be described later.

図2は、メモリカード60に記憶されている動画データを示す図である。このメモリカード60には、複数の動画データ(1)〜(M)が予め記憶されている。この動画データ(1)〜(M)は、前述のようにデジタルカメラで撮影されて記録されたもの、あるいはコンテンツサーバ50からネットワーク90を介してダウンロードしたものである。   FIG. 2 is a diagram showing moving image data stored in the memory card 60. The memory card 60 stores a plurality of moving image data (1) to (M) in advance. The moving image data (1) to (M) are those recorded and recorded by the digital camera as described above, or downloaded from the content server 50 via the network 90.

また、各動画データ(1)〜(M)は、複数のフレームデータ(1)〜(N)で構成され、例えば動画データ(1)は、所定のフレームレートからなるフレームデータ(1)(1)〜(1)(N)で構成されている。また、これらフレームデータ(1)(1)〜(1)(N)と関係付けられて、音声データ601も記録されている。   Each moving image data (1) to (M) is composed of a plurality of frame data (1) to (N). For example, the moving image data (1) includes frame data (1) (1) having a predetermined frame rate. ) To (1) (N). Audio data 601 is also recorded in association with the frame data (1) (1) to (1) (N).

次に、以上の構成に係る本実施の形態の動作について説明する。キー入力部21に設けられている電源スイッチがオン操作され、メニュー画面から画像ファイル生成モードが選択されると、CPU11はROM12に記憶されているプログラムに従ってRAM13をワークエリアとして使用しつつ、各部の制御及び処理を開始する。図3は、CPU11の処理手順を示すメインフローである。CPU11は、先ずメモリカード60に記憶されている動画データの一覧を表示パネル3に表示させる(ステップS101)。   Next, the operation of the present embodiment according to the above configuration will be described. When the power switch provided in the key input unit 21 is turned on and the image file generation mode is selected from the menu screen, the CPU 11 uses the RAM 13 as a work area according to the program stored in the ROM 12, and Start control and processing. FIG. 3 is a main flow showing the processing procedure of the CPU 11. First, the CPU 11 displays a list of moving image data stored in the memory card 60 on the display panel 3 (step S101).

次に、タッチパネル5によるタッチ位置検出に基づき、これら表示パネル3に表示させた動画データの一覧からいずれかが選択されたか否かを判断する(ステップS102)。いずれかの動画データが選択されたならば、選択された動画データの先頭フレームデータを選択部により選択して、RAM13のフォルダ作成エリアに格納する(ステップS103)。   Next, based on the touch position detection by the touch panel 5, it is determined whether or not any one of the moving image data displayed on the display panel 3 has been selected (step S102). If any moving image data is selected, the first frame data of the selected moving image data is selected by the selection unit and stored in the folder creation area of the RAM 13 (step S103).

すなわち、図4に示すように、動画データMDは、所定のフレームレートで時間tに従って連続する複数のフレームデータFで構成される。また、動画データMDは、前述のようにデジタルカメラで動画撮影されたものであり、動画撮影の撮影開始時点TSから撮影終了時点TEまでの複数のフレームデータFで構成されている。そして、ステップS103においては、選択部により、先ず撮影開始時点TSのフレームデータF1を動画データMDから選択する。   That is, as shown in FIG. 4, the moving image data MD is composed of a plurality of frame data F that are continuous according to time t at a predetermined frame rate. The moving image data MD is a moving image shot by the digital camera as described above, and is composed of a plurality of frame data F from the shooting start time point TS to the shooting end time point TE of moving image shooting. In step S103, the selection unit first selects the frame data F1 at the shooting start time TS from the moving image data MD.

引き続き、動画データMDにおいて、前記ステップS103で選択部により選択されたフレームデータに対し、所定時間ΔT経過後のフレームデータを選択部により選択して、RAM13のフォルダ作成エリア以外のエリアに格納する(ステップS104)。これにより、図4に示すように、フレームデータF1に対して、所定時間ΔT経過後のフレームデータF2が選択される。   Subsequently, in the moving image data MD, with respect to the frame data selected by the selection unit in step S103, frame data after a predetermined time ΔT has been selected by the selection unit and stored in an area other than the folder creation area of the RAM 13 ( Step S104). As a result, as shown in FIG. 4, the frame data F2 after the elapse of the predetermined time ΔT is selected for the frame data F1.

次に、これら選択されたフレームデータF1、F2を複数のエリアに区分し、区分した複数のエリア毎に色を比較する(ステップS105)。つまり、図5(A)(B)に示すように、フレームデータF1、F2を複数の独立した円からなる同一の位置かつ同一大きさのエリアe1、e2に区分し、対応するエリアe1、e2の色を比較する。   Next, the selected frame data F1 and F2 are divided into a plurality of areas, and the colors are compared for each of the divided areas (step S105). That is, as shown in FIGS. 5A and 5B, the frame data F1 and F2 are divided into areas e1 and e2 having the same position and the same size made up of a plurality of independent circles, and the corresponding areas e1 and e2 are divided. Compare colors.

なお、本実施の形態においては、フレームデータF1、F2を複数の独立した円からなるエリアe1、e2に区分するようにしたが、フレームデータF1、F2を格子状に区分する等、エリアe1、e2は如何なる形状であってもよい。   In the present embodiment, the frame data F1 and F2 are divided into areas e1 and e2 made up of a plurality of independent circles, but the areas e1 and e2 e2 may have any shape.

また、フレームデータF1、F2における同一エリア同士で比較を行うが、動画撮影時における撮影者の手ブレやその他の原因により、画角が若干ずれる場合がある。この場合、殆ど画像の内容に変化がない場合であっても、比較するエリアの面積が小さいと、エリアにおける画像の色の変化する割合が大きくなってしまう可能性が高い。そこで、フレームデータ中に人物が写っている場合には、人物の顔を認識する機能を利用し、顔の位置を基準にして、X軸方向及びY軸方向に同一距離をもって離れている位置にエリアを設定すればよい。   Further, although the same areas in the frame data F1 and F2 are compared with each other, the angle of view may be slightly shifted due to camera shake or other causes at the time of moving image shooting. In this case, even if there is almost no change in the content of the image, if the area of the area to be compared is small, there is a high possibility that the rate of change of the color of the image in the area will increase. Therefore, when a person is captured in the frame data, the function of recognizing the person's face is used, and the position of the face is used as a reference and the X-axis direction and the Y-axis direction are separated by the same distance. What is necessary is just to set an area.

また、天候の急激な変化(晴→曇、曇→晴)により、全て又は多数のエリアe1、e2で明度(色ではない)が相違することが考えられるので、明度を用いる場合には、明度と色の組合せで不一致性を判断することが好ましい。   In addition, it is considered that the brightness (not color) is different in all or a large number of areas e1 and e2 due to a sudden change in weather (sunny → cloudy, cloudy → sunny). It is preferable to judge inconsistency by the combination of colors.

そして、このステップS105での比較の結果、複数のエリアe1、e2における所定の割合以上、例えば20%以上のエリアの色が不一致であるか否かを比較部により判断する(ステップS106)。不一致率が20%以上(ステップS106;NO)である場合には、フレームデータF1、F2は、異なる画像であると判断し、抽出部により選択したフレームデータF2をRAM13のフォルダ作成エリアに格納する(ステップS107)。   Then, as a result of the comparison in step S105, the comparison unit determines whether or not the colors of the areas of a plurality of areas e1 and e2 are equal to or greater than a predetermined ratio, for example, 20% or more (step S106). If the mismatch rate is 20% or more (step S106; NO), it is determined that the frame data F1 and F2 are different images, and the frame data F2 selected by the extraction unit is stored in the folder creation area of the RAM 13. (Step S107).

この20%以上のエリアの色が不一致であるか否かを判断する方法としては、複数のエリアe1と複数のエリアe2との各対応するエリアをそれぞれ比較し、エリアの色が不一致である個数が20%以上あるか否かを判断する方法がある。これは、フレームデータF1の各エリアe1と、フレームデータF1の各エリアe1と対応する領域にあるフレームデータF2の各エリアe2と、を比較し、例えば、図4に示すように、e1及びe2の数がそれぞれ15個ある場合、15個それぞれについて比較し、15個の20%は3個なので、エリアの色が不一致である個数が3個以上の場合は不一致であると判断し、エリアの色が不一致である個数が3個未満の場合は、不一致で無いと判断することができる。   As a method for determining whether or not the colors of these 20% or more areas do not match, the corresponding areas of the plurality of areas e1 and the plurality of areas e2 are respectively compared, and the number of areas whose colors do not match There is a method for determining whether or not there is 20% or more. This compares each area e1 of the frame data F1 with each area e2 of the frame data F2 in a region corresponding to each area e1 of the frame data F1, and for example, as shown in FIG. 4, e1 and e2 When there are 15 each, a comparison is made for each of the 15 and 20% of the 15 are 3, so if the number of areas whose colors do not match is 3 or more, it is determined that they do not match, When the number of colors that do not match is less than 3, it can be determined that there is no mismatch.

また、別の方法としてはとしては、複数のエリアe1全体と複数のエリアe2全体とを比較し、全体の20%以上のエリアの色が不一致であるか否かを判断する方法がある。この方法は、フレームデータF1の各エリアe1全部と、フレームデータF2の各エリアe2全部と、を比較し、例えば、図4に示すように、e1及びe2の数がそれぞれ15個ある場合、それぞれの15個全部について比較し、e2の15個のエリアの合計の色がe1の15個のエリアの合計の色と不一致である面積が20%以上の場合は不一致であると判断し、エリアの色が不一致である個数が3個未満の場合は、不一致で無いと判断することができる。   As another method, there is a method of comparing the plurality of areas e1 and the plurality of areas e2 and determining whether or not the colors of 20% or more of the areas are inconsistent. This method compares all the areas e1 of the frame data F1 with all the areas e2 of the frame data F2. For example, as shown in FIG. 4, when there are 15 e1 and e2 respectively, If the total color of the 15 areas of e2 does not match the total color of the 15 areas of e1 is 20% or more, it is determined that there is a mismatch. When the number of colors that do not match is less than 3, it can be determined that there is no mismatch.

このように、本実施の形態においては、フレームデータF1、F2の異同判断をエリアe1、e2における色に基づき行うことから、複雑な処理を伴うことなく簡単な処理により、フレームデータの異同を判断することができる。   As described above, in the present embodiment, since the determination of the difference between the frame data F1 and F2 is performed based on the colors in the areas e1 and e2, it is possible to determine the difference between the frame data through simple processing without complicated processing. can do.

次に、以上に説明したステップS104〜ステップS107の処理を、動画データMDの全長に対して完了したか否かを判断し(ステップS108)、完了するまでステップS104〜ステップS108のループを繰り返す。   Next, it is determined whether or not the processing of step S104 to step S107 described above has been completed for the entire length of the moving image data MD (step S108), and the loop of step S104 to step S108 is repeated until completion.

したがって、ステップS104〜ステップS108のループを繰り返されることにより、図4に示すように、動画データMDからは所定時間ΔT毎にフレームデータF3、F4・・・が選択される。また、この選択されたフレームデータF3、F4・・・とその直前に選択されたフレームデータと不一致率が所定以上である場合には、n+1番目に選択されたフレームデータがRAM13のフォルダ作成エリアに格納される。よって、RAM13のフォルダ作成エリアには、動画データMDから所定時間ΔT毎に抽出されたフレームデータであって、その直前に抽出された画像とは異なる複数のフレームデータが格納されることとなる。   Therefore, by repeating the loop of step S104 to step S108, frame data F3, F4... Are selected from the moving image data MD every predetermined time ΔT as shown in FIG. If the discrepancy rate between the selected frame data F3, F4... And the frame data selected immediately before is not less than a predetermined value, the n + 1th selected frame data is stored in the folder creation area of the RAM 13. Stored. Therefore, the folder creation area of the RAM 13 stores a plurality of frame data that is extracted from the moving image data MD every predetermined time ΔT and is different from the image extracted immediately before that.

そして、ステップS104〜ステップS107の処理を、動画データMDの全長に対して完了したならば、ファイル生成処理を行って、後述する漫画絵のフレームデータを複数含む画像ファイルを生成する(ステップS109)。さらに、この生成した画像ファイルを内部メモリ14に保存して(ステップS110)、処理を終了する。   Then, when the processing of step S104 to step S107 is completed for the entire length of the moving image data MD, file generation processing is performed to generate an image file including a plurality of later-described comic picture frame data (step S109). . Further, the generated image file is stored in the internal memory 14 (step S110), and the process is terminated.

図6は、本実施の形態における漫画絵変換インターラプトルーチンを示すフローチャートである。CPU11は、一定の時間間隔で図3に示したメインルーチンに対し割り込んで、この漫画絵変換インターラプトルーチンに従った処理を実行する。   FIG. 6 is a flowchart showing a comic picture conversion interrupt routine in the present embodiment. The CPU 11 interrupts the main routine shown in FIG. 3 at regular time intervals, and executes processing according to the comic picture conversion interrupt routine.

すなわち、新たに抽出されてRAM13のフォルダ作成エリアに格納されたフレームデータがあるか否かを判断する(ステップS201)。新たに抽出されてRAM13のフォルダ作成エリアに格納されたフレームデータがある場合には、当該フレームデータ中において主要被写体を認識する(ステップS202)。   That is, it is determined whether there is frame data newly extracted and stored in the folder creation area of the RAM 13 (step S201). If there is frame data newly extracted and stored in the folder creation area of the RAM 13, the main subject is recognized in the frame data (step S202).

このステップS202における主要被写体の認識に際しては、当該フレームデータ内における一定以上の大きさのオブジェクトであることを条件として主要被写体と認識する方法、あるいは一定以上の大きさのオブジェクトであってかつ人物被写体であることを条件に主要被写体と認識する方法等の如何なる方法であってもよい。   When recognizing the main subject in step S202, a method of recognizing the main subject on the condition that the object is a certain size or larger in the frame data, or a human subject that is a certain size or larger object Any method such as a method of recognizing a main subject on the condition of the above may be used.

なお、本実施の形態においては、例えば一定以上の大きさのオブジェクトであってかつ人物被写体であることを条件に主要被写体と認識するものとする。   In the present embodiment, for example, the main subject is recognized on the condition that it is an object of a certain size or larger and is a human subject.

引き続き、この認識した人物被写体における顔部分を認識する(ステップS203)。さらに、この認識した人物被写体における顔部分のみを拡大処理し(ステップS204)、拡大処理した人物被写体における顔部分のみを漫画絵に画像変換する(ステップS205)。このステップS205での漫画絵画像変換に際しては、例えば特開2010−146264号公報記載の技術を用いることができる。この技術においては、2値化された画像に膨張伸縮処理が施されて得られた画像である輪郭画像を用いて漫画絵への変換を行うことより、より簡単かつ効果的に漫画絵画像を表示することができるとされている。   Subsequently, the face portion in the recognized human subject is recognized (step S203). Further, only the face portion of the recognized human subject is enlarged (step S204), and only the facial portion of the enlarged human subject is converted into a cartoon picture (step S205). For the comic picture image conversion in step S205, for example, a technique described in JP 2010-146264 A can be used. In this technique, a comic picture is more easily and effectively converted by converting it into a comic picture using a contour image that is an image obtained by performing an expansion / contraction process on a binarized image. It can be displayed.

しかも、変換されるのは、顔部分のみであることから、漫画絵画像への変換に時間を要することなく、迅速に変換を完了することができる。   In addition, since only the face portion is converted, the conversion to the comic picture image can be completed quickly without taking time.

なお、顔部分のみではなく、人物被写体全体あるいは当該フレームデータ全体を漫画絵に変換するようにしてもよい。   Note that not only the face portion but also the entire human subject or the entire frame data may be converted into a cartoon picture.

また、本実施の形態においては、顔部分を拡大してから漫画絵に変換するようにしたことから、モチーフの特徴を誇張・強調した変形を加える表現手法である実際の漫画絵と同様に顔部分がデフォルメした漫画絵を得ることができる。   In the present embodiment, since the face portion is enlarged and converted to a comic picture, the face is similar to an actual comic picture, which is an expression technique for exaggerating and emphasizing the features of the motif. You can get a cartoon picture with deformed parts.

なお、顔部分を拡大することなく漫画絵に変換するようにしてもよい。   In addition, you may make it convert into a cartoon picture, without enlarging a face part.

次に、動画データMDにおいて、n番目に選択されたフレームデータと、n+1番目に選択されたフレームデータ間に音声データが記録されているか否かを判断する(ステップS206)。記録されている場合には、このn番目に選択されたフレームデータとn+1番目に選択されたフレームデータ間に記録されている音声データを抽出する(ステップS207)。さらに、この抽出した音声データにより表される音声をテキストデータに変換する(ステップS208)。そして、吹き出しを作成して、吹き出し内にステップS208で変換したテキストデータの文字列を配置するとともに、この文字列が配置された吹き出しをn+1番目に選択されたフレームデータ内に合成する(ステップS209)。しかる後に、メインルーチンにリターンする。   Next, it is determined whether or not audio data is recorded between the nth selected frame data and the (n + 1) th selected frame data in the moving image data MD (step S206). If recorded, the audio data recorded between the nth selected frame data and the (n + 1) th selected frame data is extracted (step S207). Further, the voice represented by the extracted voice data is converted into text data (step S208). Then, a speech balloon is created, and the character string of the text data converted in step S208 is arranged in the speech balloon, and the speech balloon in which this character string is arranged is synthesized in the n + 1th selected frame data (step S209). ). After that, the process returns to the main routine.

したがって、このタイマインターラプトルーチンがメインルーチンに割り込んで実行さえれると、図3のフローチャートにおいてステップS103及びステップS107でRAM13のフォルダ作成エリアに格納されたフレームデータは、全て漫画絵変換がなされたもとなる。よって、ステップS109で生成される画像ファイルは、漫画絵のフレームデータを複数含むものとなり、かつ、順次異なる画像で構成されることとなる。   Therefore, if this timer interrupt routine interrupts and executes the main routine, all the frame data stored in the folder creation area of the RAM 13 in step S103 and step S107 in the flowchart of FIG. . Therefore, the image file generated in step S109 includes a plurality of comic picture frame data, and is composed of sequentially different images.

したがって、内部メモリ14に格納された画像ファイル内のフレームデータを順次読み出して、スライドショー形式で表示させた際に、順次表示される画像が相違し、ユーザにおいて早期に画像の観賞を飽きてしまうという問題を解消することができる。   Therefore, when the frame data in the image file stored in the internal memory 14 is sequentially read out and displayed in the slide show format, the sequentially displayed images are different, and the user gets bored of viewing the images at an early stage. The problem can be solved.

また、動画撮影を行うという簡単な事前準備により、動画データからスライドショー形式での表示に適切な相違性のあるフレームデータを抽出してファイル化することができる。よって、簡単な事前準備によりユーザのスライドショー観賞に対する興趣性を向上させることができる。   In addition, with simple advance preparation of moving image shooting, it is possible to extract frame data having different differences suitable for display in the slide show format from the moving image data and create a file. Therefore, the interest property with respect to a user's slide show appreciation can be improved by simple prior preparation.

しかも、本実施の形態においては、図7に示すように、抽出したフレームデータFにおける顔部分を漫画絵MPに変換し、さらには音声を文字列Cにして吹き出しBにより表示することから、ユーザのスライドショー観賞に対する興趣性を向上させることができる。   Moreover, in the present embodiment, as shown in FIG. 7, the face portion in the extracted frame data F is converted into a cartoon picture MP, and further, the voice is displayed as a character string C with a speech bubble B. It is possible to improve the interest in viewing slideshows.

なお、本実施の形態においては、各フレームデータを漫画絵に変換し、音声を吹き出しにより表示するようにしたが、漫画絵変換や吹き出し表示を行うことなく、異なるフレームデータからなる画像ファイルを生成するようにしてもよい。この場合であっても、動画撮影を行うという簡単な事前準備により、動画データからスライドショー形式での表示に適切な相違性のあるフレームデータを抽出してファイル化することができる。   In this embodiment, each frame data is converted into a comic picture and the sound is displayed by a balloon. However, an image file composed of different frame data is generated without performing a comic picture conversion or a balloon display. You may make it do. Even in this case, the frame data having a difference suitable for display in the slide show format can be extracted from the moving image data and made into a file by simple preparation for moving image shooting.

以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。   Hereinafter, the invention described in the scope of claims of the present application will be appended.

<請求項1>
複数のフレームデータのうち、n番目に選択された前記フレームデータの複数のエリアと、n+1番目に選択された前記フレームデータの複数のエリアと、を比較し、前記複数のエリアにおける所定の割合以上が異なる場合、前記n+1番目に選択された前記フレームデータを抽出することを特徴とする画像ファイル生成装置。
<Claim 1>
Among a plurality of frame data, a plurality of areas of the frame data selected nth and a plurality of areas of the frame data selected n + 1 are compared, and a predetermined ratio or more in the plurality of areas If the two are different from each other, the image data generating apparatus is characterized in that the n + 1th selected frame data is extracted.

<請求項2>
前記複数のフレームデータは、時間的に連続する前記複数のフレームデータで構成されている動画データから所定の時間毎の前記フレームデータを選択する選択部により選択し、
前記n+1番目に選択された前記フレームデータを抽出するのは抽出部により行い、
前記複数のエリアの比較は比較部により対応するエリア毎に行い、
前記比較部は、前記n番目に選択された前記フレームデータの複数のエリアと、前記n+1番目に選択された前記フレームデータの複数のエリアと、の色を比較することを特徴とする請求項1記載の画像ファイル生成装置。
<Claim 2>
The plurality of frame data is selected by a selection unit that selects the frame data for each predetermined time from moving image data composed of the plurality of frame data continuous in time,
The extraction unit extracts the n + 1-th selected frame data,
The comparison of the plurality of areas is performed for each corresponding area by the comparison unit,
The comparison unit compares colors of a plurality of areas of the nth selected frame data with a plurality of areas of the n + 1th selected frame data. The image file generation device described.

<請求項3>
前記比較部は、前記n番目の前記複数のエリアと前記n+1番目の前記複数のエリアとの各対応するエリアをそれぞれ比較し、色が不一致である前記エリアの個数が前記所定の割合以上であるか否か、又は、前記n番目の前記複数のエリア全体と前記n+1番目の前記複数のエリア全体とを比較し、前記複数のエリア全体のうち前記所定の割合以上の色が不一致であるか否か、のいずれかを判断することを特徴とする請求項1または2記載の画像ファイル生成装置。
<Claim 3>
The comparison unit compares the corresponding areas of the nth plurality of areas and the (n + 1) th plurality of areas, respectively, and the number of areas whose colors do not match is equal to or greater than the predetermined ratio. Or the whole of the nth plurality of areas and the whole of the (n + 1) th plurality of areas are compared, and whether or not the color of the predetermined percentage or more of the whole of the plurality of areas does not match. 3. The image file generation apparatus according to claim 1, wherein one of the image file generation apparatus and the image file generation apparatus is determined.

<請求項4>
前記所定の割合は20%であることを特徴とする請求項1乃至3の何れか一項記載の画像ファイル生成装置。
<Claim 4>
4. The image file generation device according to claim 1, wherein the predetermined ratio is 20%.

<請求項5>
前記抽出部により抽出された前記複数のフレームデータを含む画像ファイルを生成するファイル生成部と、
前記抽出部により抽出された前記フレームデータを漫画絵画像に変換する漫画絵変換部を備え、
前記ファイル生成部は、前記漫画絵変換部により変換された複数の漫画絵画像を含む画像ファイルを生成することを特徴とする請求項2乃至4の何れか一項記載の画像ファイル生成装置。
<Claim 5>
A file generation unit that generates an image file including the plurality of frame data extracted by the extraction unit;
A cartoon picture conversion unit that converts the frame data extracted by the extraction unit into a cartoon picture image;
5. The image file generation device according to claim 2, wherein the file generation unit generates an image file including a plurality of comic picture images converted by the comic picture conversion unit.

<請求項6>
前記漫画絵変換部は、前記フレームデータにおいて主要被写体を認識する主要被写体認識部を備え、
前記主要被写体認識部により認識された前記主要被写体の輪郭を抽出して、前記主要被写体のみを漫画絵画像に変換することを特徴とする請求項5記載の画像ファイル生成装置。
<Claim 6>
The cartoon picture conversion unit includes a main subject recognition unit that recognizes a main subject in the frame data,
6. The image file generation apparatus according to claim 5, wherein an outline of the main subject recognized by the main subject recognition unit is extracted and only the main subject is converted into a comic picture image.

<請求項7>
前記主要被写体認識部は、人物被写体における顔部分のみを前記主要被写体として認識する顔認識部を備え、
前記漫画絵変換部は、前記顔認識部により認識された人物被写体における顔部分のみを漫画絵に変換することを特徴とする請求項6記載の画像ファイル生成装置。
<Claim 7>
The main subject recognizing unit includes a face recognizing unit that recognizes only a face portion of a human subject as the main subject,
The image file generation device according to claim 6, wherein the comic picture conversion unit converts only a face portion of a human subject recognized by the face recognition unit into a comic picture.

<請求項8>
前記漫画絵変換部は、前記人物被写体の顔部分を拡大して漫画絵に変換することを特徴とする請求項7記載の画像ファイル生成装置。
<Claim 8>
8. The image file generating apparatus according to claim 7, wherein the comic picture conversion unit enlarges the face portion of the person subject and converts it into a comic picture.

<請求項9>
前記動画データが、前記複数のフレームデータと共に音声データが記録されているものである場合において、
前記選択部により前記n番目に選択された前記フレームデータと前記n+1番目に選択された前記フレームデータとの間に記録されている前記音声データを抽出する音声データ抽出部と、
前記音声データ抽出部により抽出された前記音声データにより表される音声を文字列に変換する文字列変換部と、
を備え、
前記漫画絵変換部は、前記文字列変換部により変換された文字列を含む吹き出しを前記n+1番目に抽出された前記フレームデータ内に合成することを特徴とする請求項4乃至8の何れか一項記載の画像ファイル生成装置。
<Claim 9>
In the case where the moving image data is recorded with audio data together with the plurality of frame data,
An audio data extraction unit that extracts the audio data recorded between the nth frame data selected by the selection unit and the n + 1th frame data;
A character string converter that converts the voice represented by the voice data extracted by the voice data extractor into a character string;
With
9. The comic picture conversion unit synthesizes a balloon including the character string converted by the character string conversion unit into the n + 1-th extracted frame data. The image file generation device described in the item.

<請求項10>
画像ファイル生成装置が有するコンピュータを、
複数のフレームデータのうち、n番目に選択された前記フレームデータの複数のエリアと、n+1番目に選択された前記フレームデータの複数のエリアと、を比較し、前記複数のエリアにおける所定の割合以上が異なる場合、前記n+1番目に選択された前記フレームデータを抽出する手段として機能させることを特徴とする画像ファイル生成プログラム。
<Claim 10>
A computer included in the image file generation device,
Among a plurality of frame data, a plurality of areas of the frame data selected nth and a plurality of areas of the frame data selected n + 1 are compared, and a predetermined ratio or more in the plurality of areas When the two are different, the image file generating program is caused to function as a means for extracting the n + 1-th selected frame data.

<請求項11>
複数のフレームデータのうち、n番目に選択された前記フレームデータの複数のエリアと、n+1番目に選択された前記フレームデータの複数のエリアと、を比較し、前記複数のエリアにおける所定の割合以上が異なる場合、前記n+1番目に選択された前記フレームデータを抽出することを特徴とする画像ファイル生成方法。
<Claim 11>
Among a plurality of frame data, a plurality of areas of the frame data selected nth and a plurality of areas of the frame data selected n + 1 are compared, and a predetermined ratio or more in the plurality of areas If the two are different, the n + 1th selected frame data is extracted.

1 画像表示装置
3 表示パネル
5 タッチパネル
11 CPU
12 ROM
13 RAM
14 内部メモリ
16 表示制御部
17 キー入力制御部
18 メモリカードインターフェース
19 人感センサ
20 GPS制御部
21 キー入力部
30 通信制御部
60 メモリカード
601 音声データ
F フレームデータ
MD 動画データ
TE 撮影終了時点
TS 撮影開始時点
t 時間
DESCRIPTION OF SYMBOLS 1 Image display apparatus 3 Display panel 5 Touch panel 11 CPU
12 ROM
13 RAM
14 Internal Memory 16 Display Control Unit 17 Key Input Control Unit 18 Memory Card Interface 19 Human Sensor 20 GPS Control Unit 21 Key Input Unit 30 Communication Control Unit 60 Memory Card 601 Audio Data F Frame Data MD Video Data TE Shooting End Time TS Shooting Start time t

Claims (11)

複数のフレームデータのうち、n番目に選択された前記フレームデータの複数のエリアと、n+1番目に選択された前記フレームデータの複数のエリアと、を比較し、前記複数のエリアにおける所定の割合以上が異なる場合、前記n+1番目に選択された前記フレームデータを抽出することを特徴とする画像ファイル生成装置。   Among a plurality of frame data, a plurality of areas of the frame data selected nth and a plurality of areas of the frame data selected n + 1 are compared, and a predetermined ratio or more in the plurality of areas If the two are different from each other, the image data generating apparatus is characterized in that the n + 1th selected frame data is extracted. 前記複数のフレームデータは、時間的に連続する前記複数のフレームデータで構成されている動画データから所定の時間毎の前記フレームデータを選択する選択部により選択し、
前記n+1番目に選択された前記フレームデータを抽出するのは抽出部により行い、
前記複数のエリアの比較は比較部により対応するエリア毎に行い、
前記比較部は、前記n番目に選択された前記フレームデータの複数のエリアと、前記n+1番目に選択された前記フレームデータの複数のエリアと、の色を比較することを特徴とする請求項1記載の画像ファイル生成装置。
The plurality of frame data is selected by a selection unit that selects the frame data for each predetermined time from moving image data composed of the plurality of frame data continuous in time,
The extraction unit extracts the n + 1-th selected frame data,
The comparison of the plurality of areas is performed for each corresponding area by the comparison unit,
The comparison unit compares colors of a plurality of areas of the nth selected frame data with a plurality of areas of the n + 1th selected frame data. The image file generation device described.
前記比較部は、前記n番目の前記複数のエリアと前記n+1番目の前記複数のエリアとの各対応するエリアをそれぞれ比較し、色が不一致である前記エリアの個数が前記所定の割合以上であるか否か、又は、前記n番目の前記複数のエリア全体と前記n+1番目の前記複数のエリア全体とを比較し、前記複数のエリア全体のうち前記所定の割合以上の色が不一致であるか否か、のいずれかを判断することを特徴とする請求項1または2記載の画像ファイル生成装置。   The comparison unit compares the corresponding areas of the nth plurality of areas and the (n + 1) th plurality of areas, respectively, and the number of areas whose colors do not match is equal to or greater than the predetermined ratio. Or the whole of the nth plurality of areas and the whole of the (n + 1) th plurality of areas are compared, and whether or not the color of the predetermined percentage or more of the whole of the plurality of areas does not match. 3. The image file generation apparatus according to claim 1, wherein the image file generation apparatus determines whether one of 前記所定の割合は20%であることを特徴とする請求項1乃至3の何れか一項記載の画像ファイル生成装置。   4. The image file generation device according to claim 1, wherein the predetermined ratio is 20%. 前記抽出部により抽出された前記複数のフレームデータを含む画像ファイルを生成するファイル生成部と、
前記抽出部により抽出された前記フレームデータを漫画絵画像に変換する漫画絵変換部を備え、
前記ファイル生成部は、前記漫画絵変換部により変換された複数の漫画絵画像を含む画像ファイルを生成することを特徴とする請求項2乃至4の何れか一項記載の画像ファイル生成装置。
A file generation unit that generates an image file including the plurality of frame data extracted by the extraction unit;
A cartoon picture conversion unit that converts the frame data extracted by the extraction unit into a cartoon picture image;
5. The image file generation device according to claim 2, wherein the file generation unit generates an image file including a plurality of comic picture images converted by the comic picture conversion unit.
前記漫画絵変換部は、前記フレームデータにおいて主要被写体を認識する主要被写体認識部を備え、
前記主要被写体認識部により認識された前記主要被写体の輪郭を抽出して、前記主要被写体のみを漫画絵画像に変換することを特徴とする請求項5記載の画像ファイル生成装置。
The cartoon picture conversion unit includes a main subject recognition unit that recognizes a main subject in the frame data,
6. The image file generation apparatus according to claim 5, wherein an outline of the main subject recognized by the main subject recognition unit is extracted and only the main subject is converted into a comic picture image.
前記主要被写体認識部は、人物被写体における顔部分のみを前記主要被写体として認識する顔認識部を備え、
前記漫画絵変換部は、前記顔認識部により認識された人物被写体における顔部分のみを漫画絵に変換することを特徴とする請求項6記載の画像ファイル生成装置。
The main subject recognizing unit includes a face recognizing unit that recognizes only a face portion of a human subject as the main subject,
The image file generation device according to claim 6, wherein the comic picture conversion unit converts only a face portion of a human subject recognized by the face recognition unit into a comic picture.
前記漫画絵変換部は、前記人物被写体の顔部分を拡大して漫画絵に変換することを特徴とする請求項7記載の画像ファイル生成装置。   8. The image file generating apparatus according to claim 7, wherein the comic picture conversion unit enlarges the face portion of the person subject and converts it into a comic picture. 前記動画データが、前記複数のフレームデータと共に音声データが記録されているものである場合において、
前記選択部により前記n番目に選択された前記フレームデータと前記n+1番目に選択された前記フレームデータとの間に記録されている前記音声データを抽出する音声データ抽出部と、
前記音声データ抽出部により抽出された前記音声データにより表される音声を文字列に変換する文字列変換部と、
を備え、
前記漫画絵変換部は、前記文字列変換部により変換された文字列を含む吹き出しを前記n+1番目に抽出された前記フレームデータ内に合成することを特徴とする請求項4乃至8の何れか一項記載の画像ファイル生成装置。
In the case where the moving image data is recorded with audio data together with the plurality of frame data,
An audio data extraction unit that extracts the audio data recorded between the nth frame data selected by the selection unit and the n + 1th frame data;
A character string converter that converts the voice represented by the voice data extracted by the voice data extractor into a character string;
With
9. The comic picture conversion unit synthesizes a balloon including the character string converted by the character string conversion unit into the n + 1-th extracted frame data. The image file generation device described in the item.
画像ファイル生成装置が有するコンピュータを、
複数のフレームデータのうち、n番目に選択された前記フレームデータの複数のエリアと、n+1番目に選択された前記フレームデータの複数のエリアと、を比較し、前記複数のエリアにおける所定の割合以上が異なる場合、前記n+1番目に選択された前記フレームデータを抽出する手段として機能させることを特徴とする画像ファイル生成プログラム。
A computer included in the image file generation device,
Among a plurality of frame data, a plurality of areas of the frame data selected nth and a plurality of areas of the frame data selected n + 1 are compared, and a predetermined ratio or more in the plurality of areas When the two are different, the image file generating program is caused to function as a means for extracting the n + 1-th selected frame data.
複数のフレームデータのうち、n番目に選択された前記フレームデータの複数のエリアと、n+1番目に選択された前記フレームデータの複数のエリアと、を比較し、前記複数のエリアにおける所定の割合以上が異なる場合、前記n+1番目に選択された前記フレームデータを抽出することを特徴とする画像ファイル生成方法。   Among a plurality of frame data, a plurality of areas of the frame data selected nth and a plurality of areas of the frame data selected n + 1 are compared, and a predetermined ratio or more in the plurality of areas If the two are different, the n + 1th selected frame data is extracted.
JP2011121201A 2011-05-31 2011-05-31 Image file generating device, image file generating program and image file generating method Pending JP2012249211A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011121201A JP2012249211A (en) 2011-05-31 2011-05-31 Image file generating device, image file generating program and image file generating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011121201A JP2012249211A (en) 2011-05-31 2011-05-31 Image file generating device, image file generating program and image file generating method

Publications (2)

Publication Number Publication Date
JP2012249211A true JP2012249211A (en) 2012-12-13
JP2012249211A5 JP2012249211A5 (en) 2014-04-17

Family

ID=47469202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011121201A Pending JP2012249211A (en) 2011-05-31 2011-05-31 Image file generating device, image file generating program and image file generating method

Country Status (1)

Country Link
JP (1) JP2012249211A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160211001A1 (en) * 2015-01-20 2016-07-21 Samsung Electronics Co., Ltd. Apparatus and method for editing content
US9704279B2 (en) 2015-03-30 2017-07-11 Fujifilm Corporation Image processing device, image processing method, program, and recording medium

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06217254A (en) * 1993-01-13 1994-08-05 Sony Corp Image recording device
JP2000235638A (en) * 1999-02-15 2000-08-29 Canon Inc Image processing system and image processing method
JP2001229400A (en) * 2000-02-15 2001-08-24 Sharp Corp Image processor, image processing method and recording medium with image processing program recorded therein
JP2003085572A (en) * 2001-09-11 2003-03-20 Nippon Hoso Kyokai <Nhk> Comic generation device and comic generation program
JP2004056286A (en) * 2002-07-17 2004-02-19 Fuji Photo Film Co Ltd Image display method
JP2006114024A (en) * 2004-10-18 2006-04-27 Reallusion Inc Caricature character generating system and method
JP2007060392A (en) * 2005-08-25 2007-03-08 Toshiba Corp Image storage device and method
JP2008048279A (en) * 2006-08-18 2008-02-28 Toshiba Corp Video-reproducing device, method, and program
JP2009141678A (en) * 2007-12-06 2009-06-25 Fujifilm Corp Digital photo frame, and image display method thereof
JP2011010007A (en) * 2009-06-25 2011-01-13 Sony Corp Electronic apparatus, image output method, and program

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06217254A (en) * 1993-01-13 1994-08-05 Sony Corp Image recording device
JP2000235638A (en) * 1999-02-15 2000-08-29 Canon Inc Image processing system and image processing method
JP2001229400A (en) * 2000-02-15 2001-08-24 Sharp Corp Image processor, image processing method and recording medium with image processing program recorded therein
JP2003085572A (en) * 2001-09-11 2003-03-20 Nippon Hoso Kyokai <Nhk> Comic generation device and comic generation program
JP2004056286A (en) * 2002-07-17 2004-02-19 Fuji Photo Film Co Ltd Image display method
JP2006114024A (en) * 2004-10-18 2006-04-27 Reallusion Inc Caricature character generating system and method
JP2007060392A (en) * 2005-08-25 2007-03-08 Toshiba Corp Image storage device and method
JP2008048279A (en) * 2006-08-18 2008-02-28 Toshiba Corp Video-reproducing device, method, and program
JP2009141678A (en) * 2007-12-06 2009-06-25 Fujifilm Corp Digital photo frame, and image display method thereof
JP2011010007A (en) * 2009-06-25 2011-01-13 Sony Corp Electronic apparatus, image output method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160211001A1 (en) * 2015-01-20 2016-07-21 Samsung Electronics Co., Ltd. Apparatus and method for editing content
US10373648B2 (en) * 2015-01-20 2019-08-06 Samsung Electronics Co., Ltd. Apparatus and method for editing content
US10971188B2 (en) 2015-01-20 2021-04-06 Samsung Electronics Co., Ltd. Apparatus and method for editing content
US9704279B2 (en) 2015-03-30 2017-07-11 Fujifilm Corporation Image processing device, image processing method, program, and recording medium

Similar Documents

Publication Publication Date Title
CN105190511B (en) Image processing method, image processing apparatus and image processing program
EP2822267A2 (en) Method and apparatus for previewing a dual-shot image
KR102127351B1 (en) User terminal device and the control method thereof
KR20140106779A (en) Apparatus and method for processing a image in device
JP5110098B2 (en) Display processing apparatus and program
KR101949832B1 (en) Picture displaying method, apparatus and terminal device
KR20140093557A (en) Method and apparatus for photographing of a portable terminal
JP2006331393A (en) Album creating apparatus, album creating method and program
JP2006261711A (en) Image generating apparatus
JP2017028559A (en) Image processing device, image processing method, program and recording medium
US9601158B2 (en) Moving image selection apparatus for selecting moving image to be combined, moving image selection method, and storage medium
JP2010021921A (en) Electronic camera and image processing program
US10063791B2 (en) Method for presentation of images
JP2022109253A (en) Imaging apparatus, operation program and operation method of imaging apparatus
JP5024028B2 (en) Image conversion apparatus, image providing system, photographing / editing apparatus, image conversion method, image conversion program, and recording medium recording the program
JP2010021656A (en) Image processor and image processing method
US9600160B2 (en) Image processing device, image processing method, and program
CN113194256A (en) Shooting method, shooting device, electronic equipment and storage medium
JP2012249211A (en) Image file generating device, image file generating program and image file generating method
JP2010097449A (en) Image composition device, image composition method and image composition program
EP2800349B1 (en) Method and electronic device for generating thumbnail image
JP2007166383A (en) Digital camera, image composing method, and program
JP6213470B2 (en) Image processing apparatus, imaging apparatus, and program
US20060104631A1 (en) Method of taking a picture by composing images
JP5195317B2 (en) Camera device, photographing method, and photographing control program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140304

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140304

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150122

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150520